【StableDiffusion】AIエロ画像情報交換25
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 最新にしてたりエクステやTI多いと遅くなったりするのかね
動作してなくても重くなるとかありえるのかね >>198
RTX A4500、10700k、torch: 2.0.1+cu118、パワーリミット70%で26.57sでした
wikiにはそのうち書いておきます >>202
サンクス
A系は要求電力低いからあんまPLかけない方がよくね?
まあ元が200Wとかだから75WのA2000とは訳が違うけど >>203
ちょっとでも長持ちさせたくてリミットかけてるけどあまり意味ないのかな?
前モデルのA4000は熱で壊れやすいみたいな情報も見たのでフルパワーで使うのが怖くて。 自分は5年間に買ったDellのBTOに3060付けられて何の問題もなく使えてるけど運が良かったのかなぁ >>204
気持ちは分かる。A4000はオイルブリードが多いって聞くし
うちのA2000も小さい分すぐ熱くなる
ただ3090や3080(350W)に匹敵する仕様なのに200Wで動かしててそれからさらに3割削るのってそれはそれで不安になる >>206
逆効果ってこともあるんですかねぇ…むずかしいな
ちなみにリミット外してやったら23.28sでした。 ゲーム用のグラボは数字のハッタリ利かすために定格上限がOC状態みたいなもんで
PL70くらいに絞ると電力効率良くなるケースが多いけど
A系はどういう設定になってるかはわからんな
PL10%刻みくらいで回してPLと所用時間のグラフ書いてみるといいかもしらんね Aシリーズは実質パッシブ冷却で使うものだから
普通のグラボと同じような設置してると寿命早い AI美女のアカウントに本物と思って群がるおっさんみてると
オープンソースなのはクリエイターより情弱性欲チンコやな
AI生成側全員でやつらという資源を吸い上げとりあうんや >>207
RTX系だと3割でもそんな差出ないからやっぱ下げすぎな面もあるかもね
うちはA2000はPL95%でファンの回転数の方を上げてる(ファンの故障が怖いけど)
それでもすぐ70℃越すし油断すると80℃になるから3月には筐体に扇風機で風当ててた
今は別に組んだから補欠になってるけど 自分のPC(i512400F、メモリ32GB、RTX3060、12GB)はハローアスカベンチ、54秒でした。Pythonは3.10.6なのですが、起動時のコマンド見てると3.10.11ってなってます。
はじめて間もないのですがもしかして遅いですか? >>192
うちの仰向けを見ると on bed が入ってるっぽい >>195
>>213
トン
むしろ仰向けにならずにlying on backでもひたすら上体が起きているか、よくてうつ伏せ。
仰向けじゃないとゴニョゴニョいじれないじゃないか(憤怒 視点と視線はどうなってるかな
カメラ目線にするために上体起こしている可能性 案外、何にのせるって指示は素直に聞いてくれる感
おっ○いをテーブルののせているとやったときは、案外テーブルにどたぷんとやってくれました
客観的に見ると、ベッドに背中をののせているとも >>214
a girl lying on bed, on back
くらいのシンプルなプロンプトで出力確認してモデル種類やLoRAの有無・強弱でどうなるか確認
それで問題ないなら他要素のプロンプト足していって何が悪さしてるか確認
くらいしてみるといいかもね 1週間前までは生成できてた画像がVRAM足りないって言われて作れなくなった
ExternsionとかLoRAとか増やすとVRAM使うのかな >>214
モデルがわからないけど
dakimakura
と入れてみると出るかも
512x512だと二人出るかもしれない >>218はデバッグのためにwebui-user.batに--no-half-vae --skip-torch-cuda-test --no-half --disable-nan-check加えて
SettingのUpcast cross attention layer to float32を有効にしてたせいだった
そりゃメモリ足りなくなるよな
Upcastで生成もクッソ遅いのも当然だわ >>192
ワイはアニメ派なんやけど
モデルによって本当に得手不得手あるから出したいポーズのプロンプトでxyzプロットでcheckpoint 調べたらいいと思うわ >>200
お、ありがとう!
Pythonは間違っていない
webui-user.batに「--xformers」
やってなかった。。
asuka 21秒になったわ〜
これが限界ですかね・・・ >>222
コンソール(ターミナル)で各画像生成の速度どのくらい出てる?
某ブログのベンチだとtorch1で28it/sec、torch2で35it/secくらい出るみたいだけど
あとは速度落ちる原因としては生成途中のプレビューONにしてるとか
生成処理自体はCPUスペックそんなに関係しないとは思うんだけどな >>223
16it/sec 前後ですね。。
プレビューONになってた・・・
3回やって、いずれも20秒ですね。。 うちだとライブプレビューONでもOFFでもほぼ変わらない
ON: 8.99s
OFF: 8.97s
くらいのもん
PLを70%(315W)にすると9.04s
ちな37.9it/s
WebUI 1.2.1, PyTorch 2.0.1, cuDNN 8.9.1
4090 + 12100F
Ubuntu >>199
入れてみたけど便利だなこれ
ありがとう >>225
はや!
4090+7700k 20秒って妥当なんかわからん >>151
返信ありがとうございますm(_ _)m
ちなみにどのような方法で高画質(美肌)化出来ますか? 12600k/4070Ti/PL70で16.7sec(約21it/sec)な感じだった
wikiの結果一覧見た感じそれなりにcpu差出るんかしらね 引っ越し先のクラウドで新環境整えてんだけど
パイトーチ?が2になったら
xフォーマーがなんか干渉して動かなくなったんで--opt-sdp-no-mem-attentionを動かす方向で頑張ってたけど
なんか早くなった気がする 変な指、知らない人の手が出てくるとかを抑えたり、画質上げるネガティブプロンプトって今は何が鉄板なんですかね。私はEasyNegativeくらいしか入れてないんですが… easynegativeはいらんとこまで補正するから
dynamic promptsのワイルドカード機能を使って自分用のネガティブセットを1語に圧縮してる
(BREAKも入れておけば圧縮分の75区切りを気にしなくて良い) >>197
俺の4790K(2014発売)と4090でアスカベンチ13.86s
キミの環境は何かが絶対おかしい… 500秒の俺からすれば「10秒も20秒も同じだろ」という感想しか湧かない >>234
えっ、はや。6秒も・・・
次はやったんだが、SD導入しくってるのか?
・cuDNN入替
・webui-user.batに「--xformers」を追加
SD導入でおすすめサイトあれば教えて
もうまっさらにしていれなおすしか・・・ アスカベンチ10秒とかの人ってライブプレビューでちょっとずつできていく過程を見て一喜一憂したりできないわけでしょ?
「いいぞ!そのままマンコおっ広げろ!」
「おいどこにチンポ生やそうとしてんだ!」
「そこ腕にするんかーい」
みたいな
俺の「勝ち」じゃね? >>236
--opt-sdp-attention
これはもう試したんだっけ?
俺は3060時代に導入して--xformersから1.4倍速になったよ
Pytorch2.0はインスコした?
ttps://yuuyuublog.org/opt-sdp-attention/
↑ここが詳しいよ 絵の質は置いといてblack pantiesをNegativeすればいろんな色の陰毛が出やすくなったのだ
https://majinai.art/ja/i/xNyHfWo
↓いろいろ違うけど比較用
https://majinai.art/ja/i/oEqEInT
ねる >>236
うちの4070ti+5700X環境で22秒弱だからな
CPUはある程度差が出る要因だと思うけど、4090ならもうちょっと早くも良いと思う
インストールで一番確実なのは公式じゃない?
1か月ほど前に環境入れ替えた時はこれみてやった
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
実行時に何かエラーが出てたから、都度BingのAIに聞いてアドバイスに従ってコマンド追加で打ち込んだら解決したし
あとCUDAのライブラリは今は4000番対応のものに置き換わってるから特に何もしなくてもいいと聞いたことがある
まあ、今の環境バックアップしておいて色々と試してみるが吉 うちの環境は xformersから torch2+cu118にしたらたしかに10%ぐらい早くなったけど
代わりにi2iの画像アップロード領域を画面に表示してたら生成が進まないようになっちゃったわ >>238
ありがとう〜助かりますわ!
どっちも、やってない・・・ >>240
ありがとう!
youtubeで紹介しているやつみながらやったんだが、
なんらエラーなく動いてワイルんだよな
それがまた厄介だ 3060だけどcudnnを最新にしたら若干早くなった気がする
気がするだけかもしれない cudnnって勝手にアップデートされていってない?
GPUのドライバってnVidiaのを入れてもwindowsが勝手にあげてるような感じがするけどどうしたら良いの? アスカベンチPyTorch更新前は16秒だったけど14秒になった。ライブプレビューはオフにしても変わらない
Core i9 9900K + RTX4090
PyTorch 2.0.1+cu118
cuDNN入れ替えた
--xformersなし
opt-sdp-attentionあり んほっー!助けて!キャラLora作ってるんだけど、素材少ないキャラで顔アップ+同じ服でいろんなアングルの画像突っ込んでkeep_token2でキャラ名+faceとキャラ名+dressで分けて顔要素と服要素(服のほうだけ)抜いて学習するとどうしても体に服がまとわりついてきて困ってる。
プロンプトでキャラ名+nudeとかschool swimsuitで服の一部が合成されてしまう。これどうにかして素材に裸体とか入れないとダメ? プロンプトの相談させてください
時折シコリながらめっちゃ頑張ったんだけど
仰向けに寝てるキャラの足側からスカート覗く構図がむずかしい…
なかなかいい出力しなくてチンポきついのでアドバイスお願いします >>248
こんな感じであればプロンプトを練るよりControlNetを使った方が確実だと思う
https://files.catbox.moe/r2g58t.jpg 怖い・・・controlNetってよく聞くけど
マウス操作とかで手足をドラッグしたりしてグラフィカルにこういう絵が描けるの? >>253
なんか勘違いしてそうw
元となる絵(なんでもいい)を取り込んでポーズや構図などをコピーする拡張だよ
ポーズはそのままに絵柄を変えられる
元絵ではケバい顔でもポーズさえ取り込めれば顔なんていくらでも弄れるから自分で生成する絵も意味合いが変わってくる >>254
柔道黒帯の女生徒が練習に疲れて簡易ベッドで爆睡しているシチュエーションよね
>>256
いや、参照させてポーズを一致させるというところまでは知っていたんだけど
このレントゲン写真ってどうやって書いたのかなって >>258
なるほど、素晴らしい。
イリュージョンかなと思ったらやっぱりかw
controlSet使ったSDと相性よいよね
俺はソフト持って無いから、俺がこのポーズをしているのを
嫁さんにカメラ撮ってもらってそれを読み込ませれば、controlSetを利用することができるんだろうね こういうポーズ絶対ぐちゃると思ってたけど
depthとopenposeのマルチ適用でいけるのか? >>252
はえーすごい
controlnet使ったことなかったけどやってみます
ありがとうございます >>260
こういう横向いてる顔はめっっっっっっっっっっっっっっちゃ崩れるね
ポーズよりも顔の方がきびしい
https://files.catbox.moe/dso5gj.png sdは単純にタグ等の文字列と素材画像のピクセル構成を紐付けて覚えてるから
画面に対してまっすぐ以外の顔は超苦手(素材不足)
上下逆とか真横とかなら回転すりゃええやんって思うけどそういう気のきいたことはできない模様 仰向け出ない件、いろいろトンクスでした。
xyzでモデルを回してみる発想はなかったのでやってみます。 >>258
クレクレで申し訳ないがシーンデータを配布してくれないだろうか? >>259
いや、嫁さんにこのポーズさせて、あなたが写真撮れば新しい世界が広がるかもよ。 4060Tiのレビュー解禁されて性能面では大分お通夜みたいだな
それはそれとして何かSDの性能倍くらいになるドライバやら何やら作ってるみたいね
https://pc.watch.impress.co.jp/docs/news/1502767.html 13900Kと4090でアスカベンチ10.7秒くらいだけどブラウザ全画面とかにしてコマンドプロンプトを隠してしまうとCPU処理がEコアに回されて17.4秒までガタ落ちするのよな 2倍ってDIRECTML使用時の話じゃないか
現状のpytoch環境にはあんまり関係なさそう なんかpytorch資産生かしつつTensorコア有効活用できるようなブリッジ的なやつがどうたらこうたらみたいな感じに見えなくもないが
その辺詳しくないのでわからん 上の記事を参考にPyTorch 2.0.0+cu118とXformer更新したらGPUがないぞみたいなエラーでたから結局Venv削除して戻した
Webuiのバージョンの問題だろうか? >274
公式のReleasesにある最新のを落としてきて新規インストールすれば最新のになるよ >>267
ありがとうございます
今日の夜頑張ってみますわ >>269
>>267
要は3DソフトでデプスマップだせればいいのでMMDとかフリー物組み合わせても出来るよ。
ttps://www.iwara.tv/image/Z4DXojqirQpjeV/sabaviewerpmm-v146-depth-map-for-stable-diffusioncontrolnet >>247
多分そういう時こそ正則化画像なんだろうけど
使い方は俺もわからない lora学習色々試行錯誤してみたくて学習率1e-6とか1e-7のSTEP8400でやってみたんだけど1ミリも学習しなくて草
うまく行った人STEPどれくらいだった? kohyaリポジトリのドキュメントにloraは1e-4くらいがいいぞって書いてあるよ
ざっくり動作確認するのに1e-4/dim64/alpha32/AdamW/バッチ6/2000ステップくらいでやってる
手ごたえあったらそこから更に追加学習 >>280
なるほど
どっかのサイトにデフォルトの1e-4は画像がガビりやすいから5〜7がオススメって書いてて、確かに自作lora学習はするものの画質が他人のと比べて悪かったから変えてみるか…って感じだったんだけど
別の設定を変えてみるか… civitでプロンプト少ないのに
エグいポーズ出してるのは
controlnet使ってる可能性もあるのか >>281
学習率もそうだけどdimも大きくすると教師画像への追従性が上がるかわりに過学習ですぐガビりやすくなるよ
あとガビったLoRA出来上がってもプロンプト側で強度やblockweight調整で十分使えるものになったりもするから
試作品で動作確認しつつ最適パラメータ(学習率とか階層ごとの学習率とか)探っていくといいかもね >>247
現状は、服と身体の2フォルダ作って学習してるって理解でいい?
素材が少なくてかつ2フォルダの先頭ワードが同じならそら混ざるよ変えるべき。
さらに厳密にやるなら、服と身体の固有ワードは似てないものにした方がいいよ。例えばmaruzenface, maruzendressとかだとテキストエンコーダが同類語と認識してこれまたまざっちまうからね
さらにさらに念を入れるなら素材画像も服と顔を分離しよう >>237
出来るよ
lora3個入れてCN適用してhiresかけたら
512x768のhires2倍で40秒くらいかかるから
プレビュー見る余裕はじゅうぶんある >>246
そんなもんなのかね
全く同じ設定でCPUだけ13900kだがPL90%プレビューありで10.2秒だ 流石に企業メディアにNAIリークモデル使ってベンチしろとは言えんやろw もうちょっと権利的に扱いやすいベンチが欲しいね、どこかでそういう動きがあったりしないかな
「アスカ」であることも微妙だし
やるとしたら、「馬に乗った宇宙飛行士」か そういやアスカベンチどころかnaiもvaeも持ってないって事はアスカテストもしてないのか
そもそも正しく動作する環境じゃない可能性もあるな >>284
maruzen, dress, 1girl..... maruzen, face, 1girl.......
で先頭2トークン固定でやってたけど、faceのほうはdressが写ってないからdressの概念を理解してくれるのかなってやってたけど混ざっちゃうかな?
トークンって部分一致でも同類語って認識しちゃうんだ。完全一致だと思ってて今までのLoraかなり似た文字列にしてしまった。。。 脱がせたいのに服がまとわりつくとなると明らかに過学習だねえ
素材の量にもよるが、特定のキャラ再現はその辺が難しい
自分の場合は画風優先でその絵師さんの絵を可能な限り集める
タグは絵師さん名を全画像に、出したいキャラの画像にキャラ名を、出したい衣装の画像に衣装名をいれる
全体で100〜200枚、出したいキャラ20枚くらい
これで髪型や髪色とかプロンプトで補助できるものは入れてやるとそれっぽいキャラは出るが衣装含めて完全再現となると厳しい
その反面、ほかの服着せたり脱がせたりは容易だったりする
今試作中のやつ
(mishima_kurone),(Sistine:1.2),rokude_cos,(long straight hair:1.2),(silver hair:1.2)
https://imgur.com/pLnI9A6.png
https://imgur.com/jx4CAV1.png
(mishima_kurone),(Sistine:1.2),(long straight hair:1.2),(silver hair:1.2) +適当な衣装
https://imgur.com/nq2dD5G.png
https://imgur.com/VWJmgql.png 過学習ってのも変な話だよな
本来なら学習すればするだけ頭良くなってほしいものだが 学習途中のファイルも保存してたら過学習はなんとかなるはずだけど…
結局は教師データの質と量がどれだけあるかな気がするなあ >>294
のめり込めばのめり込むほど他のことに興味なくなるのよ >>291
画像を分けててもキャプションで分けてなきゃそりゃ混ざるよ。テキストエンコーディングの話で過学習かどうかとは別の問題だと思う >>294
過学習って更に学習して超えるべき山じゃないのか?
とりあえず超えるとGPT4みたいに極端に偉くなったみたいな話
SDって超えてないんだっけ? ■ このスレッドは過去ログ倉庫に格納されています