【StableDiffusion】AIエロ画像情報交換25
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 9702-FIIW)2023/05/21(日) 16:32:32.01ID:9YxjyN8C0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい

AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0204...φ(・ω・`c⌒っ (ワッチョイ a6ff-o7Mo)2023/05/23(火) 12:19:13.54ID:ePBGr1n80
>>203
ちょっとでも長持ちさせたくてリミットかけてるけどあまり意味ないのかな?
前モデルのA4000は熱で壊れやすいみたいな情報も見たのでフルパワーで使うのが怖くて。
0206...φ(・ω・`c⌒っ (ワッチョイ aa25-OGEx)2023/05/23(火) 12:57:31.93ID:BJohb/ep0
>>204
気持ちは分かる。A4000はオイルブリードが多いって聞くし
うちのA2000も小さい分すぐ熱くなる
ただ3090や3080(350W)に匹敵する仕様なのに200Wで動かしててそれからさらに3割削るのってそれはそれで不安になる
0208...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/23(火) 13:42:42.99ID:nJ5i6my60
ゲーム用のグラボは数字のハッタリ利かすために定格上限がOC状態みたいなもんで
PL70くらいに絞ると電力効率良くなるケースが多いけど
A系はどういう設定になってるかはわからんな
PL10%刻みくらいで回してPLと所用時間のグラフ書いてみるといいかもしらんね
0210...φ(・ω・`c⌒っ (ワッチョイ 26bd-nvsI)2023/05/23(火) 13:46:24.56ID:xe4xhZpP0
AI美女のアカウントに本物と思って群がるおっさんみてると
オープンソースなのはクリエイターより情弱性欲チンコやな
AI生成側全員でやつらという資源を吸い上げとりあうんや
0211...φ(・ω・`c⌒っ (ワッチョイ aa25-OGEx)2023/05/23(火) 13:48:44.70ID:BJohb/ep0
>>207
RTX系だと3割でもそんな差出ないからやっぱ下げすぎな面もあるかもね
うちはA2000はPL95%でファンの回転数の方を上げてる(ファンの故障が怖いけど)
それでもすぐ70℃越すし油断すると80℃になるから3月には筐体に扇風機で風当ててた
今は別に組んだから補欠になってるけど
0212...φ(・ω・`c⌒っ (ワッチョイ d3ef-uMXD)2023/05/23(火) 14:14:11.90ID:OEV+8vjG0
自分のPC(i512400F、メモリ32GB、RTX3060、12GB)はハローアスカベンチ、54秒でした。Pythonは3.10.6なのですが、起動時のコマンド見てると3.10.11ってなってます。

はじめて間もないのですがもしかして遅いですか?
0214...φ(・ω・`c⌒っ (ガックシ 06a6-owa4)2023/05/23(火) 14:30:52.61ID:6aA9GyMq6
>>195
>>213

トン
むしろ仰向けにならずにlying on backでもひたすら上体が起きているか、よくてうつ伏せ。
仰向けじゃないとゴニョゴニョいじれないじゃないか(憤怒
0216...φ(・ω・`c⌒っ (ワッチョイ 3e4a-FIIW)2023/05/23(火) 14:52:27.84ID:1z3ey+u20
案外、何にのせるって指示は素直に聞いてくれる感
おっ○いをテーブルののせているとやったときは、案外テーブルにどたぷんとやってくれました

客観的に見ると、ベッドに背中をののせているとも
0217...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/23(火) 14:59:53.84ID:nJ5i6my60
>>214
a girl lying on bed, on back
くらいのシンプルなプロンプトで出力確認してモデル種類やLoRAの有無・強弱でどうなるか確認
それで問題ないなら他要素のプロンプト足していって何が悪さしてるか確認
くらいしてみるといいかもね
0218...φ(・ω・`c⌒っ (ワッチョイ 5bc8-owa4)2023/05/23(火) 15:17:28.88ID:Iq/VKAei0
1週間前までは生成できてた画像がVRAM足りないって言われて作れなくなった
ExternsionとかLoRAとか増やすとVRAM使うのかな
0220...φ(・ω・`c⌒っ (ワッチョイ 5bc8-owa4)2023/05/23(火) 15:35:16.30ID:Iq/VKAei0
>>218はデバッグのためにwebui-user.batに--no-half-vae --skip-torch-cuda-test --no-half --disable-nan-check加えて
SettingのUpcast cross attention layer to float32を有効にしてたせいだった
そりゃメモリ足りなくなるよな
Upcastで生成もクッソ遅いのも当然だわ
0221...φ(・ω・`c⌒っ (アークセー Sx13-Z5oC)2023/05/23(火) 16:16:22.54ID:OK5TYCKUx
>>192
ワイはアニメ派なんやけど
モデルによって本当に得手不得手あるから出したいポーズのプロンプトでxyzプロットでcheckpoint 調べたらいいと思うわ
0222...φ(・ω・`c⌒っ (ワッチョイ 1f26-SwK+)2023/05/23(火) 16:42:17.90ID:+OIM5lDF0
>>200
お、ありがとう!

Pythonは間違っていない

webui-user.batに「--xformers」
やってなかった。。
asuka 21秒になったわ〜
これが限界ですかね・・・
0223...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/23(火) 16:52:52.71ID:nJ5i6my60
>>222
コンソール(ターミナル)で各画像生成の速度どのくらい出てる?
某ブログのベンチだとtorch1で28it/sec、torch2で35it/secくらい出るみたいだけど

あとは速度落ちる原因としては生成途中のプレビューONにしてるとか
生成処理自体はCPUスペックそんなに関係しないとは思うんだけどな
0224...φ(・ω・`c⌒っ (ワッチョイ 1f26-SwK+)2023/05/23(火) 17:21:35.75ID:+OIM5lDF0
>>223
16it/sec 前後ですね。。
プレビューONになってた・・・
3回やって、いずれも20秒ですね。。
0225...φ(・ω・`c⌒っ (ワッチョイ 7fc8-JpSN)2023/05/23(火) 17:43:20.68ID:+FR/2nFm0
うちだとライブプレビューONでもOFFでもほぼ変わらない
ON: 8.99s
OFF: 8.97s
くらいのもん
PLを70%(315W)にすると9.04s
ちな37.9it/s
WebUI 1.2.1, PyTorch 2.0.1, cuDNN 8.9.1
4090 + 12100F
Ubuntu
0226...φ(・ω・`c⌒っ (スッップ Sdca-a5bG)2023/05/23(火) 19:39:13.34ID:mtJfBlA6d
>>225
windowsより1秒くらい早いな
0228...φ(・ω・`c⌒っ (ワッチョイ 1f26-SwK+)2023/05/23(火) 20:21:50.73ID:+OIM5lDF0
>>225
はや!

4090+7700k 20秒って妥当なんかわからん
0231...φ(・ω・`c⌒っ (ワッチョイ 7fc8-FIIW)2023/05/23(火) 21:10:34.68ID:rfipiY3z0
引っ越し先のクラウドで新環境整えてんだけど
パイトーチ?が2になったら
xフォーマーがなんか干渉して動かなくなったんで--opt-sdp-no-mem-attentionを動かす方向で頑張ってたけど
なんか早くなった気がする
0232...φ(・ω・`c⌒っ (ワッチョイ 8332-lOct)2023/05/23(火) 21:52:25.33ID:wckPvjqA0
変な指、知らない人の手が出てくるとかを抑えたり、画質上げるネガティブプロンプトって今は何が鉄板なんですかね。私はEasyNegativeくらいしか入れてないんですが…
0233...φ(・ω・`c⌒っ (ワッチョイ bb7a-oDzn)2023/05/23(火) 22:06:08.12ID:tgbXLIoO0
easynegativeはいらんとこまで補正するから
dynamic promptsのワイルドカード機能を使って自分用のネガティブセットを1語に圧縮してる
(BREAKも入れておけば圧縮分の75区切りを気にしなくて良い)
0236...φ(・ω・`c⌒っ (ワッチョイ 1f26-SwK+)2023/05/23(火) 22:56:52.82ID:+OIM5lDF0
>>234
えっ、はや。6秒も・・・

次はやったんだが、SD導入しくってるのか?
・cuDNN入替
・webui-user.batに「--xformers」を追加

SD導入でおすすめサイトあれば教えて
もうまっさらにしていれなおすしか・・・
0237...φ(・ω・`c⌒っ (ワッチョイ aa10-FIIW)2023/05/23(火) 23:06:36.00ID:ClZ6Qp3d0
アスカベンチ10秒とかの人ってライブプレビューでちょっとずつできていく過程を見て一喜一憂したりできないわけでしょ?
「いいぞ!そのままマンコおっ広げろ!」
「おいどこにチンポ生やそうとしてんだ!」
「そこ腕にするんかーい」
みたいな

俺の「勝ち」じゃね?
0238...φ(・ω・`c⌒っ (ワッチョイ 2a7a-FIIW)2023/05/23(火) 23:34:39.16ID:+Jy04DcP0
>>236
--opt-sdp-attention
これはもう試したんだっけ?
俺は3060時代に導入して--xformersから1.4倍速になったよ
Pytorch2.0はインスコした?
ttps://yuuyuublog.org/opt-sdp-attention/
↑ここが詳しいよ
0240...φ(・ω・`c⌒っ (ワッチョイ eec8-SwK+)2023/05/23(火) 23:41:48.90ID:fwc7/L7J0
>>236

うちの4070ti+5700X環境で22秒弱だからな
CPUはある程度差が出る要因だと思うけど、4090ならもうちょっと早くも良いと思う

インストールで一番確実なのは公式じゃない?
1か月ほど前に環境入れ替えた時はこれみてやった
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs

実行時に何かエラーが出てたから、都度BingのAIに聞いてアドバイスに従ってコマンド追加で打ち込んだら解決したし
あとCUDAのライブラリは今は4000番対応のものに置き換わってるから特に何もしなくてもいいと聞いたことがある
まあ、今の環境バックアップしておいて色々と試してみるが吉
0241...φ(・ω・`c⌒っ (ワッチョイ 7e7a-cUXk)2023/05/23(火) 23:46:32.31ID:H+tCks7N0
うちの環境は xformersから torch2+cu118にしたらたしかに10%ぐらい早くなったけど
代わりにi2iの画像アップロード領域を画面に表示してたら生成が進まないようになっちゃったわ
0242...φ(・ω・`c⌒っ (ワッチョイ 1f26-MDtm)2023/05/23(火) 23:48:20.25ID:+OIM5lDF0
>>238
ありがとう〜助かりますわ!

どっちも、やってない・・・
0243...φ(・ω・`c⌒っ (ワッチョイ 1f26-MDtm)2023/05/23(火) 23:52:28.13ID:+OIM5lDF0
>>240
ありがとう!

youtubeで紹介しているやつみながらやったんだが、
なんらエラーなく動いてワイルんだよな
それがまた厄介だ
0245...φ(・ω・`c⌒っ (ワッチョイ aaec-ayg6)2023/05/24(水) 01:04:39.05ID:1caQMFt70
cudnnって勝手にアップデートされていってない?
GPUのドライバってnVidiaのを入れてもwindowsが勝手にあげてるような感じがするけどどうしたら良いの?
0246...φ(・ω・`c⌒っ (ワッチョイ d346-00HK)2023/05/24(水) 01:08:19.55ID:90WXIcgI0
アスカベンチPyTorch更新前は16秒だったけど14秒になった。ライブプレビューはオフにしても変わらない

Core i9 9900K + RTX4090
PyTorch 2.0.1+cu118
cuDNN入れ替えた
--xformersなし
opt-sdp-attentionあり
0247...φ(・ω・`c⌒っ (ワッチョイ 5baf-ff77)2023/05/24(水) 01:57:10.31ID:mgRw9QcS0
んほっー!助けて!キャラLora作ってるんだけど、素材少ないキャラで顔アップ+同じ服でいろんなアングルの画像突っ込んでkeep_token2でキャラ名+faceとキャラ名+dressで分けて顔要素と服要素(服のほうだけ)抜いて学習するとどうしても体に服がまとわりついてきて困ってる。
プロンプトでキャラ名+nudeとかschool swimsuitで服の一部が合成されてしまう。これどうにかして素材に裸体とか入れないとダメ?
0248...φ(・ω・`c⌒っ (ワッチョイ e65b-mcB/)2023/05/24(水) 02:54:48.16ID:34FQo3qe0
プロンプトの相談させてください
時折シコリながらめっちゃ頑張ったんだけど
仰向けに寝てるキャラの足側からスカート覗く構図がむずかしい…
なかなかいい出力しなくてチンポきついのでアドバイスお願いします
0253...φ(・ω・`c⌒っ (ワッチョイ aaec-ayg6)2023/05/24(水) 06:39:38.72ID:1caQMFt70
怖い・・・controlNetってよく聞くけど
マウス操作とかで手足をドラッグしたりしてグラフィカルにこういう絵が描けるの?
0256...φ(・ω・`c⌒っ (ワッチョイ f740-2d1a)2023/05/24(水) 07:13:12.34ID:ZS2PE8Zl0
>>253
なんか勘違いしてそうw
元となる絵(なんでもいい)を取り込んでポーズや構図などをコピーする拡張だよ
ポーズはそのままに絵柄を変えられる
元絵ではケバい顔でもポーズさえ取り込めれば顔なんていくらでも弄れるから自分で生成する絵も意味合いが変わってくる
0257...φ(・ω・`c⌒っ (ワッチョイ aaec-ayg6)2023/05/24(水) 07:30:25.42ID:1caQMFt70
>>254
柔道黒帯の女生徒が練習に疲れて簡易ベッドで爆睡しているシチュエーションよね

>>256
いや、参照させてポーズを一致させるというところまでは知っていたんだけど
このレントゲン写真ってどうやって書いたのかなって
0259...φ(・ω・`c⌒っ (ワッチョイ aaec-ayg6)2023/05/24(水) 07:49:31.00ID:1caQMFt70
>>258
なるほど、素晴らしい。
イリュージョンかなと思ったらやっぱりかw
controlSet使ったSDと相性よいよね

俺はソフト持って無いから、俺がこのポーズをしているのを
嫁さんにカメラ撮ってもらってそれを読み込ませれば、controlSetを利用することができるんだろうね
0261...φ(・ω・`c⌒っ (ワッチョイ e65b-mcB/)2023/05/24(水) 07:51:06.39ID:34FQo3qe0
>>252
はえーすごい
controlnet使ったことなかったけどやってみます
ありがとうございます
0263...φ(・ω・`c⌒っ (アウアウウー Sa7f-dDN7)2023/05/24(水) 09:09:48.47ID:p1zx9alGa
sdは単純にタグ等の文字列と素材画像のピクセル構成を紐付けて覚えてるから
画面に対してまっすぐ以外の顔は超苦手(素材不足)
上下逆とか真横とかなら回転すりゃええやんって思うけどそういう気のきいたことはできない模様
0268...φ(・ω・`c⌒っ (ワッチョイ c3be-Xm68)2023/05/24(水) 10:38:18.63ID:c3rwHnqa0
>>259
いや、嫁さんにこのポーズさせて、あなたが写真撮れば新しい世界が広がるかもよ。
0271...φ(・ω・`c⌒っ (ワッチョイ 7fc0-zU37)2023/05/24(水) 10:59:37.13ID:R9xfAXfc0
13900Kと4090でアスカベンチ10.7秒くらいだけどブラウザ全画面とかにしてコマンドプロンプトを隠してしまうとCPU処理がEコアに回されて17.4秒までガタ落ちするのよな
0273...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 11:18:11.48ID:b8NfPOEW0
なんかpytorch資産生かしつつTensorコア有効活用できるようなブリッジ的なやつがどうたらこうたらみたいな感じに見えなくもないが
その辺詳しくないのでわからん
0274...φ(・ω・`c⌒っ (ワッチョイ 7fc8-xpLh)2023/05/24(水) 11:33:08.17ID:IUD/Pd240
上の記事を参考にPyTorch 2.0.0+cu118とXformer更新したらGPUがないぞみたいなエラーでたから結局Venv削除して戻した
Webuiのバージョンの問題だろうか?
0277...φ(・ω・`c⌒っ (ワッチョイ 6a1a-Abue)2023/05/24(水) 12:23:42.65ID:nQCnFcA40
>>269
>>267
要は3DソフトでデプスマップだせればいいのでMMDとかフリー物組み合わせても出来るよ。
ttps://www.iwara.tv/image/Z4DXojqirQpjeV/sabaviewerpmm-v146-depth-map-for-stable-diffusioncontrolnet
0278...φ(・ω・`c⌒っ (ワッチョイ d3b3-2C2F)2023/05/24(水) 12:59:18.22ID:rySHTp130
>>247
多分そういう時こそ正則化画像なんだろうけど
使い方は俺もわからない
0279...φ(・ω・`c⌒っ (ササクッテロ Sp13-mJyV)2023/05/24(水) 13:59:40.60ID:4b33nHUqp
lora学習色々試行錯誤してみたくて学習率1e-6とか1e-7のSTEP8400でやってみたんだけど1ミリも学習しなくて草
うまく行った人STEPどれくらいだった?
0280...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 14:09:18.01ID:b8NfPOEW0
kohyaリポジトリのドキュメントにloraは1e-4くらいがいいぞって書いてあるよ

ざっくり動作確認するのに1e-4/dim64/alpha32/AdamW/バッチ6/2000ステップくらいでやってる
手ごたえあったらそこから更に追加学習
0281...φ(・ω・`c⌒っ (ササクッテロ Sp13-mJyV)2023/05/24(水) 14:43:44.67ID:4b33nHUqp
>>280
なるほど
どっかのサイトにデフォルトの1e-4は画像がガビりやすいから5〜7がオススメって書いてて、確かに自作lora学習はするものの画質が他人のと比べて悪かったから変えてみるか…って感じだったんだけど
別の設定を変えてみるか…
0283...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 15:05:32.14ID:b8NfPOEW0
>>281
学習率もそうだけどdimも大きくすると教師画像への追従性が上がるかわりに過学習ですぐガビりやすくなるよ
あとガビったLoRA出来上がってもプロンプト側で強度やblockweight調整で十分使えるものになったりもするから
試作品で動作確認しつつ最適パラメータ(学習率とか階層ごとの学習率とか)探っていくといいかもね
0284...φ(・ω・`c⌒っ (ワントンキン MM1a-SN1i)2023/05/24(水) 15:12:27.98ID:CB99dvFWM
>>247
現状は、服と身体の2フォルダ作って学習してるって理解でいい?
素材が少なくてかつ2フォルダの先頭ワードが同じならそら混ざるよ変えるべき。
さらに厳密にやるなら、服と身体の固有ワードは似てないものにした方がいいよ。例えばmaruzenface, maruzendressとかだとテキストエンコーダが同類語と認識してこれまたまざっちまうからね
さらにさらに念を入れるなら素材画像も服と顔を分離しよう
0285...φ(・ω・`c⌒っ (スッップ Sdca-a5bG)2023/05/24(水) 15:24:26.61ID:QbKypGB2d
>>237
出来るよ
lora3個入れてCN適用してhiresかけたら
512x768のhires2倍で40秒くらいかかるから
プレビュー見る余裕はじゅうぶんある
0286...φ(・ω・`c⌒っ (スッップ Sdca-a5bG)2023/05/24(水) 15:26:29.68ID:QbKypGB2d
>>246
そんなもんなのかね
全く同じ設定でCPUだけ13900kだがPL90%プレビューありで10.2秒だ
0289...φ(・ω・`c⌒っ (ワッチョイ 6a7e-owa4)2023/05/24(水) 18:38:11.10ID:AtwlT+0f0
もうちょっと権利的に扱いやすいベンチが欲しいね、どこかでそういう動きがあったりしないかな
「アスカ」であることも微妙だし
やるとしたら、「馬に乗った宇宙飛行士」か
0290...φ(・ω・`c⌒っ (ブーイモ MM96-OGEx)2023/05/24(水) 19:04:31.00ID:Izlz39HYM
そういやアスカベンチどころかnaiもvaeも持ってないって事はアスカテストもしてないのか
そもそも正しく動作する環境じゃない可能性もあるな
0291...φ(・ω・`c⌒っ (ワッチョイ 5baf-ff77)2023/05/24(水) 21:33:06.92ID:mgRw9QcS0
>>284
maruzen, dress, 1girl.....   maruzen, face, 1girl.......
で先頭2トークン固定でやってたけど、faceのほうはdressが写ってないからdressの概念を理解してくれるのかなってやってたけど混ざっちゃうかな?
トークンって部分一致でも同類語って認識しちゃうんだ。完全一致だと思ってて今までのLoraかなり似た文字列にしてしまった。。。
0292...φ(・ω・`c⌒っ (ワッチョイ 0fdd-FIIW)2023/05/24(水) 22:12:49.40ID:w+YvzNoh0
脱がせたいのに服がまとわりつくとなると明らかに過学習だねえ
素材の量にもよるが、特定のキャラ再現はその辺が難しい
自分の場合は画風優先でその絵師さんの絵を可能な限り集める
タグは絵師さん名を全画像に、出したいキャラの画像にキャラ名を、出したい衣装の画像に衣装名をいれる
全体で100〜200枚、出したいキャラ20枚くらい

これで髪型や髪色とかプロンプトで補助できるものは入れてやるとそれっぽいキャラは出るが衣装含めて完全再現となると厳しい
その反面、ほかの服着せたり脱がせたりは容易だったりする

今試作中のやつ

(mishima_kurone),(Sistine:1.2),rokude_cos,(long straight hair:1.2),(silver hair:1.2)
https://imgur.com/pLnI9A6.png
https://imgur.com/jx4CAV1.png

(mishima_kurone),(Sistine:1.2),(long straight hair:1.2),(silver hair:1.2) +適当な衣装
https://imgur.com/nq2dD5G.png
https://imgur.com/VWJmgql.png
0296...φ(・ω・`c⌒っ (ワッチョイ 1b67-sXqF)2023/05/24(水) 23:11:57.65ID:5EKmW2O90
学習途中のファイルも保存してたら過学習はなんとかなるはずだけど…
結局は教師データの質と量がどれだけあるかな気がするなあ
0299...φ(・ω・`c⌒っ (ワッチョイ 2ae1-SN1i)2023/05/25(木) 00:26:53.74ID:dOyY4khR0
>>291
画像を分けててもキャプションで分けてなきゃそりゃ混ざるよ。テキストエンコーディングの話で過学習かどうかとは別の問題だと思う
0300...φ(・ω・`c⌒っ (ワッチョイ eaf4-FIIW)2023/05/25(木) 00:41:54.65ID:GGTijNcV0
>>294
過学習って更に学習して超えるべき山じゃないのか?
とりあえず超えるとGPT4みたいに極端に偉くなったみたいな話
SDって超えてないんだっけ?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況