【StableDiffusion】AIエロ画像情報交換25
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 9702-FIIW)2023/05/21(日) 16:32:32.01ID:9YxjyN8C0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい

AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0261...φ(・ω・`c⌒っ (ワッチョイ e65b-mcB/)2023/05/24(水) 07:51:06.39ID:34FQo3qe0
>>252
はえーすごい
controlnet使ったことなかったけどやってみます
ありがとうございます
0263...φ(・ω・`c⌒っ (アウアウウー Sa7f-dDN7)2023/05/24(水) 09:09:48.47ID:p1zx9alGa
sdは単純にタグ等の文字列と素材画像のピクセル構成を紐付けて覚えてるから
画面に対してまっすぐ以外の顔は超苦手(素材不足)
上下逆とか真横とかなら回転すりゃええやんって思うけどそういう気のきいたことはできない模様
0268...φ(・ω・`c⌒っ (ワッチョイ c3be-Xm68)2023/05/24(水) 10:38:18.63ID:c3rwHnqa0
>>259
いや、嫁さんにこのポーズさせて、あなたが写真撮れば新しい世界が広がるかもよ。
0271...φ(・ω・`c⌒っ (ワッチョイ 7fc0-zU37)2023/05/24(水) 10:59:37.13ID:R9xfAXfc0
13900Kと4090でアスカベンチ10.7秒くらいだけどブラウザ全画面とかにしてコマンドプロンプトを隠してしまうとCPU処理がEコアに回されて17.4秒までガタ落ちするのよな
0273...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 11:18:11.48ID:b8NfPOEW0
なんかpytorch資産生かしつつTensorコア有効活用できるようなブリッジ的なやつがどうたらこうたらみたいな感じに見えなくもないが
その辺詳しくないのでわからん
0274...φ(・ω・`c⌒っ (ワッチョイ 7fc8-xpLh)2023/05/24(水) 11:33:08.17ID:IUD/Pd240
上の記事を参考にPyTorch 2.0.0+cu118とXformer更新したらGPUがないぞみたいなエラーでたから結局Venv削除して戻した
Webuiのバージョンの問題だろうか?
0277...φ(・ω・`c⌒っ (ワッチョイ 6a1a-Abue)2023/05/24(水) 12:23:42.65ID:nQCnFcA40
>>269
>>267
要は3DソフトでデプスマップだせればいいのでMMDとかフリー物組み合わせても出来るよ。
ttps://www.iwara.tv/image/Z4DXojqirQpjeV/sabaviewerpmm-v146-depth-map-for-stable-diffusioncontrolnet
0278...φ(・ω・`c⌒っ (ワッチョイ d3b3-2C2F)2023/05/24(水) 12:59:18.22ID:rySHTp130
>>247
多分そういう時こそ正則化画像なんだろうけど
使い方は俺もわからない
0279...φ(・ω・`c⌒っ (ササクッテロ Sp13-mJyV)2023/05/24(水) 13:59:40.60ID:4b33nHUqp
lora学習色々試行錯誤してみたくて学習率1e-6とか1e-7のSTEP8400でやってみたんだけど1ミリも学習しなくて草
うまく行った人STEPどれくらいだった?
0280...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 14:09:18.01ID:b8NfPOEW0
kohyaリポジトリのドキュメントにloraは1e-4くらいがいいぞって書いてあるよ

ざっくり動作確認するのに1e-4/dim64/alpha32/AdamW/バッチ6/2000ステップくらいでやってる
手ごたえあったらそこから更に追加学習
0281...φ(・ω・`c⌒っ (ササクッテロ Sp13-mJyV)2023/05/24(水) 14:43:44.67ID:4b33nHUqp
>>280
なるほど
どっかのサイトにデフォルトの1e-4は画像がガビりやすいから5〜7がオススメって書いてて、確かに自作lora学習はするものの画質が他人のと比べて悪かったから変えてみるか…って感じだったんだけど
別の設定を変えてみるか…
0283...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/24(水) 15:05:32.14ID:b8NfPOEW0
>>281
学習率もそうだけどdimも大きくすると教師画像への追従性が上がるかわりに過学習ですぐガビりやすくなるよ
あとガビったLoRA出来上がってもプロンプト側で強度やblockweight調整で十分使えるものになったりもするから
試作品で動作確認しつつ最適パラメータ(学習率とか階層ごとの学習率とか)探っていくといいかもね
0284...φ(・ω・`c⌒っ (ワントンキン MM1a-SN1i)2023/05/24(水) 15:12:27.98ID:CB99dvFWM
>>247
現状は、服と身体の2フォルダ作って学習してるって理解でいい?
素材が少なくてかつ2フォルダの先頭ワードが同じならそら混ざるよ変えるべき。
さらに厳密にやるなら、服と身体の固有ワードは似てないものにした方がいいよ。例えばmaruzenface, maruzendressとかだとテキストエンコーダが同類語と認識してこれまたまざっちまうからね
さらにさらに念を入れるなら素材画像も服と顔を分離しよう
0285...φ(・ω・`c⌒っ (スッップ Sdca-a5bG)2023/05/24(水) 15:24:26.61ID:QbKypGB2d
>>237
出来るよ
lora3個入れてCN適用してhiresかけたら
512x768のhires2倍で40秒くらいかかるから
プレビュー見る余裕はじゅうぶんある
0286...φ(・ω・`c⌒っ (スッップ Sdca-a5bG)2023/05/24(水) 15:26:29.68ID:QbKypGB2d
>>246
そんなもんなのかね
全く同じ設定でCPUだけ13900kだがPL90%プレビューありで10.2秒だ
0289...φ(・ω・`c⌒っ (ワッチョイ 6a7e-owa4)2023/05/24(水) 18:38:11.10ID:AtwlT+0f0
もうちょっと権利的に扱いやすいベンチが欲しいね、どこかでそういう動きがあったりしないかな
「アスカ」であることも微妙だし
やるとしたら、「馬に乗った宇宙飛行士」か
0290...φ(・ω・`c⌒っ (ブーイモ MM96-OGEx)2023/05/24(水) 19:04:31.00ID:Izlz39HYM
そういやアスカベンチどころかnaiもvaeも持ってないって事はアスカテストもしてないのか
そもそも正しく動作する環境じゃない可能性もあるな
0291...φ(・ω・`c⌒っ (ワッチョイ 5baf-ff77)2023/05/24(水) 21:33:06.92ID:mgRw9QcS0
>>284
maruzen, dress, 1girl.....   maruzen, face, 1girl.......
で先頭2トークン固定でやってたけど、faceのほうはdressが写ってないからdressの概念を理解してくれるのかなってやってたけど混ざっちゃうかな?
トークンって部分一致でも同類語って認識しちゃうんだ。完全一致だと思ってて今までのLoraかなり似た文字列にしてしまった。。。
0292...φ(・ω・`c⌒っ (ワッチョイ 0fdd-FIIW)2023/05/24(水) 22:12:49.40ID:w+YvzNoh0
脱がせたいのに服がまとわりつくとなると明らかに過学習だねえ
素材の量にもよるが、特定のキャラ再現はその辺が難しい
自分の場合は画風優先でその絵師さんの絵を可能な限り集める
タグは絵師さん名を全画像に、出したいキャラの画像にキャラ名を、出したい衣装の画像に衣装名をいれる
全体で100〜200枚、出したいキャラ20枚くらい

これで髪型や髪色とかプロンプトで補助できるものは入れてやるとそれっぽいキャラは出るが衣装含めて完全再現となると厳しい
その反面、ほかの服着せたり脱がせたりは容易だったりする

今試作中のやつ

(mishima_kurone),(Sistine:1.2),rokude_cos,(long straight hair:1.2),(silver hair:1.2)
https://imgur.com/pLnI9A6.png
https://imgur.com/jx4CAV1.png

(mishima_kurone),(Sistine:1.2),(long straight hair:1.2),(silver hair:1.2) +適当な衣装
https://imgur.com/nq2dD5G.png
https://imgur.com/VWJmgql.png
0296...φ(・ω・`c⌒っ (ワッチョイ 1b67-sXqF)2023/05/24(水) 23:11:57.65ID:5EKmW2O90
学習途中のファイルも保存してたら過学習はなんとかなるはずだけど…
結局は教師データの質と量がどれだけあるかな気がするなあ
0299...φ(・ω・`c⌒っ (ワッチョイ 2ae1-SN1i)2023/05/25(木) 00:26:53.74ID:dOyY4khR0
>>291
画像を分けててもキャプションで分けてなきゃそりゃ混ざるよ。テキストエンコーディングの話で過学習かどうかとは別の問題だと思う
0300...φ(・ω・`c⌒っ (ワッチョイ eaf4-FIIW)2023/05/25(木) 00:41:54.65ID:GGTijNcV0
>>294
過学習って更に学習して超えるべき山じゃないのか?
とりあえず超えるとGPT4みたいに極端に偉くなったみたいな話
SDって超えてないんだっけ?
0301...φ(・ω・`c⌒っ (ワッチョイ d3b9-owa4)2023/05/25(木) 01:01:08.68ID:hSBlMUtg0
脱がせた時に体に妙なものがくっついてたりするのは
タグ付けに問題があって正常に学習が出来ていないんだと思う

Taggerだけでもほぼ問題なくタグ付けはできるけど、
時々Virtual Youtuberとか要らんタグは付けるのに
細かいリボンとかアクセサリの類を見逃す事があるから
精度を上げるためにはタグの見直しはした方が良いと思います
0308>>42 (ワッチョイ aa10-FIIW)2023/05/25(木) 02:00:30.11ID:9N6BuLWV0
1660Tiだけど普通に画像生成できるから今までno-halfとか入れてなかったけど
入れてみたら3倍くらい速くなった…
オプション:--xformers --precision full --no-half --medvram --autolaunch --disable-nan-check
でアスカベンチ168秒になった(元は493秒)
なぜオレはあんなムダな時間を…

クソどうでもいいけどコマンドプロンプト側に表示される生成速度は遅いとs/it、1s/itを切るとit/sで表示されるらしいことが分かった
だからみんなit/sで書いてたのね…

ところでprecision fullは生成速度にもVRAM使用量にも変化が見られなかったんだけどこれは何に効くもの?
16xx系必須みたいに書かれてたから入れてみたけど
0309...φ(・ω・`c⌒っ (ワッチョイ d3b9-owa4)2023/05/25(木) 02:08:36.76ID:hSBlMUtg0
>>306
Facial Mark辺りををネガティブに入れてみるとか?
それでもだめならTaggerにその模様か何かがついてる画像を読ませて
AIがそれをどう認識してるか確認するのが良いんじゃないかな、と
0310...φ(・ω・`c⌒っ (ワッチョイ aa10-FIIW)2023/05/25(木) 02:26:33.66ID:9N6BuLWV0
あ、opt-channelslast削除でも高速化した、ってのを書き忘れた
脳死で入れるのはやめよう!
…と言いながらprecision fullは脳死で入れてしまった
0317...φ(・ω・`c⌒っ (ワッチョイ 1b32-oDzn)2023/05/25(木) 12:01:47.04ID:B1XtQMZG0
>>314
自分は早くなった
というか4090でアスカベンチ22秒とかいう謎性能が16秒になった程度なんだけど

本当に何が原因かわからない
CuDNNは更新したし
画面下の表示
version: v1.2.1
python: 3.10.6
torch: 2.0.0+cu118
ってなってるけど
これインストールするもの間違えてないよね?
0318...φ(・ω・`c⌒っ (ブーイモ MM96-sWCq)2023/05/25(木) 12:16:47.83ID:PmTxEUQmM
>>313
それよくわからんけど関係ないらしいよ
CUDAじゃなくて非nvidia系GPUのDirectML向けとかなんとか
よくわからんけど
0320...φ(・ω・`c⌒っ (ワッチョイ aa09-SwK+)2023/05/25(木) 12:29:02.99ID:QdxqWKqg0
プロンプト見れるサイトでmajinAIより良いとこありますか?
0323...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/25(木) 13:15:39.17ID:sj9J/S0E0
そら学習元がdanbooruなんだからモデル単体で婆やおばさん出すのは難しいだろうね
old womanとか1.7kくらいしか作品数ないでよ
0324...φ(・ω・`c⌒っ (ワッチョイ 5b7e-x4l7)2023/05/25(木) 13:52:03.97ID:/kYm02BQ0
>>311
基本的に裏で回して放置しておくだけなのに、その理屈はおかしい
終わるまでPCの前で正座して待ってるなら、それこそ時間の無駄すぎる
0326...φ(・ω・`c⌒っ (ワッチョイ aa25-OGEx)2023/05/25(木) 14:17:59.08ID:0gjXE0m70
どっちの言い分も正しい
きちんとバッチ処理管理できてれば不在時や就寝時にまとまった処理はできる
が、それに間に合わすために生活がP生成の準備に追われる。動作時間と発熱量も多くなるのでPCの消耗に繋がりやすい
グラボが速いとそもそも長時間稼働させる必要がなくなる適量生成して気に入った絵を1枚づつinpaintを繰り返しして完成させていくような作業ができてしまう
0327...φ(・ω・`c⌒っ (ワッチョイ 7fc8-xpLh)2023/05/25(木) 14:19:16.89ID:5CRJRYBC0
>>323
一応頑張ってプロンプト削ったりしわを強調したら出ないことはなかった
まあババア需要なさそうだしな・・・、おばさんはもはやlora使った方が早そうな気はする、あるのかどうかは知らんけど
0328...φ(・ω・`c⌒っ (ワッチョイ 0fdd-FIIW)2023/05/25(木) 14:34:06.21ID:N0mXjfK10
裏でぶん回すとき用のプロンプトを調整する作業は数枚出力して微調整の繰り返しになるからな
微調整なしで作ったプロンプトをぶん回したところで打率低すぎて選別作業が面倒すぎるし時間もかかる
お金はないけど時間が有り余ってるならそれもありなんかな
0329...φ(・ω・`c⌒っ (ワッチョイ 0fdd-FIIW)2023/05/25(木) 14:37:34.48ID:N0mXjfK10
自作LORAの試運転なんかそれこそ出力とチェックの繰り返しになるからな
一枚出すのに1分以上かかってると苦行すぎて無理
0330...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/25(木) 14:51:47.95ID:sj9J/S0E0
lora動作確認するにも最低限512*512のhires2倍くらいでやりたくはなるから
1枚をサクっと出せる処理能力は欲しくなってくる
0334...φ(・ω・`c⌒っ (ワッチョイ aa09-SwK+)2023/05/25(木) 17:22:59.72ID:QdxqWKqg0
クラウドやってる人は大きい画像サイズ出せますか?
paperspace使ってますが、2000px以上はエラー出ます
0338...φ(・ω・`c⌒っ (ワッチョイ aa10-FIIW)2023/05/26(金) 00:40:17.82ID:Cai+bSes0
ワイルドカードの各行に重み付けすることってできないの?
単に
1.0::hogehoge
0.2:hagehage
じゃダメだし
現状
{1.0::hogehoge|0.2:hagehage}
みたいに全部1行で書くしかなくてワイルドカードの意味がほぼ無いんだが…
0339...φ(・ω・`c⌒っ (ワッチョイ 2609-m999)2023/05/26(金) 02:36:19.10ID:G51Z1hV+0
今更なんだがmajinaiってブラウザフル画面(フルHD)で見ると
画像が小さくなってCPUが悲鳴あげるんだけど
おま環かと思って別のPCで試しても同じだった
0341...φ(・ω・`c⌒っ (ワッチョイ 2609-m999)2023/05/26(金) 03:39:03.74ID:G51Z1hV+0
>>340
画像のタイルが小さくなりすぎて画像出し過ぎでJavaScript処理が重い感じ
しょうが無いからブラウザを画面半分にして見てる(なんかの拍子にフル画面になると固まるw

イムガごっそり消されててワロタ
水着でautoかよw
0343...φ(・ω・`c⌒っ (ワッチョイ e6c8-FIIW)2023/05/26(金) 06:07:58.66ID:DVVgBtI90
EasyNegativeをつけたほうがいいのか悪いのか
(worst quality, low quality:1.4)はいれたほうがいいのかいらんのか
わっかんねー!!!!
0346...φ(・ω・`c⌒っ (ワッチョイ 5b9f-kJXC)2023/05/26(金) 06:17:08.36ID:EKMha35F0
>>343
easynegeviteはちょっとわからないけど
qualityの指定はむやみに強くしない方が良さげ

特にlow qualityは強度強くしすぎると、stepsが多いと異なる複数のものが同じものになることがある
聞いた話だとlow やbad は範囲が曖昧らしい
うちだといまにのところ、(worst quality), low qualityを上限にはしてみてる
0347...φ(・ω・`c⌒っ (ワッチョイ 5b9f-kJXC)2023/05/26(金) 06:22:34.95ID:EKMha35F0
>>345
ごめん。素で腰をchestって勘違いしてたorz
あとは思いつくとしたら、lower torsoみたいにどっちの胴体とかかな

ただうちも似たようなことやったけど、胸だけにはかかるんだよね
そして強度を上げるとヤケクソの如く、背景が白いもので埋め尽くされた画像をだすaiちゃんェ…
0350...φ(・ω・`c⌒っ (ワッチョイ 6f6f-xVHy)2023/05/26(金) 07:25:58.13ID:lfYg3N0d0
女子アナが出ているニュース番組の画面ってどういうプロンプトで出しているんでしょうか。
色々と試しているものの、なかなかうまくいきません。
0353...φ(・ω・`c⌒っ (ワッチョイ aa09-SwK+)2023/05/26(金) 09:09:00.31ID:dwEsbUuF0
negativeモデルはどれが良いですかね
0354...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/26(金) 09:20:12.84ID:S3GiUoXP0
>>338
1.0:hogeとかどこから出てきた書き方なんだ
ワイルドカードは単に指定ワードを置換するんだから外側でやればいいだけだぞ
(__wildcard__:1.0) とか

ワイルドカード側の中身自体もなんでもいいから普通にプロンプトの強調構文入れればいい
(hoge:1.0) fuga (hemo0.2)
(foo,bar:1.2) baz
とか
0355...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/26(金) 09:27:50.24ID:S3GiUoXP0
easynegativeは構図とか絵柄とかいらんとこまで補正かけすぎるからもう使ってないな
自分なりにまとめたネガティブセットをプリセットなりワイルドカード圧縮なりで管理するのわかりやすくていいよ
0356...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/26(金) 09:40:51.79ID:S3GiUoXP0
2次系は特にだけど、cum on stomachはbooru登録数も少ない(2.8k)うえに
「他のついでに一応腹にもかかってるからタグついてる」程度の絵が多いから
腹だけを狙ってかける目的ではほぼ機能しないよ
(二次絵は基本的に汁過剰で腹だけにかけてる絵は非常にレア)

inpaintなりloraなりでやるのが無難
0359...φ(・ω・`c⌒っ (ワッチョイ aa21-ff77)2023/05/26(金) 13:33:33.74ID:S3GiUoXP0
>>358
定番ネガティブセットは綺麗にするのが目的じゃなく汚くならないようにするためのもんなので
worst quality・blurryとかの品質系、missing fingersとかの奇形系、wartermarkとかの余計なもの除去系
あたりの入れてちょいちょい弄っておけば十分よ
これをwildcardで圧縮すれば融通の利く自分用easynegativeみたいなのが出来上がる
0360...φ(・ω・`c⌒っ (ワッチョイ aa09-SwK+)2023/05/26(金) 14:53:44.31ID:dwEsbUuF0
難しい構図を素早く作るにはどうしたら良いかな
i2iや修正やると時間かかるから困る
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況