【StableDiffusion】AIエロ画像情報交換25
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>252
はえーすごい
controlnet使ったことなかったけどやってみます
ありがとうございます >>260
こういう横向いてる顔はめっっっっっっっっっっっっっっちゃ崩れるね
ポーズよりも顔の方がきびしい
https://files.catbox.moe/dso5gj.png sdは単純にタグ等の文字列と素材画像のピクセル構成を紐付けて覚えてるから
画面に対してまっすぐ以外の顔は超苦手(素材不足)
上下逆とか真横とかなら回転すりゃええやんって思うけどそういう気のきいたことはできない模様 仰向け出ない件、いろいろトンクスでした。
xyzでモデルを回してみる発想はなかったのでやってみます。 >>258
クレクレで申し訳ないがシーンデータを配布してくれないだろうか? >>259
いや、嫁さんにこのポーズさせて、あなたが写真撮れば新しい世界が広がるかもよ。 4060Tiのレビュー解禁されて性能面では大分お通夜みたいだな
それはそれとして何かSDの性能倍くらいになるドライバやら何やら作ってるみたいね
https://pc.watch.impress.co.jp/docs/news/1502767.html 13900Kと4090でアスカベンチ10.7秒くらいだけどブラウザ全画面とかにしてコマンドプロンプトを隠してしまうとCPU処理がEコアに回されて17.4秒までガタ落ちするのよな 2倍ってDIRECTML使用時の話じゃないか
現状のpytoch環境にはあんまり関係なさそう なんかpytorch資産生かしつつTensorコア有効活用できるようなブリッジ的なやつがどうたらこうたらみたいな感じに見えなくもないが
その辺詳しくないのでわからん 上の記事を参考にPyTorch 2.0.0+cu118とXformer更新したらGPUがないぞみたいなエラーでたから結局Venv削除して戻した
Webuiのバージョンの問題だろうか? >274
公式のReleasesにある最新のを落としてきて新規インストールすれば最新のになるよ >>267
ありがとうございます
今日の夜頑張ってみますわ >>269
>>267
要は3DソフトでデプスマップだせればいいのでMMDとかフリー物組み合わせても出来るよ。
ttps://www.iwara.tv/image/Z4DXojqirQpjeV/sabaviewerpmm-v146-depth-map-for-stable-diffusioncontrolnet >>247
多分そういう時こそ正則化画像なんだろうけど
使い方は俺もわからない lora学習色々試行錯誤してみたくて学習率1e-6とか1e-7のSTEP8400でやってみたんだけど1ミリも学習しなくて草
うまく行った人STEPどれくらいだった? kohyaリポジトリのドキュメントにloraは1e-4くらいがいいぞって書いてあるよ
ざっくり動作確認するのに1e-4/dim64/alpha32/AdamW/バッチ6/2000ステップくらいでやってる
手ごたえあったらそこから更に追加学習 >>280
なるほど
どっかのサイトにデフォルトの1e-4は画像がガビりやすいから5〜7がオススメって書いてて、確かに自作lora学習はするものの画質が他人のと比べて悪かったから変えてみるか…って感じだったんだけど
別の設定を変えてみるか… civitでプロンプト少ないのに
エグいポーズ出してるのは
controlnet使ってる可能性もあるのか >>281
学習率もそうだけどdimも大きくすると教師画像への追従性が上がるかわりに過学習ですぐガビりやすくなるよ
あとガビったLoRA出来上がってもプロンプト側で強度やblockweight調整で十分使えるものになったりもするから
試作品で動作確認しつつ最適パラメータ(学習率とか階層ごとの学習率とか)探っていくといいかもね >>247
現状は、服と身体の2フォルダ作って学習してるって理解でいい?
素材が少なくてかつ2フォルダの先頭ワードが同じならそら混ざるよ変えるべき。
さらに厳密にやるなら、服と身体の固有ワードは似てないものにした方がいいよ。例えばmaruzenface, maruzendressとかだとテキストエンコーダが同類語と認識してこれまたまざっちまうからね
さらにさらに念を入れるなら素材画像も服と顔を分離しよう >>237
出来るよ
lora3個入れてCN適用してhiresかけたら
512x768のhires2倍で40秒くらいかかるから
プレビュー見る余裕はじゅうぶんある >>246
そんなもんなのかね
全く同じ設定でCPUだけ13900kだがPL90%プレビューありで10.2秒だ 流石に企業メディアにNAIリークモデル使ってベンチしろとは言えんやろw もうちょっと権利的に扱いやすいベンチが欲しいね、どこかでそういう動きがあったりしないかな
「アスカ」であることも微妙だし
やるとしたら、「馬に乗った宇宙飛行士」か そういやアスカベンチどころかnaiもvaeも持ってないって事はアスカテストもしてないのか
そもそも正しく動作する環境じゃない可能性もあるな >>284
maruzen, dress, 1girl..... maruzen, face, 1girl.......
で先頭2トークン固定でやってたけど、faceのほうはdressが写ってないからdressの概念を理解してくれるのかなってやってたけど混ざっちゃうかな?
トークンって部分一致でも同類語って認識しちゃうんだ。完全一致だと思ってて今までのLoraかなり似た文字列にしてしまった。。。 脱がせたいのに服がまとわりつくとなると明らかに過学習だねえ
素材の量にもよるが、特定のキャラ再現はその辺が難しい
自分の場合は画風優先でその絵師さんの絵を可能な限り集める
タグは絵師さん名を全画像に、出したいキャラの画像にキャラ名を、出したい衣装の画像に衣装名をいれる
全体で100〜200枚、出したいキャラ20枚くらい
これで髪型や髪色とかプロンプトで補助できるものは入れてやるとそれっぽいキャラは出るが衣装含めて完全再現となると厳しい
その反面、ほかの服着せたり脱がせたりは容易だったりする
今試作中のやつ
(mishima_kurone),(Sistine:1.2),rokude_cos,(long straight hair:1.2),(silver hair:1.2)
https://imgur.com/pLnI9A6.png
https://imgur.com/jx4CAV1.png
(mishima_kurone),(Sistine:1.2),(long straight hair:1.2),(silver hair:1.2) +適当な衣装
https://imgur.com/nq2dD5G.png
https://imgur.com/VWJmgql.png 過学習ってのも変な話だよな
本来なら学習すればするだけ頭良くなってほしいものだが 学習途中のファイルも保存してたら過学習はなんとかなるはずだけど…
結局は教師データの質と量がどれだけあるかな気がするなあ >>294
のめり込めばのめり込むほど他のことに興味なくなるのよ >>291
画像を分けててもキャプションで分けてなきゃそりゃ混ざるよ。テキストエンコーディングの話で過学習かどうかとは別の問題だと思う >>294
過学習って更に学習して超えるべき山じゃないのか?
とりあえず超えるとGPT4みたいに極端に偉くなったみたいな話
SDって超えてないんだっけ? 脱がせた時に体に妙なものがくっついてたりするのは
タグ付けに問題があって正常に学習が出来ていないんだと思う
Taggerだけでもほぼ問題なくタグ付けはできるけど、
時々Virtual Youtuberとか要らんタグは付けるのに
細かいリボンとかアクセサリの類を見逃す事があるから
精度を上げるためにはタグの見直しはした方が良いと思います >>294
同じ教材で学習を続けても、その教材に書かれている事しか覚えられ無いのは明白だろう スレチですまんが、devでも見れないしjaneは落ちるしAIスレ巡回できねえ
皆ブラウザで見て書き込んでんの? >>303
普通にWindowsのJaneStyleで書き込んでるよ
なんJスレは書き込みはできないけど閲覧だけなら無問題 額(おでこ)に何か模様?アクセサリー?みたいな物が付く時あるんだけどなんてワードで消える? 1660Tiだけど普通に画像生成できるから今までno-halfとか入れてなかったけど
入れてみたら3倍くらい速くなった…
オプション:--xformers --precision full --no-half --medvram --autolaunch --disable-nan-check
でアスカベンチ168秒になった(元は493秒)
なぜオレはあんなムダな時間を…
クソどうでもいいけどコマンドプロンプト側に表示される生成速度は遅いとs/it、1s/itを切るとit/sで表示されるらしいことが分かった
だからみんなit/sで書いてたのね…
ところでprecision fullは生成速度にもVRAM使用量にも変化が見られなかったんだけどこれは何に効くもの?
16xx系必須みたいに書かれてたから入れてみたけど >>306
Facial Mark辺りををネガティブに入れてみるとか?
それでもだめならTaggerにその模様か何かがついてる画像を読ませて
AIがそれをどう認識してるか確認するのが良いんじゃないかな、と あ、opt-channelslast削除でも高速化した、ってのを書き忘れた
脳死で入れるのはやめよう!
…と言いながらprecision fullは脳死で入れてしまった >>310
いい加減金で時間を買え
今や3060が限界最低ラインだ GeForce 532.03ドライバが公開されてるみたいだけど
俺の4070tiちゃんが更に2倍速くなるんですかね?(´・ω・`) >>313
早速入れてみたけどむしろ遅くなったわw
再起動したら治ったけど >>314
ええ、マジかw
家に帰ったらどんなもんかワクワクしてたのに(´・ω・`) >>314
自分は早くなった
というか4090でアスカベンチ22秒とかいう謎性能が16秒になった程度なんだけど
本当に何が原因かわからない
CuDNNは更新したし
画面下の表示
version: v1.2.1
python: 3.10.6
torch: 2.0.0+cu118
ってなってるけど
これインストールするもの間違えてないよね? >>313
それよくわからんけど関係ないらしいよ
CUDAじゃなくて非nvidia系GPUのDirectML向けとかなんとか
よくわからんけど >>318
関係ないんかいwww
なんで早くなったワイの4090www プロンプト見れるサイトでmajinAIより良いとこありますか? アニメ絵でババアが出てくるモデルって少ないのかな
おばさんぐらいのでもまず出てこない ヤツメウナギでいいんじゃね
サンプルからジジババだろ そら学習元がdanbooruなんだからモデル単体で婆やおばさん出すのは難しいだろうね
old womanとか1.7kくらいしか作品数ないでよ >>311
基本的に裏で回して放置しておくだけなのに、その理屈はおかしい
終わるまでPCの前で正座して待ってるなら、それこそ時間の無駄すぎる 全裸で待機がこのスレ的には正しいんしゃないだろうか どっちの言い分も正しい
きちんとバッチ処理管理できてれば不在時や就寝時にまとまった処理はできる
が、それに間に合わすために生活がP生成の準備に追われる。動作時間と発熱量も多くなるのでPCの消耗に繋がりやすい
グラボが速いとそもそも長時間稼働させる必要がなくなる適量生成して気に入った絵を1枚づつinpaintを繰り返しして完成させていくような作業ができてしまう >>323
一応頑張ってプロンプト削ったりしわを強調したら出ないことはなかった
まあババア需要なさそうだしな・・・、おばさんはもはやlora使った方が早そうな気はする、あるのかどうかは知らんけど 裏でぶん回すとき用のプロンプトを調整する作業は数枚出力して微調整の繰り返しになるからな
微調整なしで作ったプロンプトをぶん回したところで打率低すぎて選別作業が面倒すぎるし時間もかかる
お金はないけど時間が有り余ってるならそれもありなんかな 自作LORAの試運転なんかそれこそ出力とチェックの繰り返しになるからな
一枚出すのに1分以上かかってると苦行すぎて無理 lora動作確認するにも最低限512*512のhires2倍くらいでやりたくはなるから
1枚をサクっと出せる処理能力は欲しくなってくる >>320
Prompt Seachって名前の多分韓国系のサイトはよく見てる クラウドやってる人は大きい画像サイズ出せますか?
paperspace使ってますが、2000px以上はエラー出ます >>335
あのサイト手動でいくらでも編集入れられるから、全く情報として信用できんぞ >>331
ありがとう、こんなのあったんだな
ためしてみるわ ワイルドカードの各行に重み付けすることってできないの?
単に
1.0::hogehoge
0.2:hagehage
じゃダメだし
現状
{1.0::hogehoge|0.2:hagehage}
みたいに全部1行で書くしかなくてワイルドカードの意味がほぼ無いんだが… 今更なんだがmajinaiってブラウザフル画面(フルHD)で見ると
画像が小さくなってCPUが悲鳴あげるんだけど
おま環かと思って別のPCで試しても同じだった >>339
該当するかどうかわからないけどWIndows標準の画像ビューアーって
バグがあるみたいでCPU使用率が100%に張り付くことがあるみたい >>340
画像のタイルが小さくなりすぎて画像出し過ぎでJavaScript処理が重い感じ
しょうが無いからブラウザを画面半分にして見てる(なんかの拍子にフル画面になると固まるw
イムガごっそり消されててワロタ
水着でautoかよw 腹へのsemenが全然出ない・・・
stomachでは腹として認識されていないみたいんだがプロンプトは何にすればいいの? EasyNegativeをつけたほうがいいのか悪いのか
(worst quality, low quality:1.4)はいれたほうがいいのかいらんのか
わっかんねー!!!! stomachも認識した気がするけど
あとはtorsoとかchestとかかなぁ >>344
chestは胸に飛ぶから入れてる
腹にも欲しいんだけど、stomachはガン無視されるのでどうしたらいいものか >>343
easynegeviteはちょっとわからないけど
qualityの指定はむやみに強くしない方が良さげ
特にlow qualityは強度強くしすぎると、stepsが多いと異なる複数のものが同じものになることがある
聞いた話だとlow やbad は範囲が曖昧らしい
うちだといまにのところ、(worst quality), low qualityを上限にはしてみてる >>345
ごめん。素で腰をchestって勘違いしてたorz
あとは思いつくとしたら、lower torsoみたいにどっちの胴体とかかな
ただうちも似たようなことやったけど、胸だけにはかかるんだよね
そして強度を上げるとヤケクソの如く、背景が白いもので埋め尽くされた画像をだすaiちゃんェ… 俺はnavelでやってるけどこれも出るとは言い難いな >>345
belly,nabelあたりでどうかな 女子アナが出ているニュース番組の画面ってどういうプロンプトで出しているんでしょうか。
色々と試しているものの、なかなかうまくいきません。 >>343
けっこう絵柄変わるんだよね
付けてるけど そういやeasynegativeみんな同じ顔になるから非推奨のモデルもあった >>338
1.0:hogeとかどこから出てきた書き方なんだ
ワイルドカードは単に指定ワードを置換するんだから外側でやればいいだけだぞ
(__wildcard__:1.0) とか
ワイルドカード側の中身自体もなんでもいいから普通にプロンプトの強調構文入れればいい
(hoge:1.0) fuga (hemo0.2)
(foo,bar:1.2) baz
とか easynegativeは構図とか絵柄とかいらんとこまで補正かけすぎるからもう使ってないな
自分なりにまとめたネガティブセットをプリセットなりワイルドカード圧縮なりで管理するのわかりやすくていいよ 2次系は特にだけど、cum on stomachはbooru登録数も少ない(2.8k)うえに
「他のついでに一応腹にもかかってるからタグついてる」程度の絵が多いから
腹だけを狙ってかける目的ではほぼ機能しないよ
(二次絵は基本的に汁過剰で腹だけにかけてる絵は非常にレア)
inpaintなりloraなりでやるのが無難 >>338
hoge
hoge
hoge
hage
みたいにしてる >>355
自分なりだとうまく綺麗にならないからEasyNegative頼りだなぁ… >>358
定番ネガティブセットは綺麗にするのが目的じゃなく汚くならないようにするためのもんなので
worst quality・blurryとかの品質系、missing fingersとかの奇形系、wartermarkとかの余計なもの除去系
あたりの入れてちょいちょい弄っておけば十分よ
これをwildcardで圧縮すれば融通の利く自分用easynegativeみたいなのが出来上がる 難しい構図を素早く作るにはどうしたら良いかな
i2iや修正やると時間かかるから困る ■ このスレッドは過去ログ倉庫に格納されています