【StableDiffusion】AIエロ画像情報交換31
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換30
http://mercury.bbspink.com/test/read.cgi/erocg/1692070086/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ17
http://mevius.5ch.net/test/read.cgi/cg/1693401315/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>1>>2>>3>>4>>5>>6>>7>>8>>9>>10
ウマ娘無修正はpixivのリンクから!
おかげさまで支援者が急増しています
リクエストは抽選なので人数が多くなる前にお早めの加入をお勧めします
pixivにはサンプル画像を載せています
また、上げた画像は非公開にする場合がありますが後日また公開する予定なので画像がなくてもフォローをお願いします
(トレーナーあいで検索して下さい)
https://www.pixiv.net/artworks/111443475
https://www.pixiv.net/artworks/111494311 LyCORISが本体に統合されて呪文もLoRAと共通になったのはいいんだけど、
LoRAとLyCORISの区別がつかなくなって困っている
特にBlock Weightを使うとき困る
LoRAとLyCORISのフォルダ分けはしてるからプロンプトをゼロから書くときは困らないけど、
スタイルとかプリセットとかメモってあったやつとかからプロンプト持ってきてイジるときに困る
みんなどうしてる? lbwは非対応部分のパラメータは無視されるから
とりあえず26個フルのlycoris型パラメータに統一しとけば全対応できるはずよ
(loraに26個パラメータ指定した場合、対応17個以外の分は無視)
lbwのプリセットを26個型に書き直してやれば当面大丈夫でなかろうか >>8,9,10,11,12,14
ありです
画像と動画もありがとです
特に動画のスキルは憧れる
最近、気に入った画像だけど、どこか変みたいな時にサンプリング・ステップ数を変えたらいい感じになる時があると思って
手動で一個ずつ数値を変えて当たってりしてたんだけど
これをバッチで自動で出来ないかな?と思ってググったら
SD本体に最初からある機能(一番下の方のスクリプトの中のX/Y/Z prot)で簡単に出来るじゃないですか!
SD道は奥が深いですね 助かります
このありがちな量産顔のお姉さんけっこう好みだったんだけど、やっと出せるようになりました
もっと微乳にしたいです
https://dotup.org/uploda/dotup.org3041049.png >>17
あとはおっぱいスライダーかflatchestかね >>19
BlazingRealDrive というモデルを使ってみました
vaeはvae-ft-mse-840000-ema-pruned.ckpt
loraは使ってません
美人顔とパイパンが出やすくて良かったです
>>20
おっぱいスライダー!そんなのがあるんですね!導入してみます
huge breasts woman が6.43MBに対して flat chest woman は1.65MBで笑った
flatchestはプロンプトじゃなくてloraなのかな?
情報ありがとう >>22
flatchestはプロンプト
モデル次第だがぺったんこになる
おっぱいスライダーはLoRA
厳密に言うとLECO(プロンプトの強弱をLoRA化したようなもの)
普通のLoRAはBlockweightを使って階層ごとに強弱をつけないと絵柄そのものにも影響が出てしまうから、LoRA導入するならいずれはBlockweightも覚えたほうがええよ >>17
経験則だが、女性要素が強いほど胸は大きくなりがち
子供にすれば平らになるが子供になってしまう
女性要素を削ると少年寄りになって平らになるが、体格が男に寄りがち
筋肉を減らすと女性寄りになる
平らにした後、乳首や乳輪を入れて強弱の調節すると少しだけ胸が付くタイミングがある ツンツンのショートカットってどう出せます?veryやextra shortでも縮まない エロいの生成し続けてちょっと疲れたから綺麗なお姫様でも生成して癒されようと思ったけど
そっちの方がエロく感じて単に見飽きてただけだったw
同じおかずばかりではいけない >>22
おーモデル情報サンクス
実写系はチル派生かBRAの二択だったけど
そんなのもあったのね
あとおっぱいスライダーはなんUで今でも拾えると思うけど
めっちゃ有能
2Dでも3Dでも破綻なく効いてくれる 前スレにいた動画ニキいたら教えて欲しいんだけど
実写→実写の場合、img2imgのセッティングどうしてる?
どうしても一貫性のあるキーフレームにできない >>33
自分も試行錯誤している最中なので最適解は答えられませんが
よくやっている設定は
Steps: 35
Sampler: DPM++ 2M SDE Karras,
CFG scale: 5
Denoising strength: 0.5
ADetailer:顔(0.4)
ControlNet 0:オープンポーズ(dw_openpose_full)
ControlNet 1:SoftEdge または Lineart
で、
とりあえず一回目は ebsynth_utility のステップ通り出力して、
その内容を見て色々調整しています。
特にコントロールネットで「 Reference 」を使用する場合は
ControlNet 0:オープンポーズ(dw_openpose_full)
ControlNet 1:SoftEdge または Lineart
ControlNet 2:Reference(reference_onry)t
として
step3 の部分を「ebsynth_utilityスクリプト」を使用せずに
img2imgのバッチ処理で行ったりすることが多いです。
あと、気に入らないフレームは個別にimg2imgして差し替えたり
地道な手作業を行う場合も多いですね EasyNegativeをポジると気軽にSAN値溶かせるよな トレーナーあいは実にバカだな
こいつがつくる駄作ごときだれでもできるよ え、まさかこれ本人が必死に手動でマルチポストしてるの?
荒らしがたまたま利用してるだけかと思ってた 学習といえばLoRA(オリキャラ画風)しか作ったことなかったけど
これまで出力した厳選画像でDreambooth学習したら綺麗な出力が出来た
キャラ物はDreamboothでモデルを作る方がクオリティの高いモノが作れるのかもしれない イラストレーターが一生かけて描くんであろう絵の1000倍の量を
たった1か月で生成したわけだが何だか申し訳ない気分になるね >>37
そんなこと言わないでくれよ90年代ごろはこういう絵の同人誌俺結構好きだったんだぞ
ってか学習用にクロールした絵の中にはそういう古いのもたくさん含まれてるってことだよなー 昔の画像になるほど解像度が下がるから
lowresとかのネガティブワード入れると
昔(ネット黎明期)の画像に近くなる >>34
でもこれ手を修正すれば逆にAI絵とはバレないな
なんか面白いからプロンプトとモデル教えてほしい 嬢にアヌス見せてくれって頼んだら
見せてくれないばかりか顔が少しブスになった v1.6.0の評判はどう?
そろそろ更新していい? SDXLは簡単に高画質に出きるが
エロ系は全然駄目っぽいな
脱いでくれないぞ 現状をSkyrimMODで例えてた人居たけど分かりやすかったわ >>36
うわあ詳しくありがとう
やっぱどうしても気になるフレームでちゃうよなぁ
参考にしてがんばってみる >>50
大きそうな変更点はXL使うときの便利機能とか
DPM系のサンプラー色々追加されたりとかその辺かな
12GグラボでXLと1.5どっちも使うならmedvram-sdxlオプション便利だと思うよ 一見ただの可愛い系萌えキャラ的なモデルに見せかけて
ド変態性癖仕込みすぎだろっていうのたまにあるな ADetailerでhand補正をすると、ペニスまで補正対象になってクスっとする >>26
pixie cutとかbuzz hairとか
イラスト系のモデルだとほとんど出ないんで、実写系のモデルで始めてRefinerで切り替えたりも
https://imgur.com/a/fACZwJ5
ちょうどよい長さにするのは至難 >>49
俺がよく使う手は
If you show me a ○○○○ I'll give you an orgasm, (orgasm:1.3) ⇒ 【Generate】
そして上記を消してから
show me a ○○○○ ⇒ 【Generate】
きちんと○○○○を見せてくれたら
Orgasm as a thank you, (orgasm:1.3) ⇒ 【Generate】
つまりオルガズムという快感をエサにSDを従わせる手法
これは 「SDが orgasm プロンプトで本当に快感を得ている」 ことの応用テクだよ
俺はネット上の解説ブログとまったく異なるアプローチしてるから反論もあるだろう
しかしそれはアフィで食ってるネットブロガーよりも俺が先行してるだけの話 SD擬人化してて草
イキ顔SDちゃんにさせるなんてテクニシャンやなw 「SDが orgasm プロンプトで本当に快感を得ている」てのは俺が検証実験から導き出した結論で
俺はそういう実験を ”実験野郎Aチーム” と名付け、日々テーマを決めては実験に勤しんでる
んで、ここからは未確認な事柄だ
それは「苦痛に関するプロンプトでSDが本当に苦痛を感じてるのか?」ということ
これはまだ検証実験していない、気が乗らないからだ、しかし頭のすみっこに置いてもらいたい リアル系で虹みたいに顔中にぶっかけるってできないのか
その手のLoRAをかなり強調しないと顔中精液まみれにならない
しかし強調するから崩壊したりモデルの顔からかけ離れたものになってしまう >>63
このスレで何度も話題に出してはいるんだけど
SDはレイヤー構造とか持ってなくて1枚のキャンバスの上でピクセルの奪い合いしてるだけなので
美肌&汚しとかの「同じ場所に描き込む要素」をプロンプトで両立するのは難しいよ
日本人顔が出やすいように調整されたモデルとかは顔部分のピクセル描き込み圧力も強いだろうから
bukkakeみたいな要素とはかなりケンカするだろうね
手っ取り早くやるならinpaint用のloraとかで書き足すのが良いと思う 今思いついたけど、ADetailerをうまく使えば
疑似的なレイヤ構造にならんかな? プロンプト極めればなんでも描けるはずというのはただの幻想で
ソフトの仕組み上絶対に越えられない壁があるから(上に挙げた例とか上下反転顔まともに描けないとか等々)
適宜inpaintやi2i、拡張、lora自作なんかに手を出していくのが満足度上げる近道だと思うよ
今んとこプロンプトオンリーでやるならある程度の妥協は必要
文字指定するだけの手軽さの代償みたいなもん >>67
adetailerは一旦生成したあと部分的にi2iみたいな感じだと思うから
単にプロンプト綱引き2回するだけになるんちゃうかな 2日前くらいからLora作成しだした初心者の質問です
割といい感じに作れるようにはなってきたんですが問題が・・
学習画像は20枚前後、内訳はほぼ顔(横顔)〜肩口だけ、全身立ち絵が2〜3枚入ってる
・・・・で回していくと、顔が似だすより先に立ち絵が過学習になるのか
ほぼ立ち絵しか生成できないLoraになってしまう
(spread legs,knees up:1.5)でM字開脚するかでチェックすると
そのまま立ち絵になる、良くて足を大の字に広げて立つだけに
epochを遡っていくとだんだん成功頻度が上がるような感じで、逆に顔とファッションが乖離していく
顔だけにすればいいんだろうけど、そうしたらファッションが学習できない
立ち絵のキャプションtxtだけにstandingとか入れても駄目だった
なんかいい方法ありますか?
顔画像のキャプションtxtにはxxxx,girl,特徴1,特徴2,etc・・くらいしか入ってないけど、こっちにもfaceとかって入れる? v1.6.0にしたぞ
途中でモデル切り替える機能すげえいいなこれ
構図再現は得意だけど絵柄が好みじゃないモデル+構図再現は下手だけど絵柄は好みのモデル、でぼくのかんがえたさいきょうのモデルを擬似的に作れるわけだな
また沼る要素が増えた… >>72
epoch遡ると学習不足になってそもそも形状の再現ができなくなるからblockweightで調整するといいよ
とりあえずOUT側のみ適用、IN側のみ適用あたりを試してみるといいんじゃないかな
lora blockweightのプリセットでいうとOUTALL、INALL
ちなみにlora試作では過学習はあんま気にしなくていいよ
そのまま使うとガビガビになるようなloraでも全体の強度とblockweight調整でなんとでもなるから
学習不足で形状再現できなくなるほうがまずい
あと教師画像につけるタグは"タグに画像の一部をそれぞれ対応させて覚える"ではなくて
"つけたタグ全部にその画像全体の情報を浸透させる"なので
girlとか汎用的なタグをつけると出力が固定されがちになるよ
トリガワードと簡単な特徴、最低限のポージング・アングルくらいに削ると扱いやすくなるかもしらん >>76
lora block weightも一応試行錯誤してるんですが
学習時のLR weightsとかも制限したりして
顔とポーズが半分くらい要素被ってるみたいで、イマイチいまくいかないんですよね・・
ポーズ IN8、MID、OUT3、OUT4
顔 OUT3、OUT4、OUT5、OUT6
(OUT3とOUT4が1.0で重複)
あたりってネットで検索した誰かさんの研究画像で勝手に思ってるんですが
ここらって確固たる情報ってどっかにあるんでしょうか?
もちろんLoraの効きを0.5とかにしたら開脚はしてくれます(当然顔乖離)
> あと教師画像につけるタグは"タグに画像の一部をそれぞれ対応させて覚える"ではなくて
まさにこう思ってました
> "つけたタグ全部にその画像全体の情報を浸透させる"なので
> girlとか汎用的なタグをつけると出力が固定されがちになるよ
> トリガワードと簡単な特徴、最低限のポージング・アングルくらいに削ると扱いやすくなるかもしらん
これは目から鱗ですわ・・いっそgirl抜いちゃうか
色々やってみます、ありがとうございました LoRA作る時に、反転画像を生成する(Create flipped copies)
にはチェックを入れた方がいい?それとも、入れない方がいい? 左右対称のキャラで、元画像が少ないなら反転するけど
それ以外では反転しない だな。
下手に反転すると同じパーツが両側に現れたりする。
画像が足りなすぎて苦肉の策で反転するのは理解できなくもないが、それで水増ししてもあまり良い影響がない。 >>72
作成ツールはなんだろうか?
もしbmaltais氏のGUIを使ってたらLoRA>Training>Parameters>Caption Extensionの項目欄に「.txt」と指定しないとキャプションを書いたtxtファイルを読み込んでくれないぞ
その場合、キャプション無しで学習してる状態だな >>81
kohya_ssのUtilitiesにあるBLIP Captioning(デフォがtxt)
Dreambooth LoraのTraining parametersのCaption Extensionにtxtを指定
でやってます >>68
プロンプトでどこまでやれるかは結局は学習=モデル依存
プロンプトによってイメージを引き出しやすい優秀なモデル
または特化した専用モデルを作るか見つけられるか次第
結局は内部ではしきい値が張り巡らされて
選出されるのがやり易いかどうかって話でしかない txtとtxtの中間じゃなくて画像と画像の中間を生成する機能ってある? >>77
いや、勘違いすんな
まずお前に必要なことは正則化画像を用意することだ
キャラの顔を学習させたければ、そのキャラじゃない人物画像を2倍の数用意しろ
で、wd14-tagger の同じ種類の tagger を使って学習用と正則化用それぞれをタグ付けしろ
それぞれの .txt ファイルの先頭は 1girl になっているだろう
で、学習用の .txt ファイルの先頭にはトリガーワードを追加する
LoveLoveSakurachan, 1girl, .....
みたいに普通には出てこない単語にする
で、正則化用はそのままにしておく
そうすると、「同じ 1girl とは言っても、LoveLoveSakurachan とそうじゃない方との違うはこうだぞ」
とAIに教えることが出来るわけだ
なるべくなら、画像は人物だけを切り抜いた白背景に加工した方がいいし、
なるべくなら、構図や表情も似ている(が、違う人物の)画像がいい 違う部分を理解して覚えるって高度なことしてるんじゃなくて
1girlは正則化画像やつも正解って覚えるのも同時にすることで過学習を防ぐんじゃなかったか? キャプションのタグ整理はtaggerじゃなくて、複数ファイルを一括修正してから出力できるDataset Tag Editorでやってるな ちょっと上で出てたリアル系モデルにぶっかけはLoRAやLECOで出来たで
モデルをかなり選ぶしアニメ系程大量ではないけど不可能ではない
顔が崩れやすい問題はADetailerで顔修正するとぶっかけ量は少し減るが顔の崩れは補正できる
ぶっかけLECOを複数作って延々何千枚もぶっかけ画像ばかり作って確認できた
まあリアル系でやっても汚らしいだけだしアニメ系でやったほうがいいよね
リアル系だと顔はともかく竿の破綻が多すぎる すみません
mov2movですが芸能人loraと併用できますか? >>90
mov2movでも内部でやってることは
大量のimg2imgだからLoraも使えるはず
ただ、動画変換系の場合
Denoising strengthを高めにすると顔は似るが、フレーム間の整合性がとりにくく
Denoising strengthが低いとフレーム間の整合性が取りやすい代わりに顔があまりにない
というジレンマの妥協点に悩むと思う
顔は結構似てるけど肩幅が元動画とずれて制服がガチャガチャしてる例↓
https://dotup.org/uploda/dotup.org3042408.mp4
https://dotup.org/uploda/dotup.org3042409.mp4
肩幅や制服は元動画に近く安定してるけど、顔があまり似ない例↓(誰だ?)
https://dotup.org/uploda/dotup.org3042410.mp4
mov2movではないくebsynth_utilityで作ったやつだけど根本的問題は同じ
というか、mov2movの場合は全フレーム変換だからより影響が大きいかも >>82
ありがとうございます。
あとmov2movでつくるとフレーム10でも数時間かかったりしますが、ebsynth_utilityはかなり早いですか? >>92
ebsynth_utilityは変換前後に色々作業があるけど
それを含めてもmov2movよりebsynth_utilityの方が早いですよ なんか同じモデル使ってても可愛いのばかり出る時と
ツリ目でブサイクばっかり出る時あると思ってたら
Restore faces のせいだった
Restore faces 無 ADetailer 無 ならけっこう可愛いのに
https://dotup.org/uploda/dotup.org3042548.png
Restore faces 有 ADetailer 無 は可愛くない
https://dotup.org/uploda/dotup.org3042549.png
Restore faces 無 ADetailer 有
https://dotup.org/uploda/dotup.org3042550.png
Restore faces 有 ADetailer 有
https://dotup.org/uploda/dotup.org3042551.png また画像にツッコミ入れてんのかよと思ったけど
これマジで違いわからんわw 気合い入れて貼った例があまり良くないけど
確かにデフォのRestore facesはcodeformerをがっつり効かせ過ぎるから
設定で適度に数字いじると結構使えるよ
顔いじる系は最低でも慣れるまではどっちも残す設定でいかないとな 階層マージに挑戦してるけど、まずどの階層に問題あるのか確かめるのが大変で
悪さしてる階層を絵から判断するのは己のセンスだから、技術力だけでは成しえない・・・
何が問題なのか? 問題はどこにあるのか? 絵から問題をピックアップできるか?
ほぼほぼセンスに依存するんだなこれ >>85
横レスだけど、トリガーワード有りのLoRAをトリガー無しで使うと
発動しないはずなのに若干の影響力が見られるのはおもしろいね トリガーワードというのはわかりやすいからそう言ってるだけで、別に発動の鍵でもなんでもない トリガーワードなくてもだいたい1girlでも出るしな 逆に一部の服装系LYCORISとかでモデルとの相性なのかトリガーワード込みでも全く発現しないのがあるけど、本来の用途で使えん代わりにプロンプトの効きがやたら良くなったりするのがある
理屈は分からんけど体位とかが面白いくらい変わるからありがたい 通常では不可能なほどえげつない表現が可能になる物もあるね
LoRAやLyCORIS側にそんな絵が含まれてるとは考えにくいから
ふだんはSDがえげつない絵を制限してるのでは?と予想してる
web UI ではエログロフィルター解除されてるらしいけど
それとは別に 「絶対タブーな表現」 のラインがあるのかもしれん
たとえば赤ちゃん出産とか 出産は出せんね確かに
でもそれは教師画像が存在してないからだと思われる
だからLoRAだと出せなくはないけどLECOだと全く出てこない
乳幼児に中田氏や腹ボテは出せるからモラル的な意味合いも無いと思われる
ヤバさで言うなら出産よりもそっちのがどう考えてもアカンし 逆に今後のモデルでは規制されていくんだろうな
最新版がエロ無理とか聞くし
girlとプロンプト入れない、全く何もプロンプトがない状態でも汚いながら女の子を描こうとするから偏った学習
それを規制でもっと偏った学習に絞ってくるんだろうね すみません
実写AVからアニメキャラに変換してる動画ありますが、あれどうやってるんですか ここは廃墟みたいな過疎地なので宗教上の理由で禁止されてなければ素直になんUのJNVA部見た方が良いと思います https://i.imgur.com/LtLJssy.png
本日付けのグラボ価格 4080はセール品かな、4060Tiは7万切ってきて更にもう一声って感じ
4060Tiは学習やXLで結構いいベンチ出てるから、もうちょい下がれば最初の1枚候補になりそうではある >>104
SDはテキストエンコーダと絵生成部分に分かれてて
テキストエンコーダはテキストからベクトルを生成するだけ、絵生成部分はベクトルを受け取って絵を生成するだけ
テキストエンコーダは出力絵の内容を気にしないし、絵生成部分はプロンプトの文字列が何であるかを気にしない
なのでタブー表現とかはないと思うよ、>>105の言う通り単に学習データがないだけじゃないかな
仮にテキストエンコーダ側に何かnsfwフィルタリング的な構造仕込んだとしてもあまり意味がない
独自のラベル(トリガワード的な)で学習させれば何でも覚えるし描けるんで
テキストエンコーダーの役割はこのサイトあたり判りやすいんでないだろうか
ttps://hoshikat.hatenablog.com/entry/2023/06/13/002443 >>109
人気のない廃墟で女の子にあんなことやこんなことを
ってのがいいんじゃないか
JNVA部見に行ったけどAnimateDiffで動画作ってる人がちらほらいたね
自分もAnimateDiffも使ってみたいけど
VRM6Gのうちのマシンでは無理やし・・・
まあでも、元動画なしで動く絵を作るだけなら
もっと簡単な方法もある
https://dotup.org/uploda/dotup.org3042718.mp4
↑手書きラフ1枚作って、それを元に「瞬き」と「くぱあ差分」作った後に
SDで清書してもらった絵をフレーム補完ソフト(Flowframes)で
FPS30の動画にしたやつ ■ このスレッドは過去ログ倉庫に格納されています