【StableDiffusion】AIエロ画像情報交換38
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換36
https://mercury.bbspink.com/test/read.cgi/erocg/1708774858/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ有)
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ無)
https://mevius.5ch.net/test/read.cgi/cg/1703250505/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured そういうときのインペイントちゃうんか
おれは使いこなせてないけど 「右」ってなんですか?
って聞かれて誰にでも分かりやすく説明するのはとても困難
ましてやそれを機械にとなればほぼ不可能な領域 >>664
「この時計ひっくり返ってるから3時って下の方向でいいんだよね」
「俺の時計デジタルなんだが3時の方向って何?」 >>665
ひっくり返ってることがわかってるなら正位置に戻せばおk
「デジタル」言ってるならアナログも知ってるはずなのでおk >>667
機械相手にはそれが通用しないんですよ
正位置に戻すとかアナログとか「3時の方向」の補足として全部教える必要がある
それができてないのでSDは左右がわからないし指がグチャる >>668
ごめん機械の解釈か
単に664は多分茶化してたからレスの665もかと思った 人体の左右を考えるには人物ごとに基準となる中心線(背骨?)と正面を認識する必要が……
後ろ姿だったら画面上は左右逆になるとかあるし 学習水増しのために左右反転させるのも割とあるから更にカオスや まんまんも後ろからだと上下逆になったりしてたしな
ponyで普通にちゃんと描画された時は感動した >>668
> 全部教える必要がある
う〜ん……むしろ>>667 がそれなりに正しいんだけど
CLIPがゼロショット学習できてるから、SDもこれだけ多様な画像を生成できるわけだし
(もちろんデジタルを知ってるならアナログを知ってるとは必ずしもいえないけど)
>>663
不可能って……オズマ問題じゃないんだからw(モデルにはヒトの言語も画像も学習させるしね) >>674
SDが多用な画像を生成できてるのはCLIPのおかげというより
stability aiがたくさんのリソース注ぎ込んでCLIPの学習情報に耐えうるSD公式モデル作ってるからっていうのが大きいのでは
lora等でユーザーが後付け学習する時なんかは画角・角度・サイズ等殆ど応用が効かないから
結局「全部教える」必要があるよ >>652
ありがとうございます。
>>655
え? どこかでこれが正しいやり方って読んで、疑問持たずに実行してたんですが、確かにチェック入れなくても出力できますね。
こちらこそ勉強になりました。
>>656
おおう、こんな感じです。
こちらでもやってみました。
絵がかけないので、まずは素材の女の子を作らせー
https://majinai.art/i/jC-kevq
超絶、雑に組み合わせてー
https://files.catbox.moe/khu2zc.png
出力!
https://majinai.art/i/7H8S4cE
だめだ…違和感がありすぎる…やっぱり身体と顔の絵があってないですかねぇ。
とりあえず、ボディラインの繋がりなんかは問題ないんですが、どうにも違和感が… A1111のautolaunch切る方法なくなったんですか? >>678
デフォルトでautolaunchする設定になったんよ
どっかの設定の「Local」を「none」にするんよ >>679つづき
Systemの「Automatically open webui in browser on startup」を「Local」から「Disable」にするんだった >>679、680
サンクス
あんなわかりやすいの見落としていたとは
webui-user.batでどうにかするもんだとばっかり思ってました。 前はそうだったんだけど、いつの間に起動オプションでは無くなってたね 痺に上がってたモデルの作者が紹介してたBMABというのを使ってみたら、Ultimate SD upsclaeみたいに見た目そのまんまでt2i出来るのね pony用のLoRAを作るにはどうすれば良いんだろ?
なにか参考になるサイトとかないものだろうか?
1.5用のはたくさんあるけどpony用が見つけられない civitaiにはpony向けのLoRAいっぱい転がってるし
作るのも別に大した難しさはないよ
再現度を高めるために覚えた方がいいことはあるけど
そこ突き詰めていくのは経験と先人の知恵が大事
見て覚えるタイプのものじゃないからとにかく最低限の使い方覚えて
手を動かして経験積むかLoRA作っている人から直接アドバイスもらうようにしたほうがいいかも
サイトみても疑問に対する答えがすぐに得られないという点で見る価値が全然ない >>685
ベースモデルにpony使って学習すればいいだけだぞ
厳密には細かいところが何か色々あるかもしらんけど、とりあえず作るならこれで特に問題はない ありがとう
pony特殊だから単にベース使えば良いわけじゃないと思いこんでた
やってみる >>688
civitai にpony loraこう作れみたいな解説とプリセットあるよ
linkは忘れた
誰か知ってるはずだ ちちぷいで「'タグ名'は使用できないタグ名です。」それで強姦とか使えなくなった とりあえず、kohyaでLoRA作ってるけどVRAM16GBも使ってる VRAMこんなに使うものなの?
20回
Train batch size 1
Epoch 8
Max resolution 512,512
時間も1時間位かかるらしい ざぁ〜こ♡ひよこ閉じ込め下僕しつけ超ひどい回しモブおじさん秘密さわさわすやすやえっち XL(Pony)の初LoRAやっとできた
テキストは一切作らず更に1.5で使った元画像を何もせずそのまま使ったけど
再現は段違いに高く破綻もない
XLとLoRAの相性ビビるほど良い
微調整できる人は1.5使うのもありだと思うけど、何も考えずサクサクエロい画像を作りたい人はXL使う方が良さそう
調整一切無しで良いLoRAと画像ができてしまった、もう1.5に戻れないわ >>677
ありがとうございます。
早速、画像を用意して、Train Tools をインストールし、LORA試作してみようとしたのですが……
ImportError: No xformers / xformersがインストールされていないようです
というエラーが出てしまいました。
実は、StableDiffusionを動かしているのは、12年も前のノートPCですww
NVIDIA なんて載っていません。
AMD® Caicos / Mesa Intel® HD Graphics 3000 ですので、AI制作には使えず、
--use-cpu all --skip-torch-cuda-test --lowvram --no-half --precision full --autolaunch
を起動コマンドに使用しています。
1枚制作に1時間くらいかかるので、寝る前にセットして、朝確認するようなスタイルです。
とりあえず、cpu allの環境で動かせないか、調べたり伺ったりしてみます。 >>692
省メモリ用の設定いろいろあるから調べてみるといいよ
物理メモリ16GBあるならバッチサイズ上げてもっと時間短縮できるはず
参考までにXL用lora512サイズで70枚*10回*20epochの学習が24分くらい(4070Ti/12GB)
あと学習やるなら共有メモリ使わないように設定変えとくのおすすめ
VRAM溢れたらちゃんとエラーで止まるようにしないと時間がものすごく無駄になる
https://wikiwiki.jp/sd_toshiaki/GeForce%E3%83%89%E3%83%A9%E3%82%A4%E3%83%90#z59768fd >>698
それはなんというか……
pc買い替えるか課金でもっと手軽にできるやつもあるんじゃないか?
自分はもともとローカル環境作ったからわかんないけど… multidiffusion-upscaler-for-automatic1111で
AttributeError: 'StableDiffusionProcessingTxt2Img' object has no attribute 'scale_factor'
これ
tileglobal.pyでエラー出てたから少し前のtileglobal.pyと交換したらとりあえず直ったw >>698
> 12年も前のノートPC
すごい……自分もノート(mac )だけど、けっきょくクラウド使ってるし
ただ推論(生成)じゃなく訓練だと、
その推論を何度も繰り返して、モデルを目的のかたちに近づけていくものだからーーかなり時間かかるよ
(LoRAは低ランクだけど、推論を繰り返すって点では変わらないから)
この記事はなにをどこまでやったのかよく分からないけど、生成より時間がかかりそうって感じは伝わるかも
http://blog.syo-ko.com/?eid=3100
>>675
そういう論点ずらしはよくない >>699
凄く早いな
4080(24GB)だけど以下の設定で27分くらいになってる。なにか設定間違えてるんだろうか?
あと、フォルダーにキャラ別で分けて入れておけば、自動的にそれぞれのLoRAを作る方法とか無いだろうか?
寝る前にしかけおきたい
use 8-bit AdamW optimizer | {}
running training / 学習開始
num train images * repeats / 学習画像の数×繰り返し回数: 640
num reg images / 正則化画像の数: 0
num batches per epoch / 1epochのバッチ数: 320
num epochs / epoch数: 5
batch size per device / バッチサイズ: 2
gradient accumulation steps / 勾配を合計するステップ数 = 1
total optimization steps / 学習ステップ数: 1600 >>703
バッチサイズ1なのが主な原因じゃないかな
fp8学習有効にしたりnetwork_dim下げたりで大分省VRAMになってバッチ稼げるよ
ちなみにこちらの手元で試した感じだと、dim64/alpha32のfp8_baseとgradient_checkpointing有効で
学習サイズ512の場合バッチ10〜、1024ならバッチ4までは動作確認した(4070Ti/12GB)
sdxl_train_network.py1回で複数のlora出す方法については知らんので
設定複数用意して順にsdxl_train_network.py呼び出すようにバッチ書くくらいしか思いつかないな 同じプロンプトでもエバラだとちゃんと描画されるのに
Ponyだと一面ノイズになってしまうって事多いなあ
強調全部無くしても治らないし これでは?
https://note.com/hakomikan/n/nb6dd68a1bd9e
ってすでに知ってるから強調なくすって言ってるのか・・
forgeでNo normでもなるときがたまにある、位置変えると治ったり Emphasis modeをNo normにしてもノイズ出るか確認してくれ 同じプロンプトのつもりでも小数点が抜けてたりとかのチェックも A1111でリアルを生成しているんだが、マムコの形が変だ。きれいに生成するには、どういうプロンプト入れればいいんだろうか? >>707
それだったありがとう!
てか1111で入れてたせいでForgeでもてっきり入れたもんだと思いこんでた
>>711
detailed vaginaとかでどう? モデルによって形が違うので
子猫ちゃんでモデル決めてもいいぐらい 原住民の腰蓑ってどうやったら出るんだろ
いろいろ試したけど大体普通のスカート履いちゃう おっぱいの大きさなんだけどSmall Middle Largeの3種類だけじゃなくて、スモールとミドルの間とかミドルとラージの間くらいにしたい時ってどんなプロンプト使ってます?
個人的にラージは大きすぎてミドルは気持ち小さいからミドル寄りのラージを出したいのに上手くいかない…
モデルはebara使っています。 >>715
bustyってのがあるけどpony系で効くかはしらない >>714
原住民って言うから(´・ω・`)こいつの事かと思った
藁っぽいのはちょっと分からんけどハワイっぽいのなら
nude,raffia hula skirt,でどうやろう
https://files.catbox.moe/wxvwqy.png
https://files.catbox.moe/n2q4i1.png >>715
[middle breasts:large breasts:0.5]とか >>716
>>718
おお、ありがとう!
両方ともPonyで効きました、これで生成する幅が広がったよ。
おっぱいの大きさが3種類だけだと少なすぎるから皆どうしてるかと思ってたけどやり方有ったのね。 AnimateDiffの使い方とGitHubを見た俺、うわあ大変そう...そっ閉じ
他の事もそうだけど、新しい物に飛び込んでモノにしてる人の対応力って凄い 実写系はPC画面で見るよりタブレットに転送して見たほうが生々しさを感じる >>720
1.5の時によく使ってたけど、設定項目も少なくて難しくなかったと思う
好きなモジュール選んで動画の時間と枚数を決めてスタート押すだけだったかと animetediffをサクサク動かすためにcomfyuiに手出したけど
肝心のanimatediffはほとんど触らずじまいだ >>722
今また色々見てるんだけど、深い部分まであれこれと見過ぎたのかも知れない
そんな中で見つけた、設定>Optimizationsにある
Pad prompt/negative prompt(improves performance when prompt and negative prompt have different lengths; changes seeds)
これをonにして数回生成してみたら専用GPUメモリが上振れで〜1Gほど増えるけど生成時間はマイナス2秒前後
画像は若干変化するけど綺麗さは増した気がするw >>717
ありがとう、まさにこんなのが出したかったんだ
でもebaraで試したけどやっぱり普通のスカートになっちゃうな… AVとかであるような立ちバックを真下から撮るようなアングルで生成したいです
修飾関係を抜いたプロンプトはこんな感じなんですがうまくいかないです
添削おねがいできませんか?
ちなebaraponyです
1girl, standing, bend forward, put hands against wall, spread legs, vaginal penis, belly, focus navel,
(((from below))), >>726
from below で視点を指定してみては? comfyuiでanimatediffは組めたけど
一括の流れで、コマごとにcontrolnet/tileを用いたアップスケールさせてmp4まで生成するにはどう組んだら良いでしょう? >>726
ceiling,ceiling light,stomachやら、真下から見た時に見えるものを入れてみては >>727,728
アドバイスありがとうございます
色々足したりして作ってみました
https://ul.h3z.jp/Cmx9CME4.jpeg
うーーーーんまあまあまあまあ•••って感じです
ブラッシュアップしていきます 重要ではないかもしれないけどspread legsはアップされた画像のような開脚の意味合いが強いから
脚を開いた状態で立つって意味のlegs apartを使うとか
standing and spread legsで一括りにして"立った状態で開脚する"って意味にするとかはどうだろう > 脚を開いた状態で立つ
よく使われるのは cowgirl position かな
ただし男性との絡みだと騎乗位になるよ >>731
ありがとうございます
spread legsで誰かに拡げられる要素があったのか消してlegs apartにしたらだいぶ理想系に近づきました!
https://ul.h3z.jp/LGJW21Ua.jpeg
https://ul.h3z.jp/Qx9QXmvu.jpeg >>733
2枚目いいねw
このアングルで両手を机に付いてるのは後ろからパンパン激しく打ち付けられてるぽい雰囲気がある この雲形定規で引いたボディラインはSDXLか
シーリングライトでけえw そんで照明機器の細い直線がまっすぐなのな
こういう「月刊エロ魔人Comicの巻頭カラー」みたいな画には最適だね >>733
すげえw
俺がAVで一番抜いてきた構図や ホモショタのご教示ガイジがおま○こに興味あるわけないんだからただの煽りだろ >>733
こんな風に出せたのか凄い
いいこと知った エロゲ絵からローラ作ったんだけどモザイクがかかる絵ばかり生成される
プロンプト側に無修正とネガティブにモザイク入れたら消せるには消せるけど質の悪いチンポとマンコになる
ひょっとしてこれローラ作るときのタグにモザイクある絵はちゃんとモザイクって入れたほうがいい? ponyでもデティール拘ればLoraなしで良い感じの虹まん出たので満足してる
でもやっぱ非エロだと魔神の方が使いやすいね >>743
キャプションタグを書かなかった要素を
トリガーワードで覚えるのがLora学習 >>743
根本的には素材からi2iで適当にモザイクとっぱらったほうがいい
SDの学習はキャプションの各ワードに「教師画像全体」のピクセル情報を関連付けて覚えるので
mosaicとタグ付けたところで他のタグにもモザイク情報を覚えてるから
生成時にネガティブにmosaicと入れたら全体の画風に影響が出る 物凄くタイムリーな話題に便乗
LoRA完成後の中身(例えば"penis": 11,←こういうやつ)を編集、削除するなにか良い方法ある?
生成中にネガに入れても完全に出なくなるわけではいからいっそLoRAの中身を編集できたらなぁと >>748
それはメタデータと言ってモデル本体にくっついてるもので
編集したり削除したりも出来るけど
生成される絵に変化は出ないよ >>749
そうなんだ。ネガとインペイントで頑張る...ありがとう! Latent Coupleって今時のSDで使えるの?
大分前に使えなくなってRegional Prompterが代替品て事になってた気がするんだけど
ぐぐってるとわりと最近Latent Coupleを説明してるサイトが目に止まる >>748
> "penis": 11,
質問とは関係ないけど、loraの生成ノウハウを覗かれるのが嫌なのか
バイナリエディタかなんかで先頭部分を強引に消したのをcivitaiにあげてる人がたま〜にいる >>747
めんどくさがらずに素材の方消したほうがいいのね
ありがとう >>752
海外だとまだ使ってる人が多い印象だけど
情報のアップデートができてなかったり新しいのを覚えるのが面倒なんだと思うよ
今は「Regional Prompter」が主流でさらに「SD Forge Attention Couple」ってのも誕生した
https://github.com/Haoming02/sd-forge-couple civitaiでキャラLoraを落としたあと、civitai helperでトリガーワードの設定は補助してくれる。
でもいざLoraを使うときに、例えば複数衣装に対応したもので、Loraのアイコンをクリックしたとき目的のトリガーワードだけ選択して入力欄に送るだなんて器用な真似はできない。
さらには自動で取得するワードじゃ足りなくて、補助的なプロンプトをcivitaiのLoraのページの説明文や、下手すればサンプル画像から引っ張ってこなきゃいけないものもある。
civitai helperにはプレビュー画像のプロンプトを送る機能はあるけど、画像のプロンプトを丸ごと送るから余分なものが混じってるし、複数衣装にはやっぱり無力だ。
自分はちまちまと調べてはstyleやワイルドカードに書いていってるけど、何かうまい方法はないもんかな。 トリガーワード送ろうとして
たまにそのLORAサムネを生成するボタン間違っておしてプロンプト全消ししちゃう >>757
自分もチマチマ手作業で色々やってるけど面倒だよね
もうちょっと何とかできんかなと思う
重要そうなことは備考欄に丸ごとコピーしたりしてる XLのLoraを作る場合Max resolutionはどうすれば良い?
サイズに寄る比較とかあるかな? style登録すら面倒なんで、自分で備考txtファイル作ってキャラフォルダの中に置いてコピペして使ってる
原始的だけどたぶん一番手っ取り早い、雑感みたいなのも書けるし >>758
civitai helperのボタンは設定で個別に非表示にできるぞい ■ このスレッドは過去ログ倉庫に格納されています