【StableDiffusion】AIエロ画像情報交換38
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 729f-PERf)2024/03/13(水) 17:51:50.11ID:NfFOOaXt0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換36
https://mercury.bbspink.com/test/read.cgi/erocg/1708774858/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ有)
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ無)
https://mevius.5ch.net/test/read.cgi/cg/1703250505/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0654...φ(・ω・`c⌒っ (ワッチョイ a7af-4FDf)2024/03/28(木) 01:57:11.06ID:IDOuZMGi0
>>650
IP-Adapterならかなり前から使えてるけど、そういうことじゃなく?
ただFaceIDの方は、InsightFace がリアル系の顔しか認識しないかも

>>636
curlは?
0655...φ(・ω・`c⌒っ (ワッチョイ 87da-htYh)2024/03/28(木) 03:03:40.37ID:jd05tdyk0
>>642をSDで見ると256x256で出してHires. fixで512x512にしてる
こうすると512x512で出すのとまったく異なる絵が出るんだね
こんなテクがあったのか、また一つ勉強になったよ
0656...φ(・ω・`c⌒っ (ワッチョイ 8abd-1OiZ)2024/03/28(木) 04:05:21.99ID:jHkE6OP10
数分で雑に済ませたからモデルすら違うけどこんな感じかねぇ
https://images2.imgbox.com/58/53/AG9EqIXA_o.jpg

作業内容としては首から下を「outpainting」で生成してから
なじませるために顔以外をさらに「img2img」かな

こういうのなら「Generative AI fo Krita」が直感的に出来ていいと思うけどね
これはこれで覚えなくちゃいけないから初回は大変だけど
https://github.com/Acly/krita-ai-diffusion
https://www.youtube.com/watch?v=S2K_D_RlDCY
0658...φ(・ω・`c⌒っ (ワッチョイ 7f44-MSAb)2024/03/28(木) 09:18:52.46ID:Mj6j9iLo0
プロンプトの話だけど

アシンメトリー(左右非対称)というか
片側の手足にだけ衣服や装飾を指定する表現無いかな

right hand ●●
left ●●

とか頭につけても左右両方に反映されちゃう
0660658 (ワッチョイ 7f44-MSAb)2024/03/28(木) 13:34:29.49ID:Mj6j9iLo0
あぁ、仕様上
左右片方に任意でって設定はできないのか


『右手だけ義手』とか
『右足にだけニーソックス』みたいな娘を作りたかったのに
0661...φ(・ω・`c⌒っ (ワッチョイ 8a21-htYh)2024/03/28(木) 13:40:37.02ID:GfqteKgk0
asymmetrical hair等、asymmetrical ○○というタグはいくらかdanbooruにあるからそれを試すくらいだな
SDはアルゴリズム的な問題で基本的に左右を表す語は効果が薄いと思ったほうがいい

「右手」が画面上のxyどの位置に配置するかが画角や体位等でバラバラなので
タグ分類が足りなくて学習内容が定まらない
指がグチャるのと同じような問題
0663...φ(・ω・`c⌒っ (オッペケ Sra3-Jz06)2024/03/28(木) 13:50:24.21ID:CxxuINCEr
「右」ってなんですか?
って聞かれて誰にでも分かりやすく説明するのはとても困難
ましてやそれを機械にとなればほぼ不可能な領域
0668...φ(・ω・`c⌒っ (ワッチョイ 8a21-htYh)2024/03/28(木) 15:13:46.39ID:GfqteKgk0
>>667
機械相手にはそれが通用しないんですよ
正位置に戻すとかアナログとか「3時の方向」の補足として全部教える必要がある
それができてないのでSDは左右がわからないし指がグチャる
0670...φ(・ω・`c⌒っ (ワッチョイ 8a9f-XTn7)2024/03/28(木) 15:33:47.29ID:IZHVcIMD0
人体の左右を考えるには人物ごとに基準となる中心線(背骨?)と正面を認識する必要が……
後ろ姿だったら画面上は左右逆になるとかあるし
0674...φ(・ω・`c⌒っ (ワッチョイ a7af-4FDf)2024/03/28(木) 18:37:04.46ID:IDOuZMGi0
>>668
> 全部教える必要がある

う〜ん……むしろ>>667 がそれなりに正しいんだけど
CLIPがゼロショット学習できてるから、SDもこれだけ多様な画像を生成できるわけだし
(もちろんデジタルを知ってるならアナログを知ってるとは必ずしもいえないけど)

>>663
不可能って……オズマ問題じゃないんだからw(モデルにはヒトの言語も画像も学習させるしね)
0675...φ(・ω・`c⌒っ (ワッチョイ 6392-CbUq)2024/03/28(木) 20:33:27.03ID:TSGR5ufb0
>>674
SDが多用な画像を生成できてるのはCLIPのおかげというより
stability aiがたくさんのリソース注ぎ込んでCLIPの学習情報に耐えうるSD公式モデル作ってるからっていうのが大きいのでは

lora等でユーザーが後付け学習する時なんかは画角・角度・サイズ等殆ど応用が効かないから
結局「全部教える」必要があるよ
0676642 (ワッチョイ 7f7f-yA3Q)2024/03/28(木) 21:35:55.02ID:vI7YSSGq0
>>652
ありがとうございます。

>>655
え? どこかでこれが正しいやり方って読んで、疑問持たずに実行してたんですが、確かにチェック入れなくても出力できますね。
こちらこそ勉強になりました。

>>656
おおう、こんな感じです。

こちらでもやってみました。
絵がかけないので、まずは素材の女の子を作らせー
https://majinai.art/i/jC-kevq

超絶、雑に組み合わせてー
https://files.catbox.moe/khu2zc.png

出力!
https://majinai.art/i/7H8S4cE

だめだ…違和感がありすぎる…やっぱり身体と顔の絵があってないですかねぇ。
とりあえず、ボディラインの繋がりなんかは問題ないんですが、どうにも違和感が…
0679...φ(・ω・`c⌒っ (ワッチョイ 1e02-/xz/)2024/03/28(木) 22:53:50.54ID:VY6WWr7+0
>>678
デフォルトでautolaunchする設定になったんよ
どっかの設定の「Local」を「none」にするんよ
0680...φ(・ω・`c⌒っ (ワッチョイ 1e02-/xz/)2024/03/28(木) 22:58:56.65ID:VY6WWr7+0
>>679つづき
Systemの「Automatically open webui in browser on startup」を「Local」から「Disable」にするんだった
0681...φ(・ω・`c⌒っ (ワッチョイ 8640-YHbf)2024/03/29(金) 02:06:12.00ID:LayIYN3d0
tensor.artでいい感じにできたやつまとめた
https://newav.tokyo/?p=1335
0684...φ(・ω・`c⌒っ (ワッチョイ 87cf-V6aI)2024/03/29(金) 09:09:40.33ID:wlHk0j3b0
痺に上がってたモデルの作者が紹介してたBMABというのを使ってみたら、Ultimate SD upsclaeみたいに見た目そのまんまでt2i出来るのね
0685...φ(・ω・`c⌒っ (ワッチョイ cac7-Sk2j)2024/03/29(金) 14:52:52.05ID:wWWx+zqw0
pony用のLoRAを作るにはどうすれば良いんだろ?
なにか参考になるサイトとかないものだろうか?
1.5用のはたくさんあるけどpony用が見つけられない
0686...φ(・ω・`c⌒っ (ワッチョイ 1e7a-vus6)2024/03/29(金) 14:59:28.13ID:nRvgdG9+0
civitaiにはpony向けのLoRAいっぱい転がってるし
作るのも別に大した難しさはないよ
再現度を高めるために覚えた方がいいことはあるけど
そこ突き詰めていくのは経験と先人の知恵が大事

見て覚えるタイプのものじゃないからとにかく最低限の使い方覚えて
手を動かして経験積むかLoRA作っている人から直接アドバイスもらうようにしたほうがいいかも
サイトみても疑問に対する答えがすぐに得られないという点で見る価値が全然ない
0687...φ(・ω・`c⌒っ (ワッチョイ 8a21-htYh)2024/03/29(金) 15:07:42.05ID:ktKYjMMA0
>>685
ベースモデルにpony使って学習すればいいだけだぞ
厳密には細かいところが何か色々あるかもしらんけど、とりあえず作るならこれで特に問題はない
0690...φ(・ω・`c⌒っ (ワッチョイ 869d-0o/Z)2024/03/29(金) 18:11:39.35ID:yTu07k7d0
ちちぷいで「'タグ名'は使用できないタグ名です。」それで強姦とか使えなくなった
0692...φ(・ω・`c⌒っ (ワッチョイ caac-Sk2j)2024/03/29(金) 19:57:48.60ID:wWWx+zqw0
とりあえず、kohyaでLoRA作ってるけどVRAM16GBも使ってる VRAMこんなに使うものなの?
20回
Train batch size 1
Epoch 8
Max resolution 512,512
時間も1時間位かかるらしい
0693...φ(・ω・`c⌒っ (ワッチョイ 869d-0o/Z)2024/03/29(金) 20:06:05.16ID:yTu07k7d0
>>691
ワロタw
0696...φ(・ω・`c⌒っ (ワッチョイ 869d-0o/Z)2024/03/29(金) 20:53:00.72ID:yTu07k7d0
ざぁ〜こ♡ひよこ閉じ込め下僕しつけ超ひどい回しモブおじさん秘密さわさわすやすやえっち
0697...φ(・ω・`c⌒っ (ワッチョイ cac7-Sk2j)2024/03/29(金) 21:04:11.87ID:wWWx+zqw0
XL(Pony)の初LoRAやっとできた
テキストは一切作らず更に1.5で使った元画像を何もせずそのまま使ったけど
再現は段違いに高く破綻もない
XLとLoRAの相性ビビるほど良い

微調整できる人は1.5使うのもありだと思うけど、何も考えずサクサクエロい画像を作りたい人はXL使う方が良さそう
調整一切無しで良いLoRAと画像ができてしまった、もう1.5に戻れないわ
0698642 (ワッチョイ 7fa2-yA3Q)2024/03/29(金) 22:54:24.68ID:5Y3ZNf4q0
>>677

ありがとうございます。

早速、画像を用意して、Train Tools をインストールし、LORA試作してみようとしたのですが……

ImportError: No xformers / xformersがインストールされていないようです

というエラーが出てしまいました。

実は、StableDiffusionを動かしているのは、12年も前のノートPCですww
NVIDIA なんて載っていません。
AMD® Caicos / Mesa Intel® HD Graphics 3000 ですので、AI制作には使えず、

--use-cpu all --skip-torch-cuda-test --lowvram --no-half --precision full --autolaunch

を起動コマンドに使用しています。

1枚制作に1時間くらいかかるので、寝る前にセットして、朝確認するようなスタイルです。

とりあえず、cpu allの環境で動かせないか、調べたり伺ったりしてみます。
0699...φ(・ω・`c⌒っ (ワッチョイ 63bb-CbUq)2024/03/29(金) 23:06:15.69ID:0HcumNi60
>>692
省メモリ用の設定いろいろあるから調べてみるといいよ
物理メモリ16GBあるならバッチサイズ上げてもっと時間短縮できるはず
参考までにXL用lora512サイズで70枚*10回*20epochの学習が24分くらい(4070Ti/12GB)

あと学習やるなら共有メモリ使わないように設定変えとくのおすすめ
VRAM溢れたらちゃんとエラーで止まるようにしないと時間がものすごく無駄になる
https://wikiwiki.jp/sd_toshiaki/GeForce%E3%83%89%E3%83%A9%E3%82%A4%E3%83%90#z59768fd
0700...φ(・ω・`c⌒っ (スップ Sd4a-H4ML)2024/03/29(金) 23:06:17.71ID:v/i2SCghd
>>698
それはなんというか……
pc買い替えるか課金でもっと手軽にできるやつもあるんじゃないか?
自分はもともとローカル環境作ったからわかんないけど…
0701...φ(・ω・`c⌒っ (ワッチョイ 869d-0o/Z)2024/03/29(金) 23:25:21.66ID:yTu07k7d0
multidiffusion-upscaler-for-automatic1111で
AttributeError: 'StableDiffusionProcessingTxt2Img' object has no attribute 'scale_factor'
これ
tileglobal.pyでエラー出てたから少し前のtileglobal.pyと交換したらとりあえず直ったw
0702...φ(・ω・`c⌒っ (ワッチョイ cbaf-SAjg)2024/03/30(土) 01:43:25.38ID:6ctZIqdb0
>>698
> 12年も前のノートPC

すごい……自分もノート(mac )だけど、けっきょくクラウド使ってるし

ただ推論(生成)じゃなく訓練だと、
その推論を何度も繰り返して、モデルを目的のかたちに近づけていくものだからーーかなり時間かかるよ
(LoRAは低ランクだけど、推論を繰り返すって点では変わらないから)

この記事はなにをどこまでやったのかよく分からないけど、生成より時間がかかりそうって感じは伝わるかも
http://blog.syo-ko.com/?eid=3100

>>675
そういう論点ずらしはよくない
0703...φ(・ω・`c⌒っ (ワッチョイ dfac-4HAy)2024/03/30(土) 02:45:38.64ID:Q85I4Agr0
>>699
凄く早いな
4080(24GB)だけど以下の設定で27分くらいになってる。なにか設定間違えてるんだろうか?
あと、フォルダーにキャラ別で分けて入れておけば、自動的にそれぞれのLoRAを作る方法とか無いだろうか?
寝る前にしかけおきたい

use 8-bit AdamW optimizer | {}
running training / 学習開始
num train images * repeats / 学習画像の数×繰り返し回数: 640
num reg images / 正則化画像の数: 0
num batches per epoch / 1epochのバッチ数: 320
num epochs / epoch数: 5
batch size per device / バッチサイズ: 2
gradient accumulation steps / 勾配を合計するステップ数 = 1
total optimization steps / 学習ステップ数: 1600
0704...φ(・ω・`c⌒っ (ワッチョイ 5bbb-oEqn)2024/03/30(土) 05:08:11.21ID:ZDcW7MD30
>>703
バッチサイズ1なのが主な原因じゃないかな
fp8学習有効にしたりnetwork_dim下げたりで大分省VRAMになってバッチ稼げるよ
ちなみにこちらの手元で試した感じだと、dim64/alpha32のfp8_baseとgradient_checkpointing有効で
学習サイズ512の場合バッチ10〜、1024ならバッチ4までは動作確認した(4070Ti/12GB)

sdxl_train_network.py1回で複数のlora出す方法については知らんので
設定複数用意して順にsdxl_train_network.py呼び出すようにバッチ書くくらいしか思いつかないな
0706...φ(・ω・`c⌒っ (ワッチョイ cb15-mQIN)2024/03/30(土) 09:26:52.19ID:padBFWqH0
同じプロンプトでもエバラだとちゃんと描画されるのに
Ponyだと一面ノイズになってしまうって事多いなあ
強調全部無くしても治らないし
0711...φ(・ω・`c⌒っ (ワッチョイ 6b7d-tQsm)2024/03/30(土) 10:26:18.68ID:s3IvbxIw0
A1111でリアルを生成しているんだが、マムコの形が変だ。きれいに生成するには、どういうプロンプト入れればいいんだろうか?
0712...φ(・ω・`c⌒っ (ワッチョイ cb15-mQIN)2024/03/30(土) 11:18:44.50ID:padBFWqH0
>>707
それだったありがとう!
てか1111で入れてたせいでForgeでもてっきり入れたもんだと思いこんでた

>>711
detailed vaginaとかでどう?
0715...φ(・ω・`c⌒っ (ワッチョイ 5ba8-9CM9)2024/03/30(土) 13:38:01.16ID:UeBFjbCt0
おっぱいの大きさなんだけどSmall Middle Largeの3種類だけじゃなくて、スモールとミドルの間とかミドルとラージの間くらいにしたい時ってどんなプロンプト使ってます?
個人的にラージは大きすぎてミドルは気持ち小さいからミドル寄りのラージを出したいのに上手くいかない…
モデルはebara使っています。
0719...φ(・ω・`c⌒っ (ワッチョイ 5ba8-9CM9)2024/03/30(土) 17:10:20.08ID:UeBFjbCt0
>>716
>>718
おお、ありがとう!
両方ともPonyで効きました、これで生成する幅が広がったよ。
おっぱいの大きさが3種類だけだと少なすぎるから皆どうしてるかと思ってたけどやり方有ったのね。
0720...φ(・ω・`c⌒っ (ワッチョイ 6fdc-XxRK)2024/03/30(土) 17:51:29.77ID:iD85XXh70
AnimateDiffの使い方とGitHubを見た俺、うわあ大変そう...そっ閉じ
他の事もそうだけど、新しい物に飛び込んでモノにしてる人の対応力って凄い
0722...φ(・ω・`c⌒っ (ワッチョイ 6be1-JZ1t)2024/03/30(土) 18:14:21.96ID:D4BW9O9B0
>>720
1.5の時によく使ってたけど、設定項目も少なくて難しくなかったと思う
好きなモジュール選んで動画の時間と枚数を決めてスタート押すだけだったかと
0724...φ(・ω・`c⌒っ (ワッチョイ 6fdc-XxRK)2024/03/30(土) 19:24:53.95ID:iD85XXh70
>>722
今また色々見てるんだけど、深い部分まであれこれと見過ぎたのかも知れない

そんな中で見つけた、設定>Optimizationsにある
Pad prompt/negative prompt(improves performance when prompt and negative prompt have different lengths; changes seeds)
これをonにして数回生成してみたら専用GPUメモリが上振れで〜1Gほど増えるけど生成時間はマイナス2秒前後
画像は若干変化するけど綺麗さは増した気がするw
0726...φ(・ω・`c⌒っ (ワッチョイ 0f02-XOh9)2024/03/30(土) 19:32:53.25ID:wHu09p5P0
AVとかであるような立ちバックを真下から撮るようなアングルで生成したいです
修飾関係を抜いたプロンプトはこんな感じなんですがうまくいかないです
添削おねがいできませんか?
ちなebaraponyです

1girl, standing, bend forward, put hands against wall, spread legs, vaginal penis, belly, focus navel,
(((from below))),
0728...φ(・ω・`c⌒っ (ワッチョイ 9fad-5wY8)2024/03/30(土) 19:39:42.31ID:B7Qp2UbC0
comfyuiでanimatediffは組めたけど
一括の流れで、コマごとにcontrolnet/tileを用いたアップスケールさせてmp4まで生成するにはどう組んだら良いでしょう?
0730...φ(・ω・`c⌒っ (ワッチョイ 0f02-XOh9)2024/03/30(土) 20:38:00.62ID:wHu09p5P0
>>727,728
アドバイスありがとうございます
色々足したりして作ってみました

https://ul.h3z.jp/Cmx9CME4.jpeg
うーーーーんまあまあまあまあ•••って感じです
ブラッシュアップしていきます
0731...φ(・ω・`c⌒っ (ワッチョイ 3b32-XxRK)2024/03/30(土) 21:20:21.53ID:9MTKoLLe0
重要ではないかもしれないけどspread legsはアップされた画像のような開脚の意味合いが強いから
脚を開いた状態で立つって意味のlegs apartを使うとか
standing and spread legsで一括りにして"立った状態で開脚する"って意味にするとかはどうだろう
0734...φ(・ω・`c⌒っ (ワッチョイ 6fdc-XxRK)2024/03/30(土) 22:12:59.81ID:iD85XXh70
>>733
2枚目いいねw
このアングルで両手を机に付いてるのは後ろからパンパン激しく打ち付けられてるぽい雰囲気がある
0735...φ(・ω・`c⌒っ (ワッチョイ 4bce-ZvmF)2024/03/30(土) 22:15:38.96ID:wyoqUqjh0
この雲形定規で引いたボディラインはSDXLか
シーリングライトでけえw そんで照明機器の細い直線がまっすぐなのな
こういう「月刊エロ魔人Comicの巻頭カラー」みたいな画には最適だね
0740...φ(・ω・`c⌒っ (ワッチョイ 0f02-XOh9)2024/03/30(土) 22:42:57.46ID:wHu09p5P0
皆様への感謝のポーズ

https://ul.h3z.jp/reWglfsH.jpeg
0743...φ(・ω・`c⌒っ (ワッチョイ 3bf5-idFb)2024/03/30(土) 23:09:59.73ID:DL+dOcpm0
エロゲ絵からローラ作ったんだけどモザイクがかかる絵ばかり生成される
プロンプト側に無修正とネガティブにモザイク入れたら消せるには消せるけど質の悪いチンポとマンコになる
ひょっとしてこれローラ作るときのタグにモザイクある絵はちゃんとモザイクって入れたほうがいい?
0744...φ(・ω・`c⌒っ (ワッチョイ 0fa9-rqId)2024/03/31(日) 00:02:16.67ID:ZNSFt51B0
ponyでもデティール拘ればLoraなしで良い感じの虹まん出たので満足してる
でもやっぱ非エロだと魔神の方が使いやすいね
0747...φ(・ω・`c⌒っ (ワッチョイ 5b59-oEqn)2024/03/31(日) 02:38:52.93ID:88e4mCLe0
>>743
根本的には素材からi2iで適当にモザイクとっぱらったほうがいい
SDの学習はキャプションの各ワードに「教師画像全体」のピクセル情報を関連付けて覚えるので
mosaicとタグ付けたところで他のタグにもモザイク情報を覚えてるから
生成時にネガティブにmosaicと入れたら全体の画風に影響が出る
0748...φ(・ω・`c⌒っ (ワッチョイ 6fa7-XxRK)2024/03/31(日) 03:37:03.67ID:VJyah9fM0
物凄くタイムリーな話題に便乗
LoRA完成後の中身(例えば"penis": 11,←こういうやつ)を編集、削除するなにか良い方法ある?
生成中にネガに入れても完全に出なくなるわけではいからいっそLoRAの中身を編集できたらなぁと
0751...φ(・ω・`c⌒っ (ワッチョイ 6fa7-XxRK)2024/03/31(日) 04:07:31.65ID:VJyah9fM0
>>749
そうなんだ。ネガとインペイントで頑張る...ありがとう!
0752...φ(・ω・`c⌒っ (ワッチョイ 5fd7-eoXq)2024/03/31(日) 06:41:50.71ID:HU5p92H40
Latent Coupleって今時のSDで使えるの?
大分前に使えなくなってRegional Prompterが代替品て事になってた気がするんだけど
ぐぐってるとわりと最近Latent Coupleを説明してるサイトが目に止まる
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況