【StableDiffusion】AIエロ画像情報交換54
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 5baf-Z8dr)2025/02/18(火) 20:41:10.04ID:6fCzy8Y30
!extend:checked:vvvvv:1000:512:
!extend:checked:vvvvv:1000:512:
↑スレを立てるときはこれを3行にしてね

AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換53
https://mercury.bbspink.com/test/read.cgi/erocg/1737704424/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT configure
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0610...φ(・ω・`c⌒っ (ワッチョイ 1bcd-/ePI)2025/03/04(火) 04:48:59.95ID:ueXrP+ma0
>>607
そこそこ勉強したからPC関連は大丈夫。ちなみにケースと電源はあんたの心配通りだったので新調したよ
予想全部当たってるw

>>608
動画も高解像度もやってない。せいぜいフルHDくらいの画像をたまに出力してる程度。
A1111が初心者のデフォだと思うんだが待ちが耐えられん
もうちょっと色々勉強してくらぁ
0613...φ(・ω・`c⌒っ (ワッチョイ 6f17-UohK)2025/03/04(火) 06:37:40.15ID:RLatiSIQ0
40代の優秀なのが無いなら60シリーズが安くなるまで3060の12Gでいいよ
マジ傑作
0614...φ(・ω・`c⌒っ (ワッチョイ 1bcd-/ePI)2025/03/04(火) 06:53:18.21ID:ueXrP+ma0
そこそこ安いのにだいたい何でもできる3060は良いグラボなのは同意するよ

ただオネショタばっかり出力してると体格差のせいで奇形とかありえん体制とか出てくるのでたくさんガチャ回したくなってもうて
学習もどっぷりやりたいから大メモリで生成そこそこ早いのがどうしても欲しくなって
0615...φ(・ω・`c⌒っ (スププ Sd7f-LFh4)2025/03/04(火) 07:00:37.59ID:b/xC/9BBd
自分も3060-12だけど生成待っている間に賢者モードに入ってしまうのと猿のように作りまくって飽きてしまうのとどっちがマシだろうかと考えると今のグラボには手が出せない
0617...φ(・ω・`c⌒っ (ワッチョイ 1bcd-0Wb/)2025/03/04(火) 07:06:53.82ID:3b8vP94j0
大量ガチャやSD3には向いていないがXLで良いなら3060Ti8Gでも1枚十数秒だからね
ADetailer掛けるとどうしても掛けた分生成時間は増すけど
学習したいなら5060tiがメモリ16Gらしいからそれまで待ちかな
0619...φ(・ω・`c⌒っ (ワッチョイ 4fdd-Lb/8)2025/03/04(火) 07:13:08.01ID:+HnQ41FK0
>>612
いんや
今使ってるa1111のフォルダにpath通してあげればすぐにほぼ同環境で移行できる
通し方は検索すれば色々なところが解説してる
0622...φ(・ω・`c⌒っ (ワッチョイ eb55-sfwr)2025/03/04(火) 08:00:16.67ID:RYL3ir/q0
今3060使ってる奴は5060Tiがいいと思う
もちろん16GBモデルな
おそらく4060Tiより1.5倍ぐらいは速くなるはず
3060と4060Tiも1.5倍ぐらいの差だから
3060から5060Tiだと生成時間半分ぐらいになるはず
0624...φ(・ω・`c⌒っ (ワッチョイ 6b3a-UohK)2025/03/04(火) 08:05:04.35ID:J44gOXgB0
>>622
おいくらなんですかね
4090とか5090みたいな性能ぶっ飛んだやつ除くなら4070Tisuperみたいなコスパ特化タイプの方が欲しい
0628...φ(・ω・`c⌒っ (ワッチョイ 0b7e-yHf9)2025/03/04(火) 09:06:03.26ID:WnskP3yP0
皆速度に拘る割にはbatch_size 1で生成しているんだよね
もしかしてbatch_size 2にしたらVRAM2倍消費するって勘違いしているのかな😅
batch size増やしてもVRAM消費量はほぼ変化ないぞ

ComfyUI使ったことあるひとにしかわからんけど
どの処理が最も時間が掛かるのかどの処理がVRAM消費量が激しいのかわかるはず
タスクマネージャー監視していればTiledとbatch sizeの最適値がわかる

限界までチューニングしたら高速生成できるよ
0629...φ(・ω・`c⌒っ (ワッチョイ 0b2d-m1Mg)2025/03/04(火) 10:02:26.26ID:JaflhOAt0
>>627
easy使うところが初心者っぽくてかわいい
0631...φ(・ω・`c⌒っ (ワッチョイ eb55-sfwr)2025/03/04(火) 10:39:14.79ID:RYL3ir/q0
forgeで動かない拡張使ってるからa1111使ってる
comfyでもいいけど何となく流れでa1111のまま、って前スレでも書いたな
0633...φ(・ω・`c⌒っ (ワッチョイ 0b7e-yHf9)2025/03/04(火) 10:59:58.11ID:WnskP3yP0
ワイからの高速化ヒントや
動画生成とかFLUXでよく聞くVRAM低減技術でFP8とかGGUFがある
VRAM漏れてない人からしたら高速化にはなり得ないと思われがちだが関係ある
VRAMに余裕が出ると言うことはbatch sizeを増やして同時生成枚数を増やして高速化できることになる
Tiled VAEを最適値に設定するとVRAM漏れなくなるのでbatch sizeを更に増やす余裕が生まれる
ハード的に考えるとVRAM多い方が同時生成数が増やせて速くなる
batch sizeやTiled VAEをイジらないとハードの限界性能は引き出せない
0635...φ(・ω・`c⌒っ (ワッチョイ 0b7e-yHf9)2025/03/04(火) 11:36:20.42ID:WnskP3yP0
forgeは使ってないから知らんけどComfyUIは自分で設定するんだぞ
タスクマネージャー見ればどれだけVRAM使っているかまたは漏れているかわかるよ
初期設定は自動設定とは言わない😅
0636...φ(・ω・`c⌒っ (ワッチョイ 4fed-3nu1)2025/03/04(火) 12:05:05.88ID:CLz3w69z0
高速化にバッチサイズがどうとか微妙に筋違いな感じだが
vaeノードは溢れそうなら自動でtiledになるよって話をしてると思う
0638...φ(・ω・`c⌒っ (スッップ Sd7f-UohK)2025/03/04(火) 12:32:12.85ID:fLq1PTUvd
>>630
スペックは最上位連中と比べたら物足りない感じだけど価格考えたらコスパいいねえ
入門向けっぽいけど安定供給される日来るんかね
0639...φ(・ω・`c⌒っ (ワッチョイ 1bd2-NJJd)2025/03/04(火) 12:40:48.47ID:VQSrMd050
グラボ買い換えるには時期が悪いおじさん「グラボ買い換えるには時期が悪い」
0640...φ(・ω・`c⌒っ (オイコラミネオ MM9f-cjI+)2025/03/04(火) 12:47:34.90ID:0o2lnQ7FM
>>633
Tiled VAEってどういう風に設定するのがいいんだ?
VRAM消費量減を考えるならまずtile_sizeなんだろうけど
生成画像でサイズで分割したときに余剰が生まれにくいサイズにしとけばいいのか?

>>636
あれ、ノーマルのVAEノードは自動でtiledになるの?
0642...φ(・ω・`c⌒っ (ワッチョイ 6f08-V33s)2025/03/04(火) 14:09:13.35ID:6/QdSWXS0
after sexの描写をしたいんですが、女がベッドに寝てて、男がベッド端に座ってタバコ吸ってるようなのって以下のプロンプトの他に何を足せばいいですかね?


after sex,lying on bed,boy sitting on bed ,boy smoking
0643...φ(・ω・`c⌒っ (ワッチョイ 0b7e-yHf9)2025/03/04(火) 14:22:01.21ID:WnskP3yP0
>>640
タスクマネージャーの「共有GPUメモリ」見ながら設定するんだよ
タスクマネージャー→GPU→共有GPUメモリ
「共有GPUメモリ」はGPUとメインメモリを合わせた物
うちの環境だど生成中はVRAM漏れてなくても0.2〜0.3GBは常に消費されている
tile_sizeを上げて共有GPUメモリに変化が無ければまだ上げれる
変化が無いギリギリまで共有GPUメモリを上げればいい

これは環境によるけど実はVRAM少し漏れた程度が1番速いかな
VRAMが漏れないのならtile_sizeは多い方が高速
瞬間的に少し漏れる程度ならtile_size上げても構わない
まあ実際の生成速度見ながら調整してよ
0647...φ(・ω・`c⌒っ (ワッチョイ 6f8a-MIeC)2025/03/04(火) 17:07:33.22ID:TQTwdGhs0
AMDグラボでForgeって動きますかね。
3080を使ってるのですが、生成時間に差が無いようであれば検討しています。
0650...φ(・ω・`c⌒っ (オイコラミネオ MM9f-cjI+)2025/03/04(火) 17:31:38.58ID:0o2lnQ7FM
>>641,645
分かった試してみるわさんくす

>>647
よく言われることだけど、その質問をするくらいなら止めといた方がいいよ
トラブったときは自力で解決できる自信があるなら
0652...φ(・ω・`c⌒っ (ワッチョイ dfb5-c2UJ)2025/03/04(火) 17:47:16.20ID:cr+tQFps0
>>642
その構図だと女は横向きに寝てるんだろうからon_side, うつ伏せならface_down
横向きかつあっち向きならface_away
こっち向きなら何かしら表情
裸で寝てるにしても薄い何か掛けた方が映えるからblanketとか?
0653...φ(・ω・`c⌒っ (ワッチョイ 7b7e-yHf9)2025/03/04(火) 17:58:01.79ID:VLEh+y/o0
面白いカスタムノードを見付けた
Comfy-WaveSpeedと言うらしい
キャッシュ機能を使ってKSamplerを高速化するのかな???
作者は打倒TensorRTを目指す頭のイカれた天才らしい
後で試してみよう
0654...φ(・ω・`c⌒っ (ワッチョイ 0bb6-MIeC)2025/03/04(火) 18:06:48.89ID:iH+U9Fw60
>>619

やってみてるけど cmd見るとエラーがあって、ChatGPTに聞くと
 改善できそうなポイントTriton が見つからない(xformersの最適化が一部無効)

WARNING:xformers:A matching Triton is not available, some optimizations will not be enabled
ModuleNotFoundError: No module named 'triton'
→ Triton がないと xformers の最適化の一部が無効になるので、インストールを推奨!           

こういわれたのでChatGPTの指示通りにやると

現在表示されたエラーメッセージによると、torch と CUDA のバージョンが現在のデバイスでサポートされていないということです。これは、使用しているGPUやCUDAバージョンが、インストールされているPyTorchのバージョンと互換性がない場合に発生します。

解決方法
PyTorchとCUDAのバージョンを変更
あなたのGPUが現在のPyTorchとCUDAバージョンに対応していない場合、他のバージョンを使用する必要があります。
手順 1: PyTorchのバージョンをCUDAに合わせてインストール
PyTorch公式インストーラーで、対応するCUDAバージョンを選択します。



もう一生この無限ループに陥ってます。
(どれかをアップデートとかダウングレードすると、何かの互換性がない〜 んでもちろん指示通りにやると 次は別の奴の互換性がない〜)
これで3時間ぐらい止まってます(´;ω;`)

どうすればよいですか?
0655...φ(・ω・`c⌒っ (ワッチョイ 0bb6-MIeC)2025/03/04(火) 18:14:23.57ID:iH+U9Fw60
Python 3.10.6 & CUDA 12.1に適合するバージョンのTritonってどれですかね?  これだけわかれば解決しそうかも・・・
0659...φ(・ω・`c⌒っ (ワッチョイ 0bbb-1Est)2025/03/04(火) 18:35:28.90ID:sqOOWOG30
なんかややこしい事してるんじゃないかなぁ
普通に別のフォルダにEasyReforgeインスコして
A1111からCheckpointなりLoraなり移行すれば良いだけでは?
0662...φ(・ω・`c⌒っ (ワッチョイ 6f15-H6zf)2025/03/04(火) 19:41:30.78ID:mHekyibn0
苦しい5時間やってる・・・
20時までに銭湯入らないといけないので1時離脱

>>659>>660
ありがとうございます
ググって1番上に出てくる奴やったら起動はしてました
ただしその時のcmdの文章をChatGPTに打ち込むと

>>654
のエラーが出てて
この状態だとa1111版とあんまり速さとか変わらんよ?って言われて

(前までのa1111版<今の中途半端なForge版<<<<<<<<このtritonをちゃんとインストールできた場合)みたいな感じだったのでChatGPTに言われるままにやってたらずっと上手くいかず
0663...φ(・ω・`c⌒っ (ワッチョイ 6f15-H6zf)2025/03/04(火) 19:46:00.69ID:mHekyibn0
んで思ったのがcudaって単語が出てきてたので
とりあえずこれをインストールしてみたんですよね
んで最後、家出る前にpipってのもちゃんとインストールしたのに
「PyTorchがGPUを認識出来てないエラーが起こってる」みたいな文面が出てて・・・

そういやサブモニターにグラボからHDMIケーブルで繋いでるからそっちを1回外してみましょうかね・・・
0664...φ(・ω・`c⌒っ (ワッチョイ eb7a-xoFw)2025/03/04(火) 19:53:49.53ID:xijwzwM50
WindowsのForgeユーザーの中で大多数がtriton入れてないと思うから一旦忘れる事をおすすめしたい

動画生成に手を出すと嫌でも通らなくてはならないけど
0665...φ(・ω・`c⌒っ (ワッチョイ 5bbd-1Est)2025/03/04(火) 19:58:14.77ID:XFBOQAMS0
検索すれば出てくるじゃない
https://wikiwiki.jp/sd_toshiaki/No%20module%20named%20%27triton%27

WARNINGだからびっくりするけど「注釈」みたいな意味合いだよ
動くなら無視していいんだよ

むしろ余計なことをやったから逆にトラブルが発生する可能性がある
フォルダ全部消してまた1から入れてそのまま使った方がいいかもね
0666...φ(・ω・`c⌒っ (ワッチョイ 7b97-r/Rq)2025/03/04(火) 20:09:50.23ID:b0RUNLC50
そんなに高画質の作りまくって保存しまくって容量足りる?
0667...φ(・ω・`c⌒っ (ワッチョイ bb30-H6zf)2025/03/04(火) 20:11:29.81ID:J61SSajf0
>>664
>>665
なるほど・・・そうでしたかありがとうございます
無視してもいいのは分かるんですが「全然性能上がってないよ?」
みたいに言われたのでやはり続行してみた感じなんですね

ちなみにフォルダごと1回消しましたが
最初はブラウザで起動してましたが2回目からは起動してないですね
>>663今はこのエラーで
0674...φ(・ω・`c⌒っ (ワッチョイ 4fbf-1Est)2025/03/04(火) 21:23:13.94ID:CLz3w69z0
WebUIのメタデータ入った画像読み込めばhires.fix込みくらいまでのフローは作ってくれる
そこから少しづつ肉付けしていけばいい
そのうち画像生成するよりフロー組むのが楽しくなってくる
0677...φ(・ω・`c⌒っ (ワッチョイ 0b2a-MIeC)2025/03/04(火) 21:36:09.09ID:iH+U9Fw60
だめですわ
OSError: [WinError 126] 指定されたモジュールが見つかりません。 Error loading "C:\stable-diffusion-forge\webui\venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
続行するには何かキーを押してください . . .
起動しようとしたらこれが出て起動できません・・・
初めてChatGPTを信頼できない一日になりましたわ
最初の段階で終わっておけば・・・
0682...φ(・ω・`c⌒っ (ワッチョイ 6b0d-iIEL)2025/03/04(火) 22:40:54.44ID:3LmJC02z0
KSamplerを高速化する「Comfy WaveSpeed」という頭のおかしいカスタムノードを試した感想
noobを高速化Loraを使用した状態だと1.7-1.8倍早くなった見た感じ画質の劣化は見られず

カスタムノードの簡単な説明
キャッシュを溜め込んで再利用する機能。一回目の動作だけは重い2回目から本気だす

対応モデル
SDXL、FLUX、SD3.5、HunyanVideo、LTXV、

FLUXは3倍位早くなるんだってさ。動画まで対応しているのは凄いけど
今流行りのwanだっけ?これ対応していないのは残念
将来的にマルチGPU対応するつもりらしい
TensorRTとは違ってLoRAとか解像度とかの制限はなしAMDでも動作したよ
高速(低ステップ)化Loraと併用できたのは凄いと関した
0686...φ(・ω・`c⌒っ (ワッチョイ 0bb7-m1Mg)2025/03/04(火) 23:24:16.52ID:ztzcgQvj0
>>684
何を持って3次元と言うかは人それぞれやけどまぁ出ると言えば出る
0687...φ(・ω・`c⌒っ (ワッチョイ 6fa0-nSsP)2025/03/04(火) 23:52:54.30ID:B/Wdsqcx0
>>682
これええねあんがとさん
0689...φ(・ω・`c⌒っ (ワッチョイ 0fa8-nGAB)2025/03/05(水) 01:35:31.81ID:P4g/fcF70
>>678
うちの会社(プラント)の配電盤とそっくりでビックリした、どこの会社も同じ感じなのかな。
それはそれとして、今まで容量の関係で外付けSSDにForge入れて生成してたんだけど内蔵のNvmeSSDに移bオたら生成時間bェ11秒→10秒にbネったわ。
生成ボタン押してから2秒ほどタイムラグがあったけど1秒くらいに短縮された。
今までどれだけ無駄にしたんだろ…
0690...φ(・ω・`c⌒っ (ワッチョイ 0bec-iIEL)2025/03/05(水) 01:36:27.07ID:G9VHAtCu0
Comfy WaveSpeedしばらく使ってみたけど早くなったり遅くなったり安定しないな
使えるキャッシュが無い場合は普通の速度って感じかな?
それとも単に動作不安定なのかよくわからん

Kohyaハイレゾとの相性を試したが特に問題なし
で、偶然気付いたけどKohyaハイレゾ使うとVRAM消費がめちゃくちゃ減るんだな
まだ低解像度設定の方がVRAM食ってて草
Kohyaハイレゾ使う時はTiled VAEのtile_size増やす余裕があるな
0691...φ(・ω・`c⌒っ (ワッチョイ 6f8a-MIeC)2025/03/05(水) 01:49:51.71ID:7OLi7qP30
tonge outであかんべーできるけど、
舌を前方に突き出して蛇のような感じにするにはどうしたらいいでしょうか。
0692...φ(・ω・`c⌒っ (ワッチョイ 6f8a-MIeC)2025/03/05(水) 02:06:24.10ID:7OLi7qP30
すいません。stick tongue outで自己解決しました。
0693...φ(・ω・`c⌒っ (ワッチョイ 6f8a-MIeC)2025/03/05(水) 02:06:24.85ID:7OLi7qP30
すいません。stick tongue outで自己解決しました。
0695...φ(・ω・`c⌒っ (ワッチョイ 4fdd-Lb/8)2025/03/05(水) 04:29:51.48ID:VDosS6W30
>>689
そういや導入の際試験的に型落ちのSSDにインストールしたんだけど問題無く動いてたからそのまま使い続けてたわ
これ見て思い出して最新のSSDに移行したたが、一枚あたり数秒の高速化でも何万枚も出力するから恩恵デカいな
0696...φ(・ω・`c⌒っ (ワッチョイ 0bb7-m1Mg)2025/03/05(水) 05:43:54.07ID:s519hEG40
>>694
大丈夫、登校時の小学生も歌ってるから

少年A「vaginal, anus, large breast!」
少年B「え?large breast?ママじゃん、flat chestが良いぞ」
少年「解せぬ」
0699...φ(・ω・`c⌒っ (ワッチョイ 0bad-iIEL)2025/03/05(水) 07:28:20.99ID:G9VHAtCu0
Kohyaハイレゾ使うとVRAM使用量減るとか言っていたけどKohyaハイレゾのせいじゃないな
VRAM使用量多い時と少ない時があって何が原因でそういう動きしているのかわからん
VRAM解放と関係あるのかな?そういう設定とか拡張機能あると面白いから探してみようかな
VRAMに余裕があればあるほどTiled VAEのtile_size増やせるんだけどな
0700...φ(・ω・`c⌒っ (ワッチョイ eb32-X5pn)2025/03/05(水) 08:06:37.16ID:JVSJmgCo0
4070tisを1年前に購入。先日4090を借りられた。確かに生成速度アップしたが、3割程度だからそんなに感激しない。動画生成とかローカルLLMするならメリット大きいが、私の場合は興味ないので、むしろ排熱のデメリットしか感じなかった。今んとこは4070tis で必要十分かな。
0701...φ(・ω・`c⌒っ (ワッチョイ 0bad-iIEL)2025/03/05(水) 08:12:41.73ID:G9VHAtCu0
VRAMの使用メモリについてわかった
やっぱりKohyaハイレゾが原因だった

ワイの環境 VRAM 8GB TIledVAE tile_size 608

通常生成(832x1248)VRAM使用量
開始前4.0GB KSampler処理中5.2GB VAE Decode処理中6.6GB 終了後4.0GB

Kohyaハイレゾ(1024x1536)VRAM使用量
開始前2.1GB KSampler処理中5.6GB VAE Decode処理中4.8GB 終了後2.1GB

KohyaハイレゾはVAE DecodeのVRAMが大幅に減る効果があるみたいだな
Kohyaハイレゾ使用時はTIledVAE tile_sizeをもっと増やせる余裕がある

ComfyUI使ったことない人に簡単に説明するとAIイラストの処理の重さはこんな感じ
最も時間がかかる処理 KSampler>VAE Decode>>>>その他  ※初回起動のモデルロードは無いものとする
最もVRAM食われる処理 VAE Decode>KSampler>>>>その他  ※初回起動のモデルロードは無いものとする
0703...φ(・ω・`c⌒っ (ワッチョイ 1fca-qJT/)2025/03/05(水) 08:57:01.90ID:C2ZFp/HJ0
Macで生成AI始めて3ヶ月、もう限界なのでPC組もうと思う
いまミドルレンジも高額だから30番台+8GBで様子見しようと思うけどコスパ悪いかなあ

もうリアス系1枚3分、SD1.5で30秒とか無理なんよ・・・
一応最新M4なのにつらい
0704...φ(・ω・`c⌒っ (ワッチョイ 0bad-iIEL)2025/03/05(水) 09:04:14.37ID:G9VHAtCu0
今ちょっと面白い実験中
偶然にも色々見つけた
後で報告する
0705...φ(・ω・`c⌒っ (ワッチョイ 6b15-iIEL)2025/03/05(水) 09:04:42.08ID:UJkz2zLO0
今から買うならVRAM16GBは欲しいよ
グラボも高くなってるから辛いところだけどね
俺は1年前くらいに3060の12GBを4万円で買ったけど今は5万5000円くらいでビビる
0707...φ(・ω・`c⌒っ (ワッチョイ 0bad-iIEL)2025/03/05(水) 09:07:11.63ID:G9VHAtCu0
そういやなんU民に教えて貰ったけどリアル版のダンボールみたいなサイトがあるみたいだな
idol.sankalucomplexってサイトね
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況