【StableDiffusion】AIエロ画像情報交換54
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512:
!extend:checked:vvvvv:1000:512:
↑スレを立てるときはこれを3行にしてね
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換53
https://mercury.bbspink.com/test/read.cgi/erocg/1737704424/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT configure
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 4090万歳!
これからは16GBのVRAM搭載したグラボが良いと思う。
今は品薄すぎて買えないが。 >>607
そこそこ勉強したからPC関連は大丈夫。ちなみにケースと電源はあんたの心配通りだったので新調したよ
予想全部当たってるw
>>608
動画も高解像度もやってない。せいぜいフルHDくらいの画像をたまに出力してる程度。
A1111が初心者のデフォだと思うんだが待ちが耐えられん
もうちょっと色々勉強してくらぁ a1111からforgeに変えるだけで大分スピード変わった 40代の優秀なのが無いなら60シリーズが安くなるまで3060の12Gでいいよ
マジ傑作 そこそこ安いのにだいたい何でもできる3060は良いグラボなのは同意するよ
ただオネショタばっかり出力してると体格差のせいで奇形とかありえん体制とか出てくるのでたくさんガチャ回したくなってもうて
学習もどっぷりやりたいから大メモリで生成そこそこ早いのがどうしても欲しくなって 自分も3060-12だけど生成待っている間に賢者モードに入ってしまうのと猿のように作りまくって飽きてしまうのとどっちがマシだろうかと考えると今のグラボには手が出せない 年末に4070Ti super買ったけど早くも生成速度に不満が… 大量ガチャやSD3には向いていないがXLで良いなら3060Ti8Gでも1枚十数秒だからね
ADetailer掛けるとどうしても掛けた分生成時間は増すけど
学習したいなら5060tiがメモリ16Gらしいからそれまで待ちかな >>597
イラスト調でよければ構図が自由奔放なのはObsession
セックスの絵で逆立ちまである >>612
いんや
今使ってるa1111のフォルダにpath通してあげればすぐにほぼ同環境で移行できる
通し方は検索すれば色々なところが解説してる forgeめっちゃ早いぞ
入れてない奴は人生損してる
3070でもサクサク動くわ 今3060使ってる奴は5060Tiがいいと思う
もちろん16GBモデルな
おそらく4060Tiより1.5倍ぐらいは速くなるはず
3060と4060Tiも1.5倍ぐらいの差だから
3060から5060Tiだと生成時間半分ぐらいになるはず 3060 12GB使って1週間で物足りずに4070tis買い直したわ、5000系はスルーやむなし >>622
おいくらなんですかね
4090とか5090みたいな性能ぶっ飛んだやつ除くなら4070Tisuperみたいなコスパ特化タイプの方が欲しい 3060の12G使ってるけど、forgeマジで早い。ただ、50シリーズやと動かんからcomfyuiに移行しないと⋯ >>625
もっと良いグラボでforge使ってみ、時間半分になるぞ
steamの首位から陥落した3060なんて売り飛ばせ 今ならeasyreforgeがマストよな
A1111の方が拡張機能の実装が早いからつよつよグラボならA1111でいいんじゃね 皆速度に拘る割にはbatch_size 1で生成しているんだよね
もしかしてbatch_size 2にしたらVRAM2倍消費するって勘違いしているのかな😅
batch size増やしてもVRAM消費量はほぼ変化ないぞ
ComfyUI使ったことあるひとにしかわからんけど
どの処理が最も時間が掛かるのかどの処理がVRAM消費量が激しいのかわかるはず
タスクマネージャー監視していればTiledとbatch sizeの最適値がわかる
限界までチューニングしたら高速生成できるよ >>627
easy使うところが初心者っぽくてかわいい >>624
おそらく10万切るあたり
目安としては5070tiの半額ぐらい forgeで動かない拡張使ってるからa1111使ってる
comfyでもいいけど何となく流れでa1111のまま、って前スレでも書いたな 16GB版9万8千らしいけど実売だとどうなるか分かったもんじゃない ワイからの高速化ヒントや
動画生成とかFLUXでよく聞くVRAM低減技術でFP8とかGGUFがある
VRAM漏れてない人からしたら高速化にはなり得ないと思われがちだが関係ある
VRAMに余裕が出ると言うことはbatch sizeを増やして同時生成枚数を増やして高速化できることになる
Tiled VAEを最適値に設定するとVRAM漏れなくなるのでbatch sizeを更に増やす余裕が生まれる
ハード的に考えるとVRAM多い方が同時生成数が増やせて速くなる
batch sizeやTiled VAEをイジらないとハードの限界性能は引き出せない よく知らんけどforgeとかcomfyって
自動でTiledVAEの最適化してるんじゃないの? forgeは使ってないから知らんけどComfyUIは自分で設定するんだぞ
タスクマネージャー見ればどれだけVRAM使っているかまたは漏れているかわかるよ
初期設定は自動設定とは言わない😅 高速化にバッチサイズがどうとか微妙に筋違いな感じだが
vaeノードは溢れそうなら自動でtiledになるよって話をしてると思う >>630
スペックは最上位連中と比べたら物足りない感じだけど価格考えたらコスパいいねえ
入門向けっぽいけど安定供給される日来るんかね グラボ買い換えるには時期が悪いおじさん「グラボ買い換えるには時期が悪い」 >>633
Tiled VAEってどういう風に設定するのがいいんだ?
VRAM消費量減を考えるならまずtile_sizeなんだろうけど
生成画像でサイズで分割したときに余剰が生まれにくいサイズにしとけばいいのか?
>>636
あれ、ノーマルのVAEノードは自動でtiledになるの? >>640
クソデカアップスケールしてみればわかる切り替えはログにでたはず after sexの描写をしたいんですが、女がベッドに寝てて、男がベッド端に座ってタバコ吸ってるようなのって以下のプロンプトの他に何を足せばいいですかね?
after sex,lying on bed,boy sitting on bed ,boy smoking >>640
タスクマネージャーの「共有GPUメモリ」見ながら設定するんだよ
タスクマネージャー→GPU→共有GPUメモリ
「共有GPUメモリ」はGPUとメインメモリを合わせた物
うちの環境だど生成中はVRAM漏れてなくても0.2〜0.3GBは常に消費されている
tile_sizeを上げて共有GPUメモリに変化が無ければまだ上げれる
変化が無いギリギリまで共有GPUメモリを上げればいい
これは環境によるけど実はVRAM少し漏れた程度が1番速いかな
VRAMが漏れないのならtile_sizeは多い方が高速
瞬間的に少し漏れる程度ならtile_size上げても構わない
まあ実際の生成速度見ながら調整してよ >>643
>変化が無いギリギリまで共有GPUメモリを上げればいい
↑間違い
正解
変化が無いギリギリまでtile_sizeを上げればいい けどrtx5000シリーズってまだa1111やforgeに対応してないんでしょ?
今年中には対策されるんやろか AMDグラボでForgeって動きますかね。
3080を使ってるのですが、生成時間に差が無いようであれば検討しています。 LinuxでやるならAMDでも大丈夫そうだけどね。
そこそこ技術力というかトラブルを突破する力が必要な気がする。 >>641,645
分かった試してみるわさんくす
>>647
よく言われることだけど、その質問をするくらいなら止めといた方がいいよ
トラブったときは自力で解決できる自信があるなら ちもろぐ見る限りだとforgeはラデでも動いてるよ
comfyは動くか分からんが
ちもろぐが大丈夫と言うなら大丈夫だろ >>642
その構図だと女は横向きに寝てるんだろうからon_side, うつ伏せならface_down
横向きかつあっち向きならface_away
こっち向きなら何かしら表情
裸で寝てるにしても薄い何か掛けた方が映えるからblanketとか? 面白いカスタムノードを見付けた
Comfy-WaveSpeedと言うらしい
キャッシュ機能を使ってKSamplerを高速化するのかな???
作者は打倒TensorRTを目指す頭のイカれた天才らしい
後で試してみよう >>619
やってみてるけど cmd見るとエラーがあって、ChatGPTに聞くと
改善できそうなポイントTriton が見つからない(xformersの最適化が一部無効)
WARNING:xformers:A matching Triton is not available, some optimizations will not be enabled
ModuleNotFoundError: No module named 'triton'
→ Triton がないと xformers の最適化の一部が無効になるので、インストールを推奨!
こういわれたのでChatGPTの指示通りにやると
現在表示されたエラーメッセージによると、torch と CUDA のバージョンが現在のデバイスでサポートされていないということです。これは、使用しているGPUやCUDAバージョンが、インストールされているPyTorchのバージョンと互換性がない場合に発生します。
解決方法
PyTorchとCUDAのバージョンを変更
あなたのGPUが現在のPyTorchとCUDAバージョンに対応していない場合、他のバージョンを使用する必要があります。
手順 1: PyTorchのバージョンをCUDAに合わせてインストール
PyTorch公式インストーラーで、対応するCUDAバージョンを選択します。
もう一生この無限ループに陥ってます。
(どれかをアップデートとかダウングレードすると、何かの互換性がない〜 んでもちろん指示通りにやると 次は別の奴の互換性がない〜)
これで3時間ぐらい止まってます(´;ω;`)
どうすればよいですか? Python 3.10.6 & CUDA 12.1に適合するバージョンのTritonってどれですかね? これだけわかれば解決しそうかも・・・ TritonってLinux向けのモジュール?じゃなかったっけ windowsに入れる方法あるってさ
なんかしらんけどID変わった なんかややこしい事してるんじゃないかなぁ
普通に別のフォルダにEasyReforgeインスコして
A1111からCheckpointなりLoraなり移行すれば良いだけでは? WARNINGは無視していい文章だった気がする
起動して生成はできるのかい? 苦しい5時間やってる・・・
20時までに銭湯入らないといけないので1時離脱
>>659>>660
ありがとうございます
ググって1番上に出てくる奴やったら起動はしてました
ただしその時のcmdの文章をChatGPTに打ち込むと
>>654
のエラーが出てて
この状態だとa1111版とあんまり速さとか変わらんよ?って言われて
(前までのa1111版<今の中途半端なForge版<<<<<<<<このtritonをちゃんとインストールできた場合)みたいな感じだったのでChatGPTに言われるままにやってたらずっと上手くいかず んで思ったのがcudaって単語が出てきてたので
とりあえずこれをインストールしてみたんですよね
んで最後、家出る前にpipってのもちゃんとインストールしたのに
「PyTorchがGPUを認識出来てないエラーが起こってる」みたいな文面が出てて・・・
そういやサブモニターにグラボからHDMIケーブルで繋いでるからそっちを1回外してみましょうかね・・・ WindowsのForgeユーザーの中で大多数がtriton入れてないと思うから一旦忘れる事をおすすめしたい
動画生成に手を出すと嫌でも通らなくてはならないけど 検索すれば出てくるじゃない
https://wikiwiki.jp/sd_toshiaki/No%20module%20named%20%27triton%27
WARNINGだからびっくりするけど「注釈」みたいな意味合いだよ
動くなら無視していいんだよ
むしろ余計なことをやったから逆にトラブルが発生する可能性がある
フォルダ全部消してまた1から入れてそのまま使った方がいいかもね そんなに高画質の作りまくって保存しまくって容量足りる? >>664
>>665
なるほど・・・そうでしたかありがとうございます
無視してもいいのは分かるんですが「全然性能上がってないよ?」
みたいに言われたのでやはり続行してみた感じなんですね
ちなみにフォルダごと1回消しましたが
最初はブラウザで起動してましたが2回目からは起動してないですね
>>663今はこのエラーで 生成物の99%がテスト生成なんで重要なテスト結果以外は全削除やで >>665
シッカリと見させてもらいました!本当に感謝m(_ _)m
とりあえず不要なもの消したら行けそうな気がします ramdiskに生成途中の物保存して満足したやつだけSSDに保存してるわ comfy覚えなきゃとは思うが一見さんお断り感半端なくていつも即閉じる >>671
わかる、一歩踏み出せればすぐなんやろうけど
あのスパゲッティ見たらファッ!?ウーン…(そっ閉じ)ってなる 始めは抵抗感は強いけど実際に触ると次第に画像生成より楽しくなるよ WebUIのメタデータ入った画像読み込めばhires.fix込みくらいまでのフローは作ってくれる
そこから少しづつ肉付けしていけばいい
そのうち画像生成するよりフロー組むのが楽しくなってくる ワイもいつかわ触りたいと思うが、今のが初心者向きで手軽過ぎて。。。
同じ人多いんだな このグループの位置を縦に合わせて…とかやってると数時間経ってしまうぞ だめですわ
OSError: [WinError 126] 指定されたモジュールが見つかりません。 Error loading "C:\stable-diffusion-forge\webui\venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
続行するには何かキーを押してください . . .
起動しようとしたらこれが出て起動できません・・・
初めてChatGPTを信頼できない一日になりましたわ
最初の段階で終わっておけば・・・ comfyuiは慣れると便利
いろんなフローを保存して使い分けが出来る blenderとかでノードシステム使ってたから全然違和感なかったわ KSamplerを高速化する「Comfy WaveSpeed」という頭のおかしいカスタムノードを試した感想
noobを高速化Loraを使用した状態だと1.7-1.8倍早くなった見た感じ画質の劣化は見られず
カスタムノードの簡単な説明
キャッシュを溜め込んで再利用する機能。一回目の動作だけは重い2回目から本気だす
対応モデル
SDXL、FLUX、SD3.5、HunyanVideo、LTXV、
FLUXは3倍位早くなるんだってさ。動画まで対応しているのは凄いけど
今流行りのwanだっけ?これ対応していないのは残念
将来的にマルチGPU対応するつもりらしい
TensorRTとは違ってLoRAとか解像度とかの制限はなしAMDでも動作したよ
高速(低ステップ)化Loraと併用できたのは凄いと関した 絶対に無理そうなので諦めてeasy reforgeとか言うのを明日やってみます
下調べしてからやりますわ イラストリアス派生でnsfw3次元出せるモデルってありますか >>684
何を持って3次元と言うかは人それぞれやけどまぁ出ると言えば出る >>678
その達成感で満足してしまって肝心の生成をしなくなるという罠
ノードいじってる間は基本的に同じプロンプトだし >>678
うちの会社(プラント)の配電盤とそっくりでビックリした、どこの会社も同じ感じなのかな。
それはそれとして、今まで容量の関係で外付けSSDにForge入れて生成してたんだけど内蔵のNvmeSSDに移bオたら生成時間bェ11秒→10秒にbネったわ。
生成ボタン押してから2秒ほどタイムラグがあったけど1秒くらいに短縮された。
今までどれだけ無駄にしたんだろ… Comfy WaveSpeedしばらく使ってみたけど早くなったり遅くなったり安定しないな
使えるキャッシュが無い場合は普通の速度って感じかな?
それとも単に動作不安定なのかよくわからん
Kohyaハイレゾとの相性を試したが特に問題なし
で、偶然気付いたけどKohyaハイレゾ使うとVRAM消費がめちゃくちゃ減るんだな
まだ低解像度設定の方がVRAM食ってて草
Kohyaハイレゾ使う時はTiled VAEのtile_size増やす余裕があるな tonge outであかんべーできるけど、
舌を前方に突き出して蛇のような感じにするにはどうしたらいいでしょうか。 すいません。stick tongue outで自己解決しました。 すいません。stick tongue outで自己解決しました。 >>689
そういや導入の際試験的に型落ちのSSDにインストールしたんだけど問題無く動いてたからそのまま使い続けてたわ
これ見て思い出して最新のSSDに移行したたが、一枚あたり数秒の高速化でも何万枚も出力するから恩恵デカいな >>694
大丈夫、登校時の小学生も歌ってるから
少年A「vaginal, anus, large breast!」
少年B「え?large breast?ママじゃん、flat chestが良いぞ」
少年「解せぬ」 表紙だけ気合入ってる作品とかLoraでオカズとしてどんどん立ち上がってくるのええわぁ wavespeedはtriton使うノードもあるけど
導入よくわからないから面倒やな Kohyaハイレゾ使うとVRAM使用量減るとか言っていたけどKohyaハイレゾのせいじゃないな
VRAM使用量多い時と少ない時があって何が原因でそういう動きしているのかわからん
VRAM解放と関係あるのかな?そういう設定とか拡張機能あると面白いから探してみようかな
VRAMに余裕があればあるほどTiled VAEのtile_size増やせるんだけどな 4070tisを1年前に購入。先日4090を借りられた。確かに生成速度アップしたが、3割程度だからそんなに感激しない。動画生成とかローカルLLMするならメリット大きいが、私の場合は興味ないので、むしろ排熱のデメリットしか感じなかった。今んとこは4070tis で必要十分かな。 VRAMの使用メモリについてわかった
やっぱりKohyaハイレゾが原因だった
ワイの環境 VRAM 8GB TIledVAE tile_size 608
通常生成(832x1248)VRAM使用量
開始前4.0GB KSampler処理中5.2GB VAE Decode処理中6.6GB 終了後4.0GB
Kohyaハイレゾ(1024x1536)VRAM使用量
開始前2.1GB KSampler処理中5.6GB VAE Decode処理中4.8GB 終了後2.1GB
KohyaハイレゾはVAE DecodeのVRAMが大幅に減る効果があるみたいだな
Kohyaハイレゾ使用時はTIledVAE tile_sizeをもっと増やせる余裕がある
ComfyUI使ったことない人に簡単に説明するとAIイラストの処理の重さはこんな感じ
最も時間がかかる処理 KSampler>VAE Decode>>>>その他 ※初回起動のモデルロードは無いものとする
最もVRAM食われる処理 VAE Decode>KSampler>>>>その他 ※初回起動のモデルロードは無いものとする Macで生成AI始めて3ヶ月、もう限界なのでPC組もうと思う
いまミドルレンジも高額だから30番台+8GBで様子見しようと思うけどコスパ悪いかなあ
もうリアス系1枚3分、SD1.5で30秒とか無理なんよ・・・
一応最新M4なのにつらい 今ちょっと面白い実験中
偶然にも色々見つけた
後で報告する 今から買うならVRAM16GBは欲しいよ
グラボも高くなってるから辛いところだけどね
俺は1年前くらいに3060の12GBを4万円で買ったけど今は5万5000円くらいでビビる そういやなんU民に教えて貰ったけどリアル版のダンボールみたいなサイトがあるみたいだな
idol.sankalucomplexってサイトね >>705
ありがとう
いまは安いので我慢して価格下がったら買い直せばいいかなと思ってね
やっぱり8GBでは厳しいかー ■ このスレッドは過去ログ倉庫に格納されています