【StableDiffusion】AIエロ画像情報交換21【NovelAI】
レス数が950を超えています。1000を超えると書き込みができなくなります。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換19【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679987880/
【StableDiffusion】AIエロ画像情報交換20【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1680682937/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ7【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1681091799/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured まず自分が何をやりたいのかから、しっかり把握した方がいいんじゃないか
学習とかやらずに画像生成するだけなら、1660でも快適にやれてるぞ >>881
無制限に?そんなんマイニングやり放題じゃん 今のグラボがRX6800だから個人的選択肢は4080以上だったんだよね
1枚生成するのに4~5分かかっておっそいw
供給のない特定キャラを学習させたりしたいなとは思ってる 4090使ってるけど、電力60%設定でも生成速度は10%も落ちないよ。
クロック他も落として200w前後で回している。
GPU温度は60~65℃ PLかけてもほとんど速度変わらないから4090単体の消費電力は250Wくらいまでなら余裕で落とせるよ >>888-889
思ったより消費少なくなるんだね、ふーむ、、 >>882
3060 12GBが定番だけどその2倍の速度で生成できる70tiを推したい
俺は6800XTで初めて乗り換えて70tiにしたよ
先の目的地に向かって徒歩と車で向かう位の時間差もあるし
今までできなかったことができるしで別世界w
CPUも同じ5600XT使ってるし環境も似てるね
ゲームもボチボチするから6800XTから性能落としたくないから6800XT売却して70ti選んだ 4080買うなら4090やろ
ここに来て数万ケチるとただただ損するだけや >>878
4080から4090に買い替えました
8Gもメモリが違うので4080の限界を楽に越えられるのを実感できる
3060の12Gから16Gの4080に変えるより
4080の16Gから24Gの4090の方がメモリ的インパクトが凄い
体感で速度も変わって来てるので4090一択だと思う >>891
似たような構成だったんだねw
70tiも評判いいよね、価格も手ごろだし
>>894
ほほう、結構違うんだ?
解像度あげた生成とかで変わるんだろうか 同じだけ電気を使う場合 4090は4080より1.2倍多く仕事ができる
同じだけ時間を使う場合 4090は4080より1.6倍多く仕事ができる
(スペック表のTDPとFP32性能からざっくり計算)
趣味でサクっと4090買えるくらいの予算があるなら迷わず4090でいいと思うよ
コスパもワッパも計算能力も大分違う 速度は1.5倍以上違うからな。
高解像度などでVRAMを多めに使う場合だけでなく速度でも4090と4080の性能差は明白よ。 4080載せられるんなら
金もケースサイズも4090行けるだろうし4090一択でしょ >>888だけど、メモリが多いとバッチで回すときに同時生成枚数を増やせるのが大きい。
1枚ずつ生成するよりn枚同時の方が格段に速い。
昨夜寝るときに同時8枚×20バッチを回したんだが、タイムスタンプを見ると、512*768、hires.fix *2、LORAなしで、約30分で160枚を作ってる。
1枚入魂系ではなく、ガチャ系ならメモリが多いことのメリットは大きいと思うよ。 最近始めてみたけどとても楽しいな、自分の想像するものを絵にできるってこんなに楽しいなんて
自分で出力したもん自分じゃ抜けないけども…
取り敢えずメスガキ作って楽しんでる
至高の画像目指して試行錯誤してるだけで、いつの間にか数時間経っててビビる ぼくはお金もケースサイズも余裕なかったので4070Tiにしました
3060の乗り換えだと体感でも相当変わったので満足してる すげえ・・・作りすぎてM.2うまりそうw
ありがとうみんな!4090にしちゃおうかな、もしくは4070tiも考慮するか
ケースはdefine7だから多分大丈夫だろうけど電源850Wなのがちょっと不安かな 触り始めの時点だと小さいサイズでガチャガチャやってる程度だったけど、
使い込んで来ると2kサイズくらいを大量に出すようになるので強いグラボ欲しくなってくるね。 >>905
futanariとかfutaだと
なんかヘドロみたいなのが股間からでるだけなんだがそうじゃない感じ? AIは女にはついてない認識しているので難しいですね
単発貧乳女も存在しないので男にされてしまうのと同じです >>906
LoRa使おう
よくある性癖系はLoRaがすぐ作られる
Civitai辺りでfutanariとかで検索しよ 生成速度は4090は4080の約2倍早い
VRAMの関係で高解像度高バッチの追加学習もできる
4090を低電圧化して4080と同じ電力にしても1.6倍くらい速いよ
なので自作板だと4090一択と言われてる >>907
>>909
ありがとう!試してみます! なんか最近調子悪いなと思ったら、
venvがactivateされてなかった
webui-user.bat に
call .\venv\Scripts\activate.bat
を追記したらいい感じになった venv利かずに動いてたってことはシステム側のpythonディレクトリにごちゃっと色々ライブラリ突っ込まれちゃった状態だから
今後webUI入れなおそうとした時に依存関係で色々躓くかもしらんよ 入れ直したあとちゃんとvenv下で動くようになってりゃ大丈夫でしょ多分 もしかしたらLoRa学習用のKohyaのやつ入れたときに、
そっちでvenvをactivateにしたから、
ずっとそっちのvenvに依存してたかもしれない
これ毎回activateやんなきゃいけないのね RTX3070ってもうここでは格下扱いなんですか? >>904
女の子生成してから股間だけinpaintで後付けするのが楽やで >>917
RTX3070自体のVRAMが低いから結構AI絵作るのにテクニックいる感じ >>416
(1060 6Gで細々遊んどるワイみたいのもおるんやで) >>917
そもそもAIイラストにおいて格上だった事は無いぞ Hires.fixのチェックボックス自体が無いんだけど、グラボしょぼいと自動で出ないとか無いよねぇ
サイコロのした、何もない >>917
その疑問から何を解決したいのか質問した方がいいんじゃないw
自分の機材を更新すべきかどうかとかって話? >>923
サイコロの下にあったのはだいぶ前の話では?
今は解像度入力の辺りじゃないの >>920
ナカーマ
Hires.fixちゃんとあるから探してみてくれ >>919
なんとか2048x2048のイラスト作ってるけど
途中で何度もout of memory出て試行錯誤した😭
最後は手書きでクオリティーアップ😭 省スペースPC民の救世主だったRTX 4000、Ada世代になったら値段が倍になってワロス そういやAda対応版の1111ってどれぐらい速いの? 昔の写真で生首Lora作ってるんだけどもウェイトを20とかにしないとなかなか元画像の特徴が表れて来ない
学習の繰り返し回数を増やさないとダメなのかな >>931
torch2+cu118にしただけのものを紛らわしい名前つけて配ってるだけだから
1111自体の速度は何も変わらんよ おまえら凄い金持ちっぽいけどクラウドでちまちまやってる奴いないの?
ColabだとGoogle八分食らったときに死ぬからpaperspaceを考えてるが全く話題に出ない ここはエロ主体のスレなんで殆どローカル民しかいないと思うよ >>934
そういうことだったのか
道理で話題にならないわけだ ようやく3060使った専用マシンが組み上げられるんだけど
Anacondaで環境作ってる人っているのかな?
今まで見かけたことが無いので Colabは規約変更で無料枠webui禁止になるとかどうとか colab用にアカウント分けて使うか
まさか名前やメールで紐ついてる他のアカウントも消さないよな‥ まあ、別にAnacondaでも特に同じように動くよ 無料でクソ負荷かけられたらたまらんやろ
広まりすぎたんや そもそもあそこはWebUIホスティングサービスじゃなくてバッチ処理で計算するサービスだから仕方ない インガーにエロ投稿できなくなったらここどころか日本のネット自体がやばいやんどうすんだよ
他使えばいいっていうけどあそこほど使いやすいとこはないぞ condaって聞いてウッてなる人はcondaでも大丈夫だけどなんとなくcondaにしようかなくらいなら大人しくvenv kohya_ssだったかな? 何かの際にminicondaての入れられた >>931
adaというかまぁRTX4070以上は2倍くらい速くなるという話だな
逆にRTX30x0までは若干遅くなるので、torch2+cu118環境にしないほうがいいという話 basil mixって日本人が作ったモデルなんだ知らなかった 今からグラボ買う予定で10万以上出せるなら4070tiって言われる所以がそこだよね
高速化の恩恵を得られるのは4000シリーズ
そういう意味では3060買うならもうちょい頑張って4070買いたいかな t2iガチャじゃなくてi2iでシコシコ作ってる勢いる?
4090検討してるけどぶん回さないならオーバースペックなんかね 3070だけど、
2048x2048の画像作るのに1時間くらいかかるから、
(512x512を作るのは一瞬だけど、2048x2048まで引き伸ばすのに時間かかる)
4090がそこどれくらい早いかにもよるかもね 比べものにならんぞ
4090が最強化け物言われるのは伊達じゃない >>954
4090だとそのサイズなら1分半くらいで出来るよ たぶん、3070だとVRAM足りないからエラー出るせいで、
他の拡張機能に頼らないといけないからそれくらいかかるんだろうなとは思ってる 素直にTiledVAEを使えばいいのに
そうでなくても2048x2048程度に1時間もかからんわな >>959
TiledVAEで1時間かかってます・・・。 4090検討できるくらい予算に余裕あるなら迷わず買っていい
コスパ・ワッパ・VRAM・速度等あらゆる面で優秀(というか他がかなり見劣りする)
1枚の絵生成するのに一番速くて一番電気代かからないのが4090だよ じゃあ4090を2枚差し3枚差ししたらもうウハウハ? TiledVAEは諦めてExtrasで4096x4096にアプコンしてから縮小で Pytorch2.0に上げた後も普通にkohya_ss使えてたけど、今PC起動してLoRa作ろうとしたら、
cuda絡みのエラーが延々出た後にモデルデータとかのDL始まってそのまま学習始まった
異常終了せずにGPUも使ってる様ではいるんだけど、大丈夫なんだろうか >>954
> 3070だけど、
> 2048x2048の画像作るのに1時間くらいかかるから、
> (512x512を作るのは一瞬だけど、2048x2048まで引き伸ばすのに時間かかる)
3060でTiledなら5m9.57sだよ >>960
3060より遅いからなんかおかしいぞアンタ >>962
1111も4090もマルチGPU的な機能対応してないんで現状ダメですね 3070とはいえそんなに遅いもんかな?
手元にあるけどわざわざ刺して確認する元気は無いな さっきのcontrolNet有効で時間ロスしてたので計測し直し
Denoising strengthで時間変わるんだね、知らなかった
高いとグチャるからやらないだろうけど
3060 i2i 2048x2048 Tiled Diffusion DPM++ 2M Karras STEP28
0.35 1m51s
0.45 2m21s
0.75 3m40s
1.00 4m33s CNを使ったt2iでいきなり2k出力するとか、i2iで元画像にでかい画像を使ったりすると、メモリを馬鹿食いしてかなり遅くなりますね。
ハードウェアの事情に合わせて、アプスケまでの手順も見直した方が良さそう。
部分的にi2iでブラッシュアップして合成するとか、Extrasを活用するとか。 10万以上出せるならRTX6000ada(120まんえん)を買えば幸せになれる >>963
Extrasの拡大は書き込み量とか変わらず純粋に引き延ばすだけだから、それ完全に無意味やぞ >>965
以前何処かで1500/枚数てのを見かけて、150_のエポックは多分8 16かも知れん >>976
waifu2xみたいな超解像アルゴだから、絵柄を変えずに解像感を上げたい場合は効果ありますよ。
Extrasで4倍にスケールしてから、フォトショなどで1/2にする(最終2倍)と綺麗になる。 商用利用可能のリアル系モデル chilled_remix 使ってみたけど、
貧乳出ない… 仕方ないから近しいモデルのOrangeChillMixで乳だけ貧乳にした レス数が950を超えています。1000を超えると書き込みができなくなります。