【StableDiffusion】AIエロ画像情報交換21【NovelAI】
レス数が950を超えています。1000を超えると書き込みができなくなります。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換19【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679987880/
【StableDiffusion】AIエロ画像情報交換20【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1680682937/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ7【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1681091799/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured グラボスレでSDがRTX40XXに最適化出来たって見たんだけどそうなん?
生成速度が今までの倍とかなんとか
もしかしてSDXLのこと? >>851
Pytorch2.0のことじゃ無いかな 実際文字がないエロイラストだけじゃ抜けないことが分かった
認めたくないけど俺エロ漫画の文字見て抜いてるんだわ 高速化はtorch2.0+cu118の話じゃない?しらんけど リアル顔loraしてみたけど最高に好みの顔が作れるのヤバいな
白人の血を混ぜたり奥二重にしたりいじれるの凄いわ >>856
いや自分でlora作って、プロンプトで調整する、の意味
日本人の顔loraにcaucasianと黒髪入れると俺好みの可愛い美人になる
特に奥二重の白人という現実では不可能なミックスが気に入ってる 最適化うんぬん見てきたけど単にpytorch2にした環境固めたやつ配布してるだけだったよ >>853
そういう部分あるよね
かわいいだけのマグロAVよりも、ワンパでもストーリーあるGigaやながえStyleをたまに見たくなるような… 学習のbatch sizeとgradient checkpointの最適設定とかどっかまとまってたりするかな
とりあえず手元の4070Tiでgradientなし(batch size6)で60分かかる内容が
gradientありでbatch size12〜18だと45分くらいに短縮できたけど24まで増やすと逆に67分と遅くなった
1epochあたりのステップ数がbatch sizeでキリのいい感じになるかどうかとかも関係するんかな モデルマージでどうしてもチルは外せない……
みんなは3つも4つも混ぜてるもんなの? 年末年始から二ヶ月くらいかけて試行錯誤した結果、
10個くらい階層マージして出来たもの使い続けてる >>862
さすがにSD1.5には戻れんし、768学習したモデルは偏りが多いので多少マージはしてる
季節ごとにイラストの彩度やコントラストや絵面調整でVAEが上手く効かないときに薄めたりとかもあるしね
階層マージをさらに混ぜると大抵奇形が生まれやすい酷いモデルが生まれるので、中間では使わず最終のalpha調整くらいだな
hires無くても768〜1024あたり扱えるモデルが増えてて、大量学習モデルの公開は感謝に堪えないわ
ちびたいに上がってるモデルもほとんどマージされてるから、3つ4つとは言わず結構混じってると思うよ
hassanとかもともとマージモデルだしね、いっそ3桁以上のメガとかのマージモデル使ってみるとか(笑) 妄想は大事だからな
chatGPTで簡単な物語を書いてもらえば解決 >>862
自分でマージしたものだけで4つくらいはある
そのベースになったモデルがマージなら20個くらいかも モデルマージする時にVAEだけじゃなくLoRAも焼き込み出来たら便利なんやえどな
毎回花札押すのめんどい 日常からベッドインまでなるべくキャラクターをブレさせずに画像を複数作って行きたいんだけど
この辺のプロンプトは入れとけ、みたいのある?
取りあえず着る服と年齢を指定してみてるけど、急に丸顔のロリっぽくなったりとかで安定しない、髪の色も微妙に変化するし
ローラでなんとかするしかないかな Fucking the beautiful pussy in attacks by my Invincible dick なかなか朝に相応しくない画像が生成されで保存したわw medium breastでも現実世界基準なら巨乳 お目当てのLycoris配布されていたから拡張入れようと思ったら、
迫真の「THIS EXTENSION IS NOT FOR ADDITIONAL NETWORK」で笑ってしまった >>870
それはLoRAしかなさそう。あるいは特徴的なキャラデザにして同一キャラだと信じこむ
実写系なら茨の道か AI的に4080と4090って大差あるかな?
少しの時間差だけなら4080でもいいかなと思ってるんだが ハイエンドはまず電気代がヤバいからそこらへんも加味して考えた方が良いんじゃないかなあ
夏になったらクーラーガンガンかけてハイエンドのグラボ回してなんてやってたら電気代見て気絶するぞ ハイエンドこそ電気消費量半分とかじゃないの?同じ仕事量なら 今住んでるところが電気代込みだから
なるべく電気使った方が得なんで
エアコンもPCもフル回転 そうだね、電気代も差もあるか・・・
グラボスレだと4090じゃないとみたいな空気だけどうちのCPU5600Xだから絶対フル性能発揮することないだろうしと思って・・・
4090じゃないとAI画像で出来ないことがあって不利ということがないなら下のやつ選ぼうかな まず自分が何をやりたいのかから、しっかり把握した方がいいんじゃないか
学習とかやらずに画像生成するだけなら、1660でも快適にやれてるぞ >>881
無制限に?そんなんマイニングやり放題じゃん 今のグラボがRX6800だから個人的選択肢は4080以上だったんだよね
1枚生成するのに4〜5分かかっておっそいw
供給のない特定キャラを学習させたりしたいなとは思ってる 4090使ってるけど、電力60%設定でも生成速度は10%も落ちないよ。
クロック他も落として200w前後で回している。
GPU温度は60〜65℃ PLかけてもほとんど速度変わらないから4090単体の消費電力は250Wくらいまでなら余裕で落とせるよ >>888-889
思ったより消費少なくなるんだね、ふーむ、、 >>882
3060 12GBが定番だけどその2倍の速度で生成できる70tiを推したい
俺は6800XTで初めて乗り換えて70tiにしたよ
先の目的地に向かって徒歩と車で向かう位の時間差もあるし
今までできなかったことができるしで別世界w
CPUも同じ5600XT使ってるし環境も似てるね
ゲームもボチボチするから6800XTから性能落としたくないから6800XT売却して70ti選んだ 4080買うなら4090やろ
ここに来て数万ケチるとただただ損するだけや >>878
4080から4090に買い替えました
8Gもメモリが違うので4080の限界を楽に越えられるのを実感できる
3060の12Gから16Gの4080に変えるより
4080の16Gから24Gの4090の方がメモリ的インパクトが凄い
体感で速度も変わって来てるので4090一択だと思う >>891
似たような構成だったんだねw
70tiも評判いいよね、価格も手ごろだし
>>894
ほほう、結構違うんだ?
解像度あげた生成とかで変わるんだろうか 同じだけ電気を使う場合 4090は4080より1.2倍多く仕事ができる
同じだけ時間を使う場合 4090は4080より1.6倍多く仕事ができる
(スペック表のTDPとFP32性能からざっくり計算)
趣味でサクっと4090買えるくらいの予算があるなら迷わず4090でいいと思うよ
コスパもワッパも計算能力も大分違う 速度は1.5倍以上違うからな。
高解像度などでVRAMを多めに使う場合だけでなく速度でも4090と4080の性能差は明白よ。 4080載せられるんなら
金もケースサイズも4090行けるだろうし4090一択でしょ >>888だけど、メモリが多いとバッチで回すときに同時生成枚数を増やせるのが大きい。
1枚ずつ生成するよりn枚同時の方が格段に速い。
昨夜寝るときに同時8枚×20バッチを回したんだが、タイムスタンプを見ると、512*768、hires.fix *2、LORAなしで、約30分で160枚を作ってる。
1枚入魂系ではなく、ガチャ系ならメモリが多いことのメリットは大きいと思うよ。 最近始めてみたけどとても楽しいな、自分の想像するものを絵にできるってこんなに楽しいなんて
自分で出力したもん自分じゃ抜けないけども…
取り敢えずメスガキ作って楽しんでる
至高の画像目指して試行錯誤してるだけで、いつの間にか数時間経っててビビる ぼくはお金もケースサイズも余裕なかったので4070Tiにしました
3060の乗り換えだと体感でも相当変わったので満足してる すげえ・・・作りすぎてM.2うまりそうw
ありがとうみんな!4090にしちゃおうかな、もしくは4070tiも考慮するか
ケースはdefine7だから多分大丈夫だろうけど電源850Wなのがちょっと不安かな 触り始めの時点だと小さいサイズでガチャガチャやってる程度だったけど、
使い込んで来ると2kサイズくらいを大量に出すようになるので強いグラボ欲しくなってくるね。 >>905
futanariとかfutaだと
なんかヘドロみたいなのが股間からでるだけなんだがそうじゃない感じ? AIは女にはついてない認識しているので難しいですね
単発貧乳女も存在しないので男にされてしまうのと同じです >>906
LoRa使おう
よくある性癖系はLoRaがすぐ作られる
Civitai辺りでfutanariとかで検索しよ 生成速度は4090は4080の約2倍早い
VRAMの関係で高解像度高バッチの追加学習もできる
4090を低電圧化して4080と同じ電力にしても1.6倍くらい速いよ
なので自作板だと4090一択と言われてる >>907
>>909
ありがとう!試してみます! なんか最近調子悪いなと思ったら、
venvがactivateされてなかった
webui-user.bat に
call .\venv\Scripts\activate.bat
を追記したらいい感じになった venv利かずに動いてたってことはシステム側のpythonディレクトリにごちゃっと色々ライブラリ突っ込まれちゃった状態だから
今後webUI入れなおそうとした時に依存関係で色々躓くかもしらんよ 入れ直したあとちゃんとvenv下で動くようになってりゃ大丈夫でしょ多分 もしかしたらLoRa学習用のKohyaのやつ入れたときに、
そっちでvenvをactivateにしたから、
ずっとそっちのvenvに依存してたかもしれない
これ毎回activateやんなきゃいけないのね RTX3070ってもうここでは格下扱いなんですか? >>904
女の子生成してから股間だけinpaintで後付けするのが楽やで >>917
RTX3070自体のVRAMが低いから結構AI絵作るのにテクニックいる感じ >>416
(1060 6Gで細々遊んどるワイみたいのもおるんやで) >>917
そもそもAIイラストにおいて格上だった事は無いぞ Hires.fixのチェックボックス自体が無いんだけど、グラボしょぼいと自動で出ないとか無いよねぇ
サイコロのした、何もない >>917
その疑問から何を解決したいのか質問した方がいいんじゃないw
自分の機材を更新すべきかどうかとかって話? >>923
サイコロの下にあったのはだいぶ前の話では?
今は解像度入力の辺りじゃないの >>920
ナカーマ
Hires.fixちゃんとあるから探してみてくれ >>919
なんとか2048x2048のイラスト作ってるけど
途中で何度もout of memory出て試行錯誤した😭
最後は手書きでクオリティーアップ😭 省スペースPC民の救世主だったRTX 4000、Ada世代になったら値段が倍になってワロス そういやAda対応版の1111ってどれぐらい速いの? 昔の写真で生首Lora作ってるんだけどもウェイトを20とかにしないとなかなか元画像の特徴が表れて来ない
学習の繰り返し回数を増やさないとダメなのかな >>931
torch2+cu118にしただけのものを紛らわしい名前つけて配ってるだけだから
1111自体の速度は何も変わらんよ おまえら凄い金持ちっぽいけどクラウドでちまちまやってる奴いないの?
ColabだとGoogle八分食らったときに死ぬからpaperspaceを考えてるが全く話題に出ない ここはエロ主体のスレなんで殆どローカル民しかいないと思うよ >>934
そういうことだったのか
道理で話題にならないわけだ ようやく3060使った専用マシンが組み上げられるんだけど
Anacondaで環境作ってる人っているのかな?
今まで見かけたことが無いので Colabは規約変更で無料枠webui禁止になるとかどうとか colab用にアカウント分けて使うか
まさか名前やメールで紐ついてる他のアカウントも消さないよな‥ まあ、別にAnacondaでも特に同じように動くよ 無料でクソ負荷かけられたらたまらんやろ
広まりすぎたんや そもそもあそこはWebUIホスティングサービスじゃなくてバッチ処理で計算するサービスだから仕方ない インガーにエロ投稿できなくなったらここどころか日本のネット自体がやばいやんどうすんだよ
他使えばいいっていうけどあそこほど使いやすいとこはないぞ condaって聞いてウッてなる人はcondaでも大丈夫だけどなんとなくcondaにしようかなくらいなら大人しくvenv kohya_ssだったかな? 何かの際にminicondaての入れられた >>931
adaというかまぁRTX4070以上は2倍くらい速くなるという話だな
逆にRTX30x0までは若干遅くなるので、torch2+cu118環境にしないほうがいいという話 basil mixって日本人が作ったモデルなんだ知らなかった レス数が950を超えています。1000を超えると書き込みができなくなります。