【StableDiffusion】AIエロ画像情報交換14【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換13【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1675638288/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術14【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1676588159/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください このスレで何度も言ってるけど3060より2060の12GB
中古なら3060より1万ぐらい安い
時々安売りしてるんでそれを狙ってもいい
(今なら39800ぐらい)
性能的には3060の1割減ぐらい VRAM6Gだとlora使えないみたいな感じ?
使い方わからんけどw >>204
2000番台はLoRAの学習で高速学習の恩恵が受けらんねーんだよ
それに1割減はさすがに嘘
1万円という価格差以上に性能に開きがあるし、相当金がない限りは3060を買うことをすすめるわ
お前だけだよ2060推してんの >>205
SDのベンチは知らんがCUDAコア数近く違うんだけど
あとTensorRT使えないし
一万しか違わないならどう考えても3060選ぶべきだよ
2060が1万で売ってるなら訓練中の推論用にサブで買ってもいいけど 倍はいいすぎた1.5倍ぐらいか
なんにしても1万の差ごときで2060選ぶのは本当に金に困ってるやつ以外ありえない 普通は現行品の新品が対象だわな
さすがにCN出てからは8GBで何とかなるというには、「かなりいろいろな制限我慢すれば」ってなるし
10月に3070持っててDBやりたくて3060の新品買って遅くて我慢できずに3090買った俺からすると
2060なんて時間の無駄とは言わんけどあえて買う必要もないと思う
2060OC(6GB)も3070もあるけど、本気でパクリ学習しないなら8GB以上あればLoRAも使えるしちょいと学習にも使えるし何でもいいと思うわ 何でみんな喧嘩腰なんだかよく分からんけど
5chWikiのアスカベンチで備考欄が少ないもの同士で比べて
だいたい1割減ぐらいだと思う
LoRAについてはよく知らんのでどういう理由だか分からないけど
高速学習には向かないのかも
自分の2060環境だと5000ステップ学習するのに138分かかってる >>207
専用機買った方がいいみたいね
普段使いPCに色々ぶち込むのは抵抗があるわ
AIもどんどん進化してるし急がなくてもいいかな
ありがと 初LoRAに手を出して威力を実感したんだけど、もちろん似た服、似た構図になるのね
これって例えばキャラの顔だけトリミングした素材で学習させればその顔で色んな構図や服装の画像を出力できるってわけ? https://majinai.art/i/xJqiEr_.png
某ED風lora使ってみた
特に指定してないのにちゃんと中指立ってて面白い 1万しか、って3090買える金額での1万ならまだしも
中古で3万と4万の差だから大きい
要するに俺が貧乏で中古の最安しか買えないだけなんで誰か4090恵んで下さい だからその一万の差で得られる物を考えたら一択って話をされてるんだろ >>212
まあそうだけど顔画像の画風で首から下をそう簡単に描いて貰えるとは期待するなよ
経験上全身画像で学習させても、学習抑え気味にすると体より先に顔覚えるから、ましてや顔だけだときついだろうな
画風気にしないならいくらでも
あと似た構図、似た服になるのは過学習気味だから
ランクを下げたりステップ数減らしたりして本質を抽出するようにすれば改善する
あとは学習時のキャプション、タグも関係あるかも
>>211
すまんなんかよくわからんが安価間違えた
>>210
へえ
まあじゃあベンチの対象範囲内ではベンチが正しいな
CUDAコア数以外の何か(メモリ帯域とか?)がネックになってんのかな >>205
6GでもLoRAできるよ
ただし本当にVRAMぎりぎりだけど chillout顔は良いけど服装の自由度低い&胸大きすぎるからhassanblend混ぜてみたら程よくプロンプトに従ってくれるし爆乳じゃなくなった
デメリットは手のクオリティが下がることだな
手指のloraが来たら少し前のモデルもまた注目浴びそう >>216
結構抑えめにしたけどこれでががくしゅうなのか…難しいもんだね >>217
ほんとですか
やり方知りたいんで
どっか参考になるサイト
ないでしょうか?
英語は無理ですw うちの子が強く指定しないと服を着なくなったんだけど。
これまでの学習結果をリセットするなら
stable-diffusion-webuiローカルのどこを消せばいい? ピストンマシーンを突っ込めって書いても
オマンコゥを透明な何かで拡げる絵しか出力してくれない
違うんだそうじゃないんだ モデルに関しては新しいから良いってことは全然ないからchilloutに拘らず他の使えば良い 実写系モデルでで目にハイライトを入れるpromptあります?
それっぽい構文試しまくったけど打率低い… AOM3で絶頂表現のビクビクン!っていう漫符を消したいんだけど何かいい方法はあるだろうか
motion linesをネガに入れても効果がない ちょくちょくmodules.devices.nansexception: a tensor with all nans was produced in vae.って出て生成止まるのはどうしたらいいですか? >>76
ローカルでも一応は中括弧も使えるんですね
ありがとうございます >>219
再学習が面倒なら、適用時に特にテキストエンコーダ部分弱めたらプロンプトで言うこときいてくれるようになるかもね
経験上、過学習してるときとしてないときとで驚くほど元絵にない構図させやすさ、させたときの絵柄の再現度が変わる
そして結構シビア 正面からの絵は良いけどバックとか描いたら急に画像荒くならない?
モデルの問題なんか? エロを優先したようなモデルじゃないとバックは崩れるね >>200
slight smileでときどきほほえみになるよ アナルに物を突っ込むと別のアナルが出現するのを止めたい 初心者丸出しの質問申し訳ないんだけど おっぱいの大きさを調整するのは出来たんだけど乳首の大きさ変える呪文てある? >>201
>>232
ありがとう!ためしてみる
しかしエロって凄いな
これ仕事や勉強だったら絶対に面倒で嫌になって投げてるわ huge nipplesで大きくしたりネガに入れて防止したりでいいんじゃないか 俺は、slight smileよりもgigglingのほうが好きだな。
日本人女性らしいハニカム笑顔が出せる。
試してみな飛ぶぞ >>226
それvae指定してないとあかんやつじゃないか?
モデル配布元のdescription読みなさい >>237
それも試してみるわありがとう!
こんなことならちゃんと英語勉強しとけばよかったぜ >>231
だから2060にすれば4万
一万の差で得られる物よりその一万が出せるかどうかの方が
貧乏人にとっては重要 3060 12GBはメルカリで買えば4万円切るよ
取引完了させると返品交渉できないから1日くらい動作確認すること
余ってるグラボ売ればなおよし RTX4090 24 GB
RTX4080 16 GB
RTX3090 24 GB
この三つだね 酸っぱい葡萄の2060君は仲間を増やそうとするのやめてくれる? みんな、初心者には最良の選択をしてほしいだけ
1万円ケチって2060買うくらいなら、暫く考えてお金貯めるなりして3060vram12をすすめたい
2060が悪いグラボというわけではないけど、あくまでもイレギュラーな選択であるということはちゃんと伝えないと
それに情報が雑過ぎる 3060が手に入る以上、2060はマジでない
ゲーム用途ならまあアリとしてもこのスレで検討することじゃない なんかゲフォ論争起きてんね
脳死で4090買えばいいんちゃう
俺は、元々ゲーマーだから3080の12vramつこうてますけど グラボはそもそも消耗品なので中古で買うこと自体おすすめしない
ましてや古い2060なんて買ってすぐ壊れても文句言えんぞ
金があるなら4090、そうじゃないなら3060でいい
3060買う金もないなら諦めるのが一番
きっとすぐ技術進歩してもっと簡単に出来るようになるだろうしね PC新しく構成するならweb1111 ram結構持ってかれるから16gbでもキツイ時あるね。
sd動かしながらblenderとphotoshopしてると何回か落ちたよ。AIDrawingするようになって初めて32gbまで上げたよ 今はまだグラボ買う時じゃない
3年後はもっと手を出しやすくなってるはず
ただの勘だけど >>250
米国のインフレが加速する中、その予測は危険かと
日本も実質賃金が上昇すればいいね(TдT) 電源600Wで3060動かした場合って、負担がかかっちゃうのはグラボじゃなくて電源? >>249
16GBはフォトショ単体でも最低ラインじゃないのか VRAMがどうとか考えずにAIのために3060Ti買った俺の前にひれ伏せ雑魚ども >>252
グラボに負荷かけたら電源の容量足りなくなってPCがプチッと落ちて再起動する未来が見える AIのために3060TIはマジで意味不
ためにと言うなら3060を買え 4070が16GB版を出す噂があるから待てるなら待ってもいいかもね 4070tiを買ったので今から始めたいんですが、環境作るのに一番簡単な方法は現状はどれになりますか? 金があるなら3060とか言わずに4090買えばいい
金が出せない奴に2060勧めてるだけ
>>248
一応2060の12GBは3060より後に出てる 俺のグラボ9600GTって書いてて数字もおっきいしお前らより上だよな 金無いって言っても一万程度なら普通の社会人なら来月の給料でどうにでもなるし最悪分割払いすりゃいいだけだからな
学生バイトならわからんでも無いけど 最近ゲーム飽きてきたところにAIイラストはちょうどいいおもちゃだわ
朝晩仕込んだ呪文の成果を見るのが楽しくて活き活きとした生活してるんだが
所詮エロ目的であって誰にも話せないの悲しいわ FlexGenで大規模言語モデルがVRAM24GBもあれば実行できるから先のことを考えると3090か4090が最善
Stable Diffusion開発した会社が日本語特化言語モデル学習してるらしいし 金がないなら別に1060.1050でも動くよ。
10241024だすのに5分とか余裕でまつことができるような、メインでパソコンを使わずに時間潰せる人向けだけど。
けど、レスポンスの時間はやる気にも直結するから背伸びしてでもいいもの買うのはおすすめ。 値段別AIお絵描き用グラボ
ロー
3060 12GB
ミドル
4070ti
ハイエンド
3090
エンスージアスト
4090 中古3090がコスパいい
12GBで厳しくなったら逝く 4090搭載PCは50〜60万か
ローンかなんかで買えばいいんじゃね そもそも4万だか5万だかのうちの1万にも困る状況ならわざわざ12GBにこだわらないでもっと安いの買えって言いたくなるけど
上でも言ったけどVRAM 6GでもLoRAはできるんだから
(SD1で8bit AdamWとか節約色々やればだけど)
12GBに拘る時点でフルDBだの訓練時のバッチ増加とか色々見越して贅沢しようとしてんだから一万ごとき節約するのが合理的なシチュエーションは極めて限られてる
別に自分で買うのは勝手だけど他人に無責任に積極的に勧めるものじゃないだろ、ってのは大方の見方だろ
俺なんかおかしいこと言ってるか? ローエンド RTX4090 24GB
ミドルレンジ GV100 32GB
ハイエンドRTX A6000 48GB >>260
金がない人には3060 vram12GBがコスパ最強でベターな選択
それは多くの人が色んなグラボを使用したり交換して比べたりしてきた結果出た結論
お前さん、2060しか手元にないのにどうやって比べたりできるんだい
確かに2060vram12でも普通に使えるし一通りお絵描きAIは楽しめてるとは思う
>>274
完全同意 いやメモリ量は正義だよ
6GBでできること、8GBでできること、12GBでできることは違う
しかし2060の12GBでできることと3060の12GBで
SDでできることは同じで時間がかかるだけ
あと自分で2060使ってるから勧めてるわけで
何をもって無責任と決め付けているのか
もっとも5chの便所の落書き自体が無責任ではあるけども NVIDIA H100 Tensor コア GPU「80GBです」
4090「え?」
NVIDIA H100 Tensor コア GPU「1枚475万円です」
4090「・・・う、うわあ・・・ああ・・・ああああああああああ(イスから転げ落ちる)」 自分の財布と資金力の現実が見えてないんだろうな…生きるの大変そうなのがいるな
1万で困ってるのに40万のローン組めとかいうのもかわいそすぎるだろ
カード組めるかわからんけどニートでんなもん組んだらピンク頭のアレみたいに周りにそういう人ばかりでした
妹の学費の為にルフィ犯罪グループに入りました的な、ようつべで謝って炎上金に換えて謝罪にもいかず返金もしないような人間になるだけだ
こんな金のかかる趣味に手を出すにはそれなりの努力しないといかんとは思うけど
スペック低い分生成に時間かかればそれだけ電気代かかるんだぜ、GPUの電気代だけじゃなくPC全体はもちろん部屋の明かりはもちろん
寝る時間も削られるわけでな 真顔でエッチな格好をさせたいんだけど勝手に恥ずかしがったり頬を赤らめたりしやがる!
serious lookって入れたらリアル系洋ゲーみたいな絵柄になるし
一体どうしたら真顔スケベ衣装になるんです? 2080SでせっせとLoRAってる私みたいな人もいるんですよ 2060と3060の生成速度差が大したこと無いなら2060でも良さそうな気はするな
20xxと30xx以降は生成される絵に違いが出るって情報があったと思うけど
自分が確認した限りでは2070と4090で生成される絵は同じだった LoRAでテキストエンコーダとUNet同時に動かす前にTextural Inversionかけてる人おらんか? >>250
3年経ったらAI画像作成の世界ってどうなってるんだろ?
この半年くらいの流れからすると想像もつかないな。
ある程度のところに達したら進歩速度鈍るのかもしれないけれども。 生成速度
https://ul.h3z.jp/fzhoYBHJ.png
の2060 12GBと3060 12GBで比較
なおアスカベンチだと2060が1割ぐらい遅い >>282
回答じゃないけど、それは根本的な解決法はないから何かの対処療法でなんとかするしかない
元のモデルが過学習してて顔の表情とエロ衣装を分離できてない
表情で済めばいいほうで、たとえばLoRA適用中に(LoRA訓練にスク水が無かったとして)スク水適用したら、元のモデルが過学習しててスク水成分が絵柄成分持ってて顔の絵柄ががらっと変わるとかもこれ >>287
何に対して言ってるのか分からんけど
2060と3060の差なら自分は持ってないから知らんし
2070と4090は自分で5枚くらい確認して差がなかったよ
↓でも差はなさそうだし、なんなら4090同士でも違っちゃってるし訳わからん
https://seesaawiki.jp/nai_ch/d/GPU%A4%CB%A4%E8%A4%EB%C0%B8%C0%AE%BA%B9%B0%DB%A4%CE%B8%A1%BE%DA
3060って【安いのに12GB積んでるから他製品より相対的にお得】って理由で勧められてると思ってたんだけど
より安い2060が非難されるのはなぜなのか知りたい
自分は20xxと30xxで生成される絵が変わるからなのかな?と思っただけだよ >>290
2060が高いからだよ
1万なら訓練中の推論サブとして買う
以上 >>288
3060買ったばかりだけど、それぐらいの差なら2060でも良かったな
放置してガチャ回すような使い方だから ちょっと自信ないんだけどCUDAコア数が1.5倍ぐらい違うのに計算時間が1割しか変わらないってことは推論はメモリ帯域にとらわれてんだろうけど、訓練時のベンチはないわけ?
推論は基本的に拡散計算だけだけど、訓練時はそれに加えて勾配計算が加わるからメモリ帯域が枷になる率が減るはずなんだけど
とはいえベンチしないと断言できないが >>289
やっぱりそんな感じの状態だよなあ
AOM3は表情や漫符が衣装や仕草に付随してくるからめちゃくちゃ使いにくいな 生成速度の問題だけじゃないのに何故わからないのか
もはや荒らしだなぁ >>295
だからそれを書いてくれれば一発で終わる話だと思うんだけど
自分が見落としてるだけならすまん
2060と3060の差ってなんなんだ? 2060と3060の違いは色々あるけど
dlss3じゃねえか? 公平な目で見たら2060否定派は理由を示せてないな
理由書いたらいいじゃん >>294
恐らく界隈で過学習率が少ない(と作者が主張してる)ACertaintyですらド変態系プロンプト追加してくとアヘ顔成分つけてくれて、その時LoRA顔の表情どころか絵柄ががらっと安っぽくなるからなあ
AOM3はAnything系だからより酷いだろうなとは思う
あとあんま自信ないけどマージを重ねてくと、同じプロンプトで刺激されたUNetが表す成分が複数になったりして状況が酷くなってくのか?と想像してる
AOM3はAOM2よりさらにマージ量増えたから ■ このスレッドは過去ログ倉庫に格納されています