【StableDiffusion】AIエロ画像情報交換54
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512:
!extend:checked:vvvvv:1000:512:
↑スレを立てるときはこれを3行にしてね
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換53
https://mercury.bbspink.com/test/read.cgi/erocg/1737704424/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT configure
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured これくらいでいいのならプロンプトだけでいけるな
solo.panties, pussy, ass, (panty pull:1.3), foot out of frame, standing, looking at viewer, looking back, behind,cowboy shot ,dutch angle,ass focus ,leaning forward ,undressing, standing on the one leg,
https://files.catbox.moe/e8hz6a.jpg
片足に引っ掛けてるくらいならこういうのを使えば良いんじゃね
https://civitai.com/models/768223/panty-pullstanding-on-the-one-leg >>591
>>589だが、アンダースコアはdanbooruタグでスペースの代わりに使われる
カッコが俺の書いたone_legとかを包んでる物を指しているのであれば、同じpanties_around_…で始まるタグのバリエーションで…one_legとか…anklesとかあるって意味だった
説明不足ですまん
通常のプロンプトで言うカッコは単に強調する場合に使われる
panty_pullよりも(panty_pull)は10%増し、((panty_pull))だと20%ちょい増しという感じ お二人ともありがとうございます!
かなり希望してた感じで出せるようになりました。
あのような書き方でタグのバリエーションを指定できるなんてびっくりでした。 腹部にチ〇ポをぐりぐり押し付けるような構図を再現できる
いい感じのプロンプトかLoRaをご存じないでしょうか?
見せ槍の構図でも同様なのですが、相手に接触した箇所を凹ませるような描画が上手くいかないです >>595
penis_on_stomach 凹ませまでできるかどうかは分からんが
作文するならpress penis into stomach
ただintoの所が例文次第でto, against, overになってて使い分けが分からん gangbang,を利用した女の子1人の輪姦モノを生成してるのだけど、全て挿入する似たような構図ばかりになってしまう…
追加でcrowd,を入れれば挿入有無も含めて、一気に構図が増えるのだけど崩壊率が上がってしまう…
何かいいプロンプトは無いものか… i2iで切り貼りの旦那と、多回線で自作自演の旦那、そんなに仲悪いとはなぁ
傍から見れば大差ないんだけどなぁ、どっちもレベル5の能力者だし・・・
それにしてもマニ車出ねーよ、もう三日目だ、今日出なかったら諦めるわ リアル系でエロじゃない系統に強いオンラインサービスじゃないと
マニ車なんてまず出てこないって
ローカルならLoRA必須だわ、タグすら存在してるかどうか怪しい >>597
double handjobとかdouble penetration使ってみたり、paizuriとpov組み合わせてバック挿入からサンドイッチする
あと、胸や足や頭のどれか一つをgrabさせると結構予想を超えた構図になったりする。崩壊も増えるが
それかgangbangの代わりにFFM threesome使ってみたりとか 間違えたFFMじゃなくてMMF threesome
あと普通のthreesomeも入れてみる >>598
RTX4060tiを使ってます
グラボは問題ないけど、物理メモリをケチって16GBだからそっちが先に寿命きそう…
>>601
or構文が使えれば手動で構図を増やせるか……問題はor構文の使い方がわからんことだな…… >>598
デスクトップは4090、サブに安物のノートだけど3070Laptop使ってる
意外と3070LaptopでもEasyReforgeでそれなりの速度が出る事に気が付いたので
画像生成くらいならノートで良いかなと思い始めた
特に夏場、4090は発熱がやばくて… >>603
Dynamic Promptsでいいのでは?
{missionary|cowgirl position|doggystyle},
とか。|で区切った範囲がランダムに選ばれるヤツね
体位ごとに細かくシチュエーションを指定した方が良いから|の間にもう少しプロンプトを盛った方が良いけど >>603
4060ti16GBはむちゃくちゃ悩んだけど見送りました。正解かどうかはわかりませんが・・・今3060なんでもう無理です。
5070tiが普通に買えれば欲しいんですが売ってないし
>>604
4090は高価だが高コスパだって事は知ってる。いいなぁ。手が出ません。予算15万
3090も似たような熱量だと思いますが中古を思案してます。熱はそろそろ嫌な季節ですね
先週から生成始めた超初心者でも3060はしんどいです >>606
今はグラボ買うべきときではないと言われてるからちょっと我慢したほうが良い。
50シリーズが40シリーズに毛が生えた程度の性能なのに
為替、供給量、でたばかりのぼったくり価格の三重苦状態。
中古はまずマイニングか、AIで酷使されて寿命激減りしてるので絶対にお勧めしない。
あと電源のW数とケースのグラボ刺すところの大きさ確認したほうが良いよ。
最近の10万超えトリプルファンモデルはクソでかいから買っても入らないなんてことがあり得る。
俺はそれでかなり危ない橋を渡りました。 いくらなんでもグラボは高いし性能向上が少なすぎる
3060の12GBなら持ち続けてもいいと思うが動画か高解像度画像でも作ってるのだろうか? 4090万歳!
これからは16GBのVRAM搭載したグラボが良いと思う。
今は品薄すぎて買えないが。 >>607
そこそこ勉強したからPC関連は大丈夫。ちなみにケースと電源はあんたの心配通りだったので新調したよ
予想全部当たってるw
>>608
動画も高解像度もやってない。せいぜいフルHDくらいの画像をたまに出力してる程度。
A1111が初心者のデフォだと思うんだが待ちが耐えられん
もうちょっと色々勉強してくらぁ a1111からforgeに変えるだけで大分スピード変わった 40代の優秀なのが無いなら60シリーズが安くなるまで3060の12Gでいいよ
マジ傑作 そこそこ安いのにだいたい何でもできる3060は良いグラボなのは同意するよ
ただオネショタばっかり出力してると体格差のせいで奇形とかありえん体制とか出てくるのでたくさんガチャ回したくなってもうて
学習もどっぷりやりたいから大メモリで生成そこそこ早いのがどうしても欲しくなって 自分も3060-12だけど生成待っている間に賢者モードに入ってしまうのと猿のように作りまくって飽きてしまうのとどっちがマシだろうかと考えると今のグラボには手が出せない 年末に4070Ti super買ったけど早くも生成速度に不満が… 大量ガチャやSD3には向いていないがXLで良いなら3060Ti8Gでも1枚十数秒だからね
ADetailer掛けるとどうしても掛けた分生成時間は増すけど
学習したいなら5060tiがメモリ16Gらしいからそれまで待ちかな >>597
イラスト調でよければ構図が自由奔放なのはObsession
セックスの絵で逆立ちまである >>612
いんや
今使ってるa1111のフォルダにpath通してあげればすぐにほぼ同環境で移行できる
通し方は検索すれば色々なところが解説してる forgeめっちゃ早いぞ
入れてない奴は人生損してる
3070でもサクサク動くわ 今3060使ってる奴は5060Tiがいいと思う
もちろん16GBモデルな
おそらく4060Tiより1.5倍ぐらいは速くなるはず
3060と4060Tiも1.5倍ぐらいの差だから
3060から5060Tiだと生成時間半分ぐらいになるはず 3060 12GB使って1週間で物足りずに4070tis買い直したわ、5000系はスルーやむなし >>622
おいくらなんですかね
4090とか5090みたいな性能ぶっ飛んだやつ除くなら4070Tisuperみたいなコスパ特化タイプの方が欲しい 3060の12G使ってるけど、forgeマジで早い。ただ、50シリーズやと動かんからcomfyuiに移行しないと⋯ >>625
もっと良いグラボでforge使ってみ、時間半分になるぞ
steamの首位から陥落した3060なんて売り飛ばせ 今ならeasyreforgeがマストよな
A1111の方が拡張機能の実装が早いからつよつよグラボならA1111でいいんじゃね 皆速度に拘る割にはbatch_size 1で生成しているんだよね
もしかしてbatch_size 2にしたらVRAM2倍消費するって勘違いしているのかな😅
batch size増やしてもVRAM消費量はほぼ変化ないぞ
ComfyUI使ったことあるひとにしかわからんけど
どの処理が最も時間が掛かるのかどの処理がVRAM消費量が激しいのかわかるはず
タスクマネージャー監視していればTiledとbatch sizeの最適値がわかる
限界までチューニングしたら高速生成できるよ >>627
easy使うところが初心者っぽくてかわいい >>624
おそらく10万切るあたり
目安としては5070tiの半額ぐらい forgeで動かない拡張使ってるからa1111使ってる
comfyでもいいけど何となく流れでa1111のまま、って前スレでも書いたな 16GB版9万8千らしいけど実売だとどうなるか分かったもんじゃない ワイからの高速化ヒントや
動画生成とかFLUXでよく聞くVRAM低減技術でFP8とかGGUFがある
VRAM漏れてない人からしたら高速化にはなり得ないと思われがちだが関係ある
VRAMに余裕が出ると言うことはbatch sizeを増やして同時生成枚数を増やして高速化できることになる
Tiled VAEを最適値に設定するとVRAM漏れなくなるのでbatch sizeを更に増やす余裕が生まれる
ハード的に考えるとVRAM多い方が同時生成数が増やせて速くなる
batch sizeやTiled VAEをイジらないとハードの限界性能は引き出せない よく知らんけどforgeとかcomfyって
自動でTiledVAEの最適化してるんじゃないの? forgeは使ってないから知らんけどComfyUIは自分で設定するんだぞ
タスクマネージャー見ればどれだけVRAM使っているかまたは漏れているかわかるよ
初期設定は自動設定とは言わない😅 高速化にバッチサイズがどうとか微妙に筋違いな感じだが
vaeノードは溢れそうなら自動でtiledになるよって話をしてると思う >>630
スペックは最上位連中と比べたら物足りない感じだけど価格考えたらコスパいいねえ
入門向けっぽいけど安定供給される日来るんかね グラボ買い換えるには時期が悪いおじさん「グラボ買い換えるには時期が悪い」 >>633
Tiled VAEってどういう風に設定するのがいいんだ?
VRAM消費量減を考えるならまずtile_sizeなんだろうけど
生成画像でサイズで分割したときに余剰が生まれにくいサイズにしとけばいいのか?
>>636
あれ、ノーマルのVAEノードは自動でtiledになるの? >>640
クソデカアップスケールしてみればわかる切り替えはログにでたはず after sexの描写をしたいんですが、女がベッドに寝てて、男がベッド端に座ってタバコ吸ってるようなのって以下のプロンプトの他に何を足せばいいですかね?
after sex,lying on bed,boy sitting on bed ,boy smoking >>640
タスクマネージャーの「共有GPUメモリ」見ながら設定するんだよ
タスクマネージャー→GPU→共有GPUメモリ
「共有GPUメモリ」はGPUとメインメモリを合わせた物
うちの環境だど生成中はVRAM漏れてなくても0.2〜0.3GBは常に消費されている
tile_sizeを上げて共有GPUメモリに変化が無ければまだ上げれる
変化が無いギリギリまで共有GPUメモリを上げればいい
これは環境によるけど実はVRAM少し漏れた程度が1番速いかな
VRAMが漏れないのならtile_sizeは多い方が高速
瞬間的に少し漏れる程度ならtile_size上げても構わない
まあ実際の生成速度見ながら調整してよ >>643
>変化が無いギリギリまで共有GPUメモリを上げればいい
↑間違い
正解
変化が無いギリギリまでtile_sizeを上げればいい けどrtx5000シリーズってまだa1111やforgeに対応してないんでしょ?
今年中には対策されるんやろか AMDグラボでForgeって動きますかね。
3080を使ってるのですが、生成時間に差が無いようであれば検討しています。 LinuxでやるならAMDでも大丈夫そうだけどね。
そこそこ技術力というかトラブルを突破する力が必要な気がする。 >>641,645
分かった試してみるわさんくす
>>647
よく言われることだけど、その質問をするくらいなら止めといた方がいいよ
トラブったときは自力で解決できる自信があるなら ちもろぐ見る限りだとforgeはラデでも動いてるよ
comfyは動くか分からんが
ちもろぐが大丈夫と言うなら大丈夫だろ >>642
その構図だと女は横向きに寝てるんだろうからon_side, うつ伏せならface_down
横向きかつあっち向きならface_away
こっち向きなら何かしら表情
裸で寝てるにしても薄い何か掛けた方が映えるからblanketとか? 面白いカスタムノードを見付けた
Comfy-WaveSpeedと言うらしい
キャッシュ機能を使ってKSamplerを高速化するのかな???
作者は打倒TensorRTを目指す頭のイカれた天才らしい
後で試してみよう >>619
やってみてるけど cmd見るとエラーがあって、ChatGPTに聞くと
改善できそうなポイントTriton が見つからない(xformersの最適化が一部無効)
WARNING:xformers:A matching Triton is not available, some optimizations will not be enabled
ModuleNotFoundError: No module named 'triton'
→ Triton がないと xformers の最適化の一部が無効になるので、インストールを推奨!
こういわれたのでChatGPTの指示通りにやると
現在表示されたエラーメッセージによると、torch と CUDA のバージョンが現在のデバイスでサポートされていないということです。これは、使用しているGPUやCUDAバージョンが、インストールされているPyTorchのバージョンと互換性がない場合に発生します。
解決方法
PyTorchとCUDAのバージョンを変更
あなたのGPUが現在のPyTorchとCUDAバージョンに対応していない場合、他のバージョンを使用する必要があります。
手順 1: PyTorchのバージョンをCUDAに合わせてインストール
PyTorch公式インストーラーで、対応するCUDAバージョンを選択します。
もう一生この無限ループに陥ってます。
(どれかをアップデートとかダウングレードすると、何かの互換性がない〜 んでもちろん指示通りにやると 次は別の奴の互換性がない〜)
これで3時間ぐらい止まってます(´;ω;`)
どうすればよいですか? Python 3.10.6 & CUDA 12.1に適合するバージョンのTritonってどれですかね? これだけわかれば解決しそうかも・・・ TritonってLinux向けのモジュール?じゃなかったっけ windowsに入れる方法あるってさ
なんかしらんけどID変わった なんかややこしい事してるんじゃないかなぁ
普通に別のフォルダにEasyReforgeインスコして
A1111からCheckpointなりLoraなり移行すれば良いだけでは? WARNINGは無視していい文章だった気がする
起動して生成はできるのかい? 苦しい5時間やってる・・・
20時までに銭湯入らないといけないので1時離脱
>>659>>660
ありがとうございます
ググって1番上に出てくる奴やったら起動はしてました
ただしその時のcmdの文章をChatGPTに打ち込むと
>>654
のエラーが出てて
この状態だとa1111版とあんまり速さとか変わらんよ?って言われて
(前までのa1111版<今の中途半端なForge版<<<<<<<<このtritonをちゃんとインストールできた場合)みたいな感じだったのでChatGPTに言われるままにやってたらずっと上手くいかず んで思ったのがcudaって単語が出てきてたので
とりあえずこれをインストールしてみたんですよね
んで最後、家出る前にpipってのもちゃんとインストールしたのに
「PyTorchがGPUを認識出来てないエラーが起こってる」みたいな文面が出てて・・・
そういやサブモニターにグラボからHDMIケーブルで繋いでるからそっちを1回外してみましょうかね・・・ WindowsのForgeユーザーの中で大多数がtriton入れてないと思うから一旦忘れる事をおすすめしたい
動画生成に手を出すと嫌でも通らなくてはならないけど 検索すれば出てくるじゃない
https://wikiwiki.jp/sd_toshiaki/No%20module%20named%20%27triton%27
WARNINGだからびっくりするけど「注釈」みたいな意味合いだよ
動くなら無視していいんだよ
むしろ余計なことをやったから逆にトラブルが発生する可能性がある
フォルダ全部消してまた1から入れてそのまま使った方がいいかもね そんなに高画質の作りまくって保存しまくって容量足りる? >>664
>>665
なるほど・・・そうでしたかありがとうございます
無視してもいいのは分かるんですが「全然性能上がってないよ?」
みたいに言われたのでやはり続行してみた感じなんですね
ちなみにフォルダごと1回消しましたが
最初はブラウザで起動してましたが2回目からは起動してないですね
>>663今はこのエラーで 生成物の99%がテスト生成なんで重要なテスト結果以外は全削除やで >>665
シッカリと見させてもらいました!本当に感謝m(_ _)m
とりあえず不要なもの消したら行けそうな気がします ramdiskに生成途中の物保存して満足したやつだけSSDに保存してるわ comfy覚えなきゃとは思うが一見さんお断り感半端なくていつも即閉じる >>671
わかる、一歩踏み出せればすぐなんやろうけど
あのスパゲッティ見たらファッ!?ウーン…(そっ閉じ)ってなる 始めは抵抗感は強いけど実際に触ると次第に画像生成より楽しくなるよ WebUIのメタデータ入った画像読み込めばhires.fix込みくらいまでのフローは作ってくれる
そこから少しづつ肉付けしていけばいい
そのうち画像生成するよりフロー組むのが楽しくなってくる ワイもいつかわ触りたいと思うが、今のが初心者向きで手軽過ぎて。。。
同じ人多いんだな このグループの位置を縦に合わせて…とかやってると数時間経ってしまうぞ だめですわ
OSError: [WinError 126] 指定されたモジュールが見つかりません。 Error loading "C:\stable-diffusion-forge\webui\venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
続行するには何かキーを押してください . . .
起動しようとしたらこれが出て起動できません・・・
初めてChatGPTを信頼できない一日になりましたわ
最初の段階で終わっておけば・・・ comfyuiは慣れると便利
いろんなフローを保存して使い分けが出来る blenderとかでノードシステム使ってたから全然違和感なかったわ KSamplerを高速化する「Comfy WaveSpeed」という頭のおかしいカスタムノードを試した感想
noobを高速化Loraを使用した状態だと1.7-1.8倍早くなった見た感じ画質の劣化は見られず
カスタムノードの簡単な説明
キャッシュを溜め込んで再利用する機能。一回目の動作だけは重い2回目から本気だす
対応モデル
SDXL、FLUX、SD3.5、HunyanVideo、LTXV、
FLUXは3倍位早くなるんだってさ。動画まで対応しているのは凄いけど
今流行りのwanだっけ?これ対応していないのは残念
将来的にマルチGPU対応するつもりらしい
TensorRTとは違ってLoRAとか解像度とかの制限はなしAMDでも動作したよ
高速(低ステップ)化Loraと併用できたのは凄いと関した 絶対に無理そうなので諦めてeasy reforgeとか言うのを明日やってみます
下調べしてからやりますわ イラストリアス派生でnsfw3次元出せるモデルってありますか >>684
何を持って3次元と言うかは人それぞれやけどまぁ出ると言えば出る >>678
その達成感で満足してしまって肝心の生成をしなくなるという罠
ノードいじってる間は基本的に同じプロンプトだし >>678
うちの会社(プラント)の配電盤とそっくりでビックリした、どこの会社も同じ感じなのかな。
それはそれとして、今まで容量の関係で外付けSSDにForge入れて生成してたんだけど内蔵のNvmeSSDに移bオたら生成時間bェ11秒→10秒にbネったわ。
生成ボタン押してから2秒ほどタイムラグがあったけど1秒くらいに短縮された。
今までどれだけ無駄にしたんだろ… Comfy WaveSpeedしばらく使ってみたけど早くなったり遅くなったり安定しないな
使えるキャッシュが無い場合は普通の速度って感じかな?
それとも単に動作不安定なのかよくわからん
Kohyaハイレゾとの相性を試したが特に問題なし
で、偶然気付いたけどKohyaハイレゾ使うとVRAM消費がめちゃくちゃ減るんだな
まだ低解像度設定の方がVRAM食ってて草
Kohyaハイレゾ使う時はTiled VAEのtile_size増やす余裕があるな tonge outであかんべーできるけど、
舌を前方に突き出して蛇のような感じにするにはどうしたらいいでしょうか。 ■ このスレッドは過去ログ倉庫に格納されています