【StableDiffusion】AIエロ画像情報交換54
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512:
!extend:checked:vvvvv:1000:512:
↑スレを立てるときはこれを3行にしてね
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換53
https://mercury.bbspink.com/test/read.cgi/erocg/1737704424/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT configure
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>630
スペックは最上位連中と比べたら物足りない感じだけど価格考えたらコスパいいねえ
入門向けっぽいけど安定供給される日来るんかね グラボ買い換えるには時期が悪いおじさん「グラボ買い換えるには時期が悪い」 >>633
Tiled VAEってどういう風に設定するのがいいんだ?
VRAM消費量減を考えるならまずtile_sizeなんだろうけど
生成画像でサイズで分割したときに余剰が生まれにくいサイズにしとけばいいのか?
>>636
あれ、ノーマルのVAEノードは自動でtiledになるの? >>640
クソデカアップスケールしてみればわかる切り替えはログにでたはず after sexの描写をしたいんですが、女がベッドに寝てて、男がベッド端に座ってタバコ吸ってるようなのって以下のプロンプトの他に何を足せばいいですかね?
after sex,lying on bed,boy sitting on bed ,boy smoking >>640
タスクマネージャーの「共有GPUメモリ」見ながら設定するんだよ
タスクマネージャー→GPU→共有GPUメモリ
「共有GPUメモリ」はGPUとメインメモリを合わせた物
うちの環境だど生成中はVRAM漏れてなくても0.2〜0.3GBは常に消費されている
tile_sizeを上げて共有GPUメモリに変化が無ければまだ上げれる
変化が無いギリギリまで共有GPUメモリを上げればいい
これは環境によるけど実はVRAM少し漏れた程度が1番速いかな
VRAMが漏れないのならtile_sizeは多い方が高速
瞬間的に少し漏れる程度ならtile_size上げても構わない
まあ実際の生成速度見ながら調整してよ >>643
>変化が無いギリギリまで共有GPUメモリを上げればいい
↑間違い
正解
変化が無いギリギリまでtile_sizeを上げればいい けどrtx5000シリーズってまだa1111やforgeに対応してないんでしょ?
今年中には対策されるんやろか AMDグラボでForgeって動きますかね。
3080を使ってるのですが、生成時間に差が無いようであれば検討しています。 LinuxでやるならAMDでも大丈夫そうだけどね。
そこそこ技術力というかトラブルを突破する力が必要な気がする。 >>641,645
分かった試してみるわさんくす
>>647
よく言われることだけど、その質問をするくらいなら止めといた方がいいよ
トラブったときは自力で解決できる自信があるなら ちもろぐ見る限りだとforgeはラデでも動いてるよ
comfyは動くか分からんが
ちもろぐが大丈夫と言うなら大丈夫だろ >>642
その構図だと女は横向きに寝てるんだろうからon_side, うつ伏せならface_down
横向きかつあっち向きならface_away
こっち向きなら何かしら表情
裸で寝てるにしても薄い何か掛けた方が映えるからblanketとか? 面白いカスタムノードを見付けた
Comfy-WaveSpeedと言うらしい
キャッシュ機能を使ってKSamplerを高速化するのかな???
作者は打倒TensorRTを目指す頭のイカれた天才らしい
後で試してみよう >>619
やってみてるけど cmd見るとエラーがあって、ChatGPTに聞くと
改善できそうなポイントTriton が見つからない(xformersの最適化が一部無効)
WARNING:xformers:A matching Triton is not available, some optimizations will not be enabled
ModuleNotFoundError: No module named 'triton'
→ Triton がないと xformers の最適化の一部が無効になるので、インストールを推奨!
こういわれたのでChatGPTの指示通りにやると
現在表示されたエラーメッセージによると、torch と CUDA のバージョンが現在のデバイスでサポートされていないということです。これは、使用しているGPUやCUDAバージョンが、インストールされているPyTorchのバージョンと互換性がない場合に発生します。
解決方法
PyTorchとCUDAのバージョンを変更
あなたのGPUが現在のPyTorchとCUDAバージョンに対応していない場合、他のバージョンを使用する必要があります。
手順 1: PyTorchのバージョンをCUDAに合わせてインストール
PyTorch公式インストーラーで、対応するCUDAバージョンを選択します。
もう一生この無限ループに陥ってます。
(どれかをアップデートとかダウングレードすると、何かの互換性がない〜 んでもちろん指示通りにやると 次は別の奴の互換性がない〜)
これで3時間ぐらい止まってます(´;ω;`)
どうすればよいですか? Python 3.10.6 & CUDA 12.1に適合するバージョンのTritonってどれですかね? これだけわかれば解決しそうかも・・・ TritonってLinux向けのモジュール?じゃなかったっけ windowsに入れる方法あるってさ
なんかしらんけどID変わった なんかややこしい事してるんじゃないかなぁ
普通に別のフォルダにEasyReforgeインスコして
A1111からCheckpointなりLoraなり移行すれば良いだけでは? WARNINGは無視していい文章だった気がする
起動して生成はできるのかい? 苦しい5時間やってる・・・
20時までに銭湯入らないといけないので1時離脱
>>659>>660
ありがとうございます
ググって1番上に出てくる奴やったら起動はしてました
ただしその時のcmdの文章をChatGPTに打ち込むと
>>654
のエラーが出てて
この状態だとa1111版とあんまり速さとか変わらんよ?って言われて
(前までのa1111版<今の中途半端なForge版<<<<<<<<このtritonをちゃんとインストールできた場合)みたいな感じだったのでChatGPTに言われるままにやってたらずっと上手くいかず んで思ったのがcudaって単語が出てきてたので
とりあえずこれをインストールしてみたんですよね
んで最後、家出る前にpipってのもちゃんとインストールしたのに
「PyTorchがGPUを認識出来てないエラーが起こってる」みたいな文面が出てて・・・
そういやサブモニターにグラボからHDMIケーブルで繋いでるからそっちを1回外してみましょうかね・・・ WindowsのForgeユーザーの中で大多数がtriton入れてないと思うから一旦忘れる事をおすすめしたい
動画生成に手を出すと嫌でも通らなくてはならないけど 検索すれば出てくるじゃない
https://wikiwiki.jp/sd_toshiaki/No%20module%20named%20%27triton%27
WARNINGだからびっくりするけど「注釈」みたいな意味合いだよ
動くなら無視していいんだよ
むしろ余計なことをやったから逆にトラブルが発生する可能性がある
フォルダ全部消してまた1から入れてそのまま使った方がいいかもね そんなに高画質の作りまくって保存しまくって容量足りる? >>664
>>665
なるほど・・・そうでしたかありがとうございます
無視してもいいのは分かるんですが「全然性能上がってないよ?」
みたいに言われたのでやはり続行してみた感じなんですね
ちなみにフォルダごと1回消しましたが
最初はブラウザで起動してましたが2回目からは起動してないですね
>>663今はこのエラーで 生成物の99%がテスト生成なんで重要なテスト結果以外は全削除やで >>665
シッカリと見させてもらいました!本当に感謝m(_ _)m
とりあえず不要なもの消したら行けそうな気がします ramdiskに生成途中の物保存して満足したやつだけSSDに保存してるわ comfy覚えなきゃとは思うが一見さんお断り感半端なくていつも即閉じる >>671
わかる、一歩踏み出せればすぐなんやろうけど
あのスパゲッティ見たらファッ!?ウーン…(そっ閉じ)ってなる 始めは抵抗感は強いけど実際に触ると次第に画像生成より楽しくなるよ WebUIのメタデータ入った画像読み込めばhires.fix込みくらいまでのフローは作ってくれる
そこから少しづつ肉付けしていけばいい
そのうち画像生成するよりフロー組むのが楽しくなってくる ワイもいつかわ触りたいと思うが、今のが初心者向きで手軽過ぎて。。。
同じ人多いんだな このグループの位置を縦に合わせて…とかやってると数時間経ってしまうぞ だめですわ
OSError: [WinError 126] 指定されたモジュールが見つかりません。 Error loading "C:\stable-diffusion-forge\webui\venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
続行するには何かキーを押してください . . .
起動しようとしたらこれが出て起動できません・・・
初めてChatGPTを信頼できない一日になりましたわ
最初の段階で終わっておけば・・・ comfyuiは慣れると便利
いろんなフローを保存して使い分けが出来る blenderとかでノードシステム使ってたから全然違和感なかったわ KSamplerを高速化する「Comfy WaveSpeed」という頭のおかしいカスタムノードを試した感想
noobを高速化Loraを使用した状態だと1.7-1.8倍早くなった見た感じ画質の劣化は見られず
カスタムノードの簡単な説明
キャッシュを溜め込んで再利用する機能。一回目の動作だけは重い2回目から本気だす
対応モデル
SDXL、FLUX、SD3.5、HunyanVideo、LTXV、
FLUXは3倍位早くなるんだってさ。動画まで対応しているのは凄いけど
今流行りのwanだっけ?これ対応していないのは残念
将来的にマルチGPU対応するつもりらしい
TensorRTとは違ってLoRAとか解像度とかの制限はなしAMDでも動作したよ
高速(低ステップ)化Loraと併用できたのは凄いと関した 絶対に無理そうなので諦めてeasy reforgeとか言うのを明日やってみます
下調べしてからやりますわ イラストリアス派生でnsfw3次元出せるモデルってありますか >>684
何を持って3次元と言うかは人それぞれやけどまぁ出ると言えば出る >>678
その達成感で満足してしまって肝心の生成をしなくなるという罠
ノードいじってる間は基本的に同じプロンプトだし >>678
うちの会社(プラント)の配電盤とそっくりでビックリした、どこの会社も同じ感じなのかな。
それはそれとして、今まで容量の関係で外付けSSDにForge入れて生成してたんだけど内蔵のNvmeSSDに移bオたら生成時間bェ11秒→10秒にbネったわ。
生成ボタン押してから2秒ほどタイムラグがあったけど1秒くらいに短縮された。
今までどれだけ無駄にしたんだろ… Comfy WaveSpeedしばらく使ってみたけど早くなったり遅くなったり安定しないな
使えるキャッシュが無い場合は普通の速度って感じかな?
それとも単に動作不安定なのかよくわからん
Kohyaハイレゾとの相性を試したが特に問題なし
で、偶然気付いたけどKohyaハイレゾ使うとVRAM消費がめちゃくちゃ減るんだな
まだ低解像度設定の方がVRAM食ってて草
Kohyaハイレゾ使う時はTiled VAEのtile_size増やす余裕があるな tonge outであかんべーできるけど、
舌を前方に突き出して蛇のような感じにするにはどうしたらいいでしょうか。 すいません。stick tongue outで自己解決しました。 すいません。stick tongue outで自己解決しました。 >>689
そういや導入の際試験的に型落ちのSSDにインストールしたんだけど問題無く動いてたからそのまま使い続けてたわ
これ見て思い出して最新のSSDに移行したたが、一枚あたり数秒の高速化でも何万枚も出力するから恩恵デカいな >>694
大丈夫、登校時の小学生も歌ってるから
少年A「vaginal, anus, large breast!」
少年B「え?large breast?ママじゃん、flat chestが良いぞ」
少年「解せぬ」 表紙だけ気合入ってる作品とかLoraでオカズとしてどんどん立ち上がってくるのええわぁ wavespeedはtriton使うノードもあるけど
導入よくわからないから面倒やな Kohyaハイレゾ使うとVRAM使用量減るとか言っていたけどKohyaハイレゾのせいじゃないな
VRAM使用量多い時と少ない時があって何が原因でそういう動きしているのかわからん
VRAM解放と関係あるのかな?そういう設定とか拡張機能あると面白いから探してみようかな
VRAMに余裕があればあるほどTiled VAEのtile_size増やせるんだけどな 4070tisを1年前に購入。先日4090を借りられた。確かに生成速度アップしたが、3割程度だからそんなに感激しない。動画生成とかローカルLLMするならメリット大きいが、私の場合は興味ないので、むしろ排熱のデメリットしか感じなかった。今んとこは4070tis で必要十分かな。 VRAMの使用メモリについてわかった
やっぱりKohyaハイレゾが原因だった
ワイの環境 VRAM 8GB TIledVAE tile_size 608
通常生成(832x1248)VRAM使用量
開始前4.0GB KSampler処理中5.2GB VAE Decode処理中6.6GB 終了後4.0GB
Kohyaハイレゾ(1024x1536)VRAM使用量
開始前2.1GB KSampler処理中5.6GB VAE Decode処理中4.8GB 終了後2.1GB
KohyaハイレゾはVAE DecodeのVRAMが大幅に減る効果があるみたいだな
Kohyaハイレゾ使用時はTIledVAE tile_sizeをもっと増やせる余裕がある
ComfyUI使ったことない人に簡単に説明するとAIイラストの処理の重さはこんな感じ
最も時間がかかる処理 KSampler>VAE Decode>>>>その他 ※初回起動のモデルロードは無いものとする
最もVRAM食われる処理 VAE Decode>KSampler>>>>その他 ※初回起動のモデルロードは無いものとする Macで生成AI始めて3ヶ月、もう限界なのでPC組もうと思う
いまミドルレンジも高額だから30番台+8GBで様子見しようと思うけどコスパ悪いかなあ
もうリアス系1枚3分、SD1.5で30秒とか無理なんよ・・・
一応最新M4なのにつらい 今ちょっと面白い実験中
偶然にも色々見つけた
後で報告する 今から買うならVRAM16GBは欲しいよ
グラボも高くなってるから辛いところだけどね
俺は1年前くらいに3060の12GBを4万円で買ったけど今は5万5000円くらいでビビる そういやなんU民に教えて貰ったけどリアル版のダンボールみたいなサイトがあるみたいだな
idol.sankalucomplexってサイトね >>705
ありがとう
いまは安いので我慢して価格下がったら買い直せばいいかなと思ってね
やっぱり8GBでは厳しいかー rtx3080 10GBを発売当時9万代で買ったけど
今同じグレードを定価で買おうとしたら倍ぐらいするからなぁ 去年の年末に2080のPC壊れて4070tisに買い換えたけど、そん時はもう少し持てば50xxの波に乗れたのにと思ってたが
今の状況見るに難民化しないギリギリのタイミングだったな
画像生成もnai流出でキャッキャしてた頃から一気にワープしてリアス触って感動したから、なんならもっと早く壊れてろよとまで思った 4060でも早い早い
何万枚も作るプロとか売るんでもなきゃいいかな トランプが円が安すぎると言って圧力掛けてきてるからもうしばらく待てばパーツも安くなってくるかも tremblingとかで出てくる全身ビクビクッって効果を、頭とか肩に限定的に出す方法ってある?
ちんちんだけはtwitching penisで個別に出せそうなんだけど、体の部位の場合は単語くっつけても効かないんだよな >>716
penisもほとんど全身になっちゃうよ >>717
そうなんか……
^^^で出してネガにtrembling入れることで頭単体には安定て出てくるようになった パソコンの知識全くないから最近のこのスレの流れに付いていけんわ オナニーに活かしてるだろ?他に何がいるんだ
数時間ネットをさまよってエロ画像探して使えるのはやっとこ1枚なんてのに比べたらはるかに時間効率上がってるし何か役に立つことをしたいならその浮いた時間でやればいい pixivでキャラ名 R-18で検索したら326作品(ド下手くそ・訳分からん性癖 含む)しかないキャラクターの画像を
一瞬で数百枚 クソ上手いめちゃくちゃ刺さるのが一瞬で出来るからな そういうところに投稿するのに最低限指やwatermark、変な装飾すら直してないとか
どう見てもキャラと違うだろっての見るとめっちゃ指摘したくなっちゃう AIは指が下手という突っ込みに
よっぽど上位の絵描きでもない限りだいたい指は下手って突っ込みがあった 部屋の天井の隅にある監視カメラってらどう表現したらいいんだろ。 i2iがうまく使えない、というか全然機能しないから、指の数おかしいの分かってても直しようがないんよね 指はひたすらガチャってしまう
https://files.catbox.moe/8xa3v6.jpg
それでもSD1.5の頃よりはずっと良くなったし
2年後3年後にはより学習の進んだモデルの登場でもっと打率上がってるだろう、とも思うけれども >>729
これはAI生成の指が気になりだしてから実感した
今までのコレクション(非AI)を改めて見ると手の形がたいして良くないなぁって >>714
関税はアメリカに入ってくるものに対してだろ 1.5の時はほぼ破綻してたので手をなるべく描写しないようにしてた
今は破綻する方が少ないと思うが 第三者がアナルに指を突っ込むプロントってあるかな?anal fingeringは違うんだよね ■ このスレッドは過去ログ倉庫に格納されています