【StableDiffusion】AIエロ画像情報交換42
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換41
https://mercury.bbspink.com/test/read.cgi/erocg/1715848108/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ22 (ワッチョイあり)
https://mevius.5ch.net/test/read.cgi/cg/1711170980/
【StableDiffusion】画像生成AI質問スレ23 (ワッチョイなし)
https://mevius.5ch.net/test/read.cgi/cg/1713237430/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 1111とforgeがハイスペPCで速度変わらないって言ってる人、
起動オプション何にしてる?
こっちは4090で
--autolaunch --opt-sdp-attention --opt-channelslast
だけど、圧倒的にforgeが早い すまん、3ヶ月ぶりにアプでした1111でやってみたら
普通に1111でも速かったわw
アプデで改善されたのかなこれ from 768x1344 to 1920x3360
forge hypertile integrated on
Time taken: 38.1 sec.
A: 13.34 GB, R: 19.54 GB, Sys: 21.6/23.9883 GB (90.1%)
1111 hypertile off
Time taken: 1 min. 51.3 sec.
A: 52.88 GB, R: 56.79 GB, Sys: 24.0/23.9883 GB (100.0%)
1111 hypertile on
Time taken: 49.3 sec.
A: 53.03 GB, R: 56.86 GB, Sys: 24.0/23.9883 GB (100.0%)
相変わらず1111はVRAM使用量は多いけど
速度は問題ないな
ただ超高解像度はきついな >>589
そういえば、その辺りだったような気もする
ただ、何かして直ったのか思い出せない >>588
残念だな
ただ、1.5の頃は結局アップデートせずXLに移行したし
今回も使えるところまで使い倒すのが良い気もする
本家の方は最近見てないけど、ForgeのVRAM削減効果は魅力的
LoRA作りながらLoRA使えるし、更にちょっとしたゲームも同時にできるのは本当にありがたい 上にあるこれだけどA1111でこれやるとforgeと同等のスピードになるらしいよ
>>571 >>593
dynamic promptsをオンにしてるとプロンプト中に{}が一切なくてもそうなる、オフにしてるとならない
・・・という話ではないのかな? なんでforge死んでしまうん?数多の低RAMの命を救ってきたじゃん! 実際どういう方針なんだろうね
低スペ環境に合わせた開発を捨ててAI性能の向上に集中したいのかな A1111通常利用だと別に気にならないんだけど
AnimateDiffだとメモリ面で完全にforgeの方が優位過ぎるのが問題
1024×1024のSDXLはノイズだらけで使えないけどそれでもGPUメモリ16GBに収まるforgeに対して上限使った上で共有に8GBくらい流れるA1111とじゃ比較にならんわ いいスレがあると思って覗いたが、話が高度すぎて着いていけない
熟女→milfってするとお婆さんが生成されちゃうよね、的な話がしたいのに age slider系で調整した方が楽だと思います、それでも揺らぎが出るけど >>598
omostとかIClightとか自分のアイデア動かすプラットフォームになるんでね? もうforgeは終了か
A1111をforgeぐらいの速さで使う設定ないかな? フロー的にはごっついVRAMあれば速度はミドルぐらいでええからAMDに期待してたのに
こいつ期待されるとサボりやがる 股覗き(天橋立でやるヤツ)のプロンプト
誰か教えろください まぁforgeは終わるべくして終わったようなもんやろ
むしろ今まで続いてたのが長かったってもんだ
forge向けだけに作られてた拡張機能が、今後は1111に来てくれると思うとむしろ助かる stable-diffusionの最新版てどこで確認すればいいですか? いま使ってるForgeが使えなくなるわけじゃないぞ >>609
WebUIの事なら公式(Automatic1111の人のとこのGitHub)見に行けば良いのでは
一応今の最新は1.9.4 のっけから俺のほうが軽くて速いの作れるんだぞってお披露目して満足しちゃった感あったからなあ
むしろそんなの当然なことで無償で延々とサポート続ける奴は人間ができすぎている もともと本体にボトルネック改善が取り込まれたら終了と言ってたから円満終了でしょ
独自プラグインのところが気になるけど、結局あまりはやらなかったから撤退なのかな。 文句言うなってのは分かるけど
やっぱ愛用者からすると少し寂しいですよね RTX2070だから来年の50xxシリーズに買い替えるまでforge使う(´・ω・`) >>613
それはそうなんだよな…でも速さは改善したかもしれんが1番入れて欲しい使用VRAMの削減が今のA1111に入れるの無理に近いとかキツすぎるわ 最初からa1111に成り代わるつもりないって言ってたしforgeをa1111に取り込めよっていってよね VRAM消費減らしつつ機能の豊富さや精度を上げるって、
「品質は保ちながらコストは下位メーカー製品並に下げて大量生産しろ!」って大手メーカーに言うようなもん
VRAM界隈は当分品質と使用量のトレードオフでしょ ComfyUIあるから別に困らないじゃん
ComfyUIの注意点はデフォルトで使うとA1111のプロンプトが流用できない独自の使い方を覚える非常に面倒ってだけ
でもCLIPTEXTEncoderの拡張機能を入れてA1111モードにしたらこれまでのプロンプトをコピペしてそのまま使える Forgeの開発が止まるならそれでいいけど1111に省VRAM最適化のForgeモードの起動コマンドくれ 1.5のときしか使ってないんだけど、
a1111って生成してなくても起動してるだけでVRAM食ったまま保持してたけど
そういうのもうないの? 初心者に近い自分的には電気配線みたいな画像見ただけで扱うの無理そう >>621
> CLIPTEXTEncoderの拡張機能
これホントに同じになるの?
いや、ComfyUI のユーザが増えるのは嬉しいんだけど、そこを強調し過ぎて失望させてもなあってのがあるから >>626
インストールしているのなら自分で使って試せばいいだろ何故聞く必要がある😅 >>627
自分がA1111 に詳しくないからだよ
>>621 はじっさいに試してるわけだから、聞けるなら聞いた方がいいよね? >>628
簡単に言うとComfyUIはデフォルトで使うとA1111のプロンプトをそのままコピペすると一応動く…だからプロンプト流用できると勘違いする
でもプロンプト増やすほど画像がぶっ壊れて困惑するこれはCLIPTEXTEncoderの拡張機能でA1111モードにしたら解決
で、ノード構築はA1111で生成したPNGをComfyUIにドラッグ&ドロップしたらある程度ノード構築までやってくれるがADetailerとかの拡張機能まではやってくれんな
まあComfyUIはノード構築がメインで1番楽しいところ何でそこは自分でやるしかない >>629
ありがとう
確認だけど、CLIPTEXTEncoder ってプロンプトの構文や影響をA1111 と同じにするってものだよね?
ただサンプラがA1111 とComfyUI は完全に同じじゃないから、そこで違いが出そうに思えるんだけど
違いがあまり気にならないレベルってこと? それとも完全に同じになる? >>630
詳細に調べたわけじゃないけど完全一致ではないと思うよ
ほぼほぼ一致?俺は気にするレベルではないと思う
どんだけプロンプト盛っても壊れなくなったしA1111と同じ感覚で使えるようにはなった forgeがなければcomfyuiを使えばいいじゃない >>631
つまりA1111 ユーザがComfyUI に移行しても、ほぼ混乱しないくらいには補正してくれるってことなのかな
たしかにそういう機能があれば、移行も勧めやすいね >>631
プロンプト盛るってToken数増やすってこと?
普段150前後くらいまでで使っているからかToken数で壊れるって印象はないので。。。
ところでforgeはA1111と同じ絵出るんでしょうか? >>634
後でA1111とComfyUIで同じ絵が出るか比較してみるよちょっと待って
完全一致はしないが絵柄は同じだったはず >>596
forge でDynamic Promptsでも今まで問題なく改行されてる
色々あって再度オールインワンパッケージでインストールし直したらこの不具合出た
ただ以前導入当初も出てた気がする
どうやって解決したのか思い出せない >>625
> 電気配線みたいな画像
まあそうだけど、逆にいえば、そこにあるパーツしか使ってないことが見て分かるしね(ある意味シンプル)
A1111 を利用してたときは、たしかに便利なんだけど、裏で複合的に処理してて混乱することもあったし……いずれにせよ一長一短
ただComfyUI は、作ってる人がStability AI 社に入ったからそのモデルをいち早く試せるってのはあるよ
次のSD3 も最初に対応するのはたぶんComfyUI だろうし ComfyUIはノード構築が難しそうに見えるがけど自作PCより簡単だよ裏配線拘る人はハマりそう
というかA1111で生成したPNG放り込んだらある程度は構築してくれるから後は自分で追加するだけだから難しくないよ というか、他の人が作ってくれた
ワークフローぱくらしてもらって
プロンプトかえるだけだから
逆にa1111より超簡単まであるはずだ
チェックボックス間違えたりもないからな ComfyUIのノードが裏にあるStableSwarmを使って見たいがUIが慣れるまでキツめに感じる スレッドの中でVRAMの移植試してみるわって人いて期待したいとなったもののその少し後?にA1111では解決していない管理とかあったからそれが解決しない限り移植は難しそうね >>VRAMの移植試してみる
グラボからVRAMチップを剥がして別のグラボに半田付けする作業?
それで簡単に16GB版が作れたら便利だね ForgeのVRAM消費量を少なくしてる部分の実装をA1111に移植するってことちゃうん
知らんけど 絵柄に影響を与えないで、ポーズやシチュを学習させるのってどうやるんだろ?
絵柄は気に入ってるんだけどAのポーズ描けないっていうモデルに、他のモデルで作成したAポーズの画像を学習させても,
学習画像の絵柄まで覚えて顔や塗りも変わっちゃう
u-netの学習率を下げると多少緩和されるけどポーズの学習率も下がる。 Stabillty Matrixのインターフェースのところ使うとA1111みたいな指定方法でcomfy使って出力できなかったっけ? >>643
どうやったらそういう解釈になるのか分からない、発想が凄い
自動翻訳だけどこれね
フチェンレイ
2時間前
@lllyasviel私はA1111でモデルパッチャーを試しています。今のところ順調です。フォージICライトエクステンションは、A1111をサポートするためにそれを使用しています。https://github.com/huchenlei/sd-webui-model-patcher
後で時間があるときに、vram管理を移植してみます >>645
バッチ数を上げる、VRAMがなきゃできない >>608
まじかー
1.5はA1111 SDXLはforgeで落ち着いてたのに(4070Ti)
medvram入れてもSDXLはかなり辛かったんだよな VRAM8G民だからForgeを使い続けるぜ
どうせSD3はVRAM不足で無理だろうし… >>587
dynamic prompts 2023/12/7 2817d2e以降が埋め込むTemplateメタデータの仕様
PNG InfoタブでTemplate/Negative Templateのエスケープをデコード表示するだけのスクリプト
https://pastebin.com/c5wVKZGw
ダウンロードしたら拡張子が.jsになってるのを確認の上webuiのjavascriptに入れてね 4070Tiとかいうforgeですごくバランス取れてたグラボ
1111もう忘れたから多分エラー出しまくって捗らないかもしれん >>648
VRAMは24G有るけど絵柄学習することとバッチサイズは関連ないと思われ 4070ti持ってたけど、1111でギリギリVRAM溢れてストレスあったから3090に乗り換えたわ
1111で12GBって、SDXLのハイレゾ1.5でギリギリVRAM溢れるっていう絶妙なアウトラインよな >>651
おお、答えだ
自分の環境では最初から/n入ってて鬱陶しかった、forge導入が遅かったからか・・
dynamic使っててテンプレコピーしたいときにポチポチ消してたよ
つか作ってくれたの?マジありがとう
で、javascriptフォルダにsd-dynamic-prompts-pnginfo-unescaper.js入れたんだけど、
これがどうやったら動くのかが分からない・・入れてwebui全部再起動するだけでいいの? あ、違う、上の質問なし、動いたよ!OKOK
(A1111に突っ込んでしまった・・恥ずかしい) やっぱり4070の無印が16GBだったら良かったんだよな
どうしてこんなことになってしまったのか… >>655
それってdynamic promptオプションのなるべくスペースや余分な記述を消して1行にするってやつ有効にしてるからじゃないの? 1111バージョン1,7で導入して更新してないんだけど
更新しないと不具合ありますか >>605
https://img.kiwi/images/2024/06/09/32171b11318b262f14134aaa39420f2b.png
bent over, touch the ground で似たようなポーズができるけど、
良いポーズがなかなか出ないので、何回も生成する事になるかも 一般的なニューラルネットワーク学習に共通する話としてはバッチサイズは学習結果に影響ある
ざっくりいうと理論的には小さいバッチサイズのほうがより汎化性が上がる=柔軟性の高いモデルがやすいらしい
SDにおけるLoRAとかの学習において気にする度差が出るのかはわからんけど >>651
ありがとう
同時に作成してるメタデータのテキストファイル
こっちをよく参照するからここを修正できるとありがたい
あと、仕様変更の話ってどこにある?
なぜ、こんな事してしまったのだろ?気になる A1111にMultiGPU来ないかな
webuiを複数cloneすればいいだけだが同じプロンプトなら一回の操作で済ませたい >>645
dimを下げて低学習レートで回数多く廻すって聞いた >>661
バッチサイズは、学習結果・学習速度・学習率に影響するのは確かだけど、画風や絵柄だけに特に影響するというような特定の要素ベクトルへの偏りはないと思われ
行為やポーズだけを学習させたい場合テキストエンコーダー強め、U-NET弱めがいいってのは経験上分かってんだけどね
だけどどうやっても絵柄も影響する。まぁ現状の学習環境では出来ないんだろうなぁ 学習でのバッチは”キャラlora”だと顔が全然似なくなるので1以外にはしないなぁ
経験則でしかないけど、1.5でもXLでも
時短のためにできれば極限まで上げたいんだけど・・
ポーズとかスライダー系のloraならあげても問題ないのかな、作ったことないのでわからないが >>668
バッチサイズ上げても顔が似ないって事は無いよ。ただバッチサイズを上げると学習率がガンガン下がるので学習率を上げないと学習の効果自体が下がる
学習率は上げすぎると学習自体が破綻する(絵が壊れてくる)ので、おのずとバッチサイズも上限が出てくる
バッチサイズは上げられれば上げられるだけいいというものではないかな Pony用のLoraを自作したくて、前スレにあった「Kohya_lora_trainer」を用いて学習開始した際以下のようなエラーメッセージが表示されました
ModuleNotFoundError: No module named 'torchvision'
「pip list」で該当モジュールを見ると「torchvision 0.17.2」と表示されたのでインストール自体はされていて、
恐らくバージョンが違うということなのかと思ったのですが・・・ではどのバージョンを適用するのか、というのが分かりませんでした
Lora作成もPythonも初めて触るので、ここからどう問題調査すれば良いのか分からず、教えて欲しいです >>645
コピー機学習を応用するってどこかで読んだ気がする
出したくない絵柄を学習したLoRAをモデルとマージ
そのマージモデルを使って出したいポーズのLoRA作成
LoRAが覚えるのはモデルに無いものっていうのを利用した学習方法らしい >>605
top-down bottom-upかな?
でもLoRAが早いと思う >>669
具体的にどのくらいがいいの?batch4ならlrも4倍くらい?経験則で
>>673
こわー
こういうのってcomfyUI始まって以来初めてかな? 有名なカスタムノード以外は避けるか、
aiにソース読み込ませてチェックするかだな >>673
じっさいコンテナ(Dockerとか)はこういうセキュリテイ面だけでなく、
環境構築がすごく楽になるって点でもお勧めだけどね 外部ツールは楽しみもあるけどこういう事もあるから怖いw
ちんぽの先から我慢汁漏洩 情報も漏洩 俺達ネラー老兵 今日もブン回すぜ生成AI >>673
マルウェア仕込む奴出て来たのかよ勘弁してくれ
こちとらエロを楽しみたいだけなんだ >>674
責任持てないけど、バッチサイズが倍なら学習率1.5倍くらいにしていいと思う
0.001がデッドゾーン。悪影響の方が大きい気がする
あくまで個人的感触でソース・根拠なしね >>670
sd−scriptはインストールできとるんか? >>643
中国で2080を11GBか12の奴を倍にして販売してるね。 >>670
俺も本当に2日前くらいにLora作成でこけてたけどsd−scripts周りが一番躓いたからこの辺じゃないかな
・python 3.10.6をインストールする(他のverじゃインストール始まらなかった)
・sd−scriptsインストールする際にcmdがpythonって出て止まる場合はpythonって入力する項目をpyにする(Kohya_lora_trainerだとsd−scriptsインストールする時にpythonをpyにするチェックボックスがある)
というかちゃんとsd−scriptsのreadme読めば全部書いてたわ
https://github.com/kohya-ss/sd-scripts/blob/main/README-ja.md >>670
「SD-Scriptのインストール」がツール内の「インストール」ボタンによって
venvフォルダが作成されるという認識で合っているならインストールはされています
なお、書き込んだ後再び調べてバージョンを合わせられた事で該当エラーは超えられました
超えた先で今度は「xformersがインストールされていないようです」というエラーが出てしまっています
連続してエラーが出て、エラーが起こった際にググって見つかった対処法とかガンガン試していたので、その過程で何かしら環境を壊してしまった感じがします >>685
ドキュメント情報ありがとうございます。そちらを見つつ操作していたんですが
エラー改善しなかったのでpython 3.10.6をインストールするのを自分も試してみようと思います Forge終わりらしいからとりあえずA1111のv1.9.4をクリーンインストールしたんだけどBilingual Localizationがまともに動かない…
・ほとんど全ての項目が英語のまま、ごく一部(Danbooru タグアップサンプラーなど)のみBilingual表示される
スクショ:
https://i.ibb.co/1qhzLww/Bilingual.png
・User interface→Localizationは「None」にしている
・Bilingualじゃない日本語化はできる(Bilingual〜を無効にしてUser interface→Localizationを「ja-JP」)
・エラー表示などは特に無い
みんなはできてる?おま環? ■ このスレッドは過去ログ倉庫に格納されています