【StableDiffusion】AIエロ画像情報交換44
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured まあ4090とか最上位欲しいのは分からなくもないけど人それぞれの予算とか電気代とかの考えとかってもんがあるからそこを無視するアドバイザーなんて必要ないわけでね
1番上を買えば終わりとかそこが分かってれば相談しにすら来ないわけでよぉ…って感じ 恥丘(恥骨)のラインにこだわる絵が少ないのも時代かなぁ
あっさりした股間ばかりで・・・なにかいい手はありませんか? マシンパワーに拘るのは良いがt2iからアップスケールまで一度に全部処理する非効率は方法とかも改めるといいよ
処理方法やstepsの効果を調べることで時間は大幅に節約できる ロリ系の学習やらしたいんだったらローカル環境整えるのがベストなんだろうけど普通にファインチューンやらしたいんだったらRunPodとかで4090借りた方が良いわ
毎時百円程度で電気代も故障も室温も気にしないで良いのは強い 学習ならLinux環境でやれば速度は2〜3倍は速くなるとこのスレで言う人がいたね 4070だけどtiledVAE使わんとメインメモリスワップが入って激遅、
使うと2秒増加になる処理があって
VRAM使用量見ると14GBぐらいなので16GBあればいいのにと思うことはよくある そこでRX7900XT(X)
今ならWSLで動くしな >>476
アップルビジョンのが軽いような…
解像度半分ぐらいだし使った事無いのに適当な言ってない? >>518
何買うか知らんけど今年の秋から冬に発売されるのはハイエンドのみでミドルハイ〜ミドルは来年春だぞ ときどき投げ売りされるintel arc a770 16GB
3万で16GBはこれだけだろう なお使い勝手は悪い ひさしぶりに触ってるけど動画以外はあんまり革新的な変化はない感じか >>530
Radeon使いまでぶん殴るの辞めてもらっていいっすか😭😭 >>526
そら初めて買うからな
出来れば安くて軽くてが良いけど予算4-5万以内だから選択肢としては限られてくるんだわ >>529
今WSL2で一部Radeonが生成AIも対応してる Radeon 8GBはComfyUI使ってもSDXL使えないSD1.5専用カードなんだよね
普段こういうこと言わないけどPonyってキャッキャしているお前らがいつも羨ましいって思っている😭😭 そのグヌヌ言ってる時間でアルバイトでもしたらとっくにnvグラボ買えてると思うよ LoRA学習をlinuxでやるとwinの半分の時間で済むらしいので挑戦してみた
3060 12G
SDXL
画像41枚 繰り返し1 エポック10 バッチ1
win11=17分42秒
linux=10分44秒
半分にはならなかったがこれだったらlinux導入する意味あると思う WSL2使っても殆ど変わらないみたいよ
やっぱりネイティブじゃないとね ガチじゃないからarc WSLだけど、アップデートとサイズの調整でおかしかったところが直って一応は出来るようになってる
対応が出遅れるしトラブってもコミュニティが薄くて相談も出来ない アップスケール極めたので情報共有するで>>148の続きや
アップスケールの基本
書き込み(ノイズ)量:元絵に追加される情報。多いと破綻する。多いと線などが増え詳細な絵になるが、元絵の再現性が落ちる。低いとその逆。
Denoise値:高いと書き込み(ノイズ)量が増える。低いとその逆。
CFGScale値:高いと書き込み(ノイズ)量が増えるが、線が汚くなる。低いとその逆。アニメの人物絵だと7〜8が最適で12が限度かな?
steps値:高いと書き込み(ノイズ)量が減る。低すぎるとノイズまみれの汚い絵になる。
汚いノイズが消えるギリギリの低いsteps値を狙うと、書き込み(ノイズ)量が増える。steps値が高いほど綺麗になるは嘘。詳細は>>148
Upscale by値:拡大率。高いほど破綻しやすくなり、元絵再現性も落ちる。
【2倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 UltimateSDのみ Denoise0.1_steps10_CFG7
4枚目 書き込み量重視 CN Tile + UltimateSD Denoise1.0_steps25_CFG7
5枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.6_steps10_CFG10
6枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.5_steps10_CFG18
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/dQ6FJjW/02-2x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/ykmL3Zd/03-2x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/HTnqMct/04-2x-Denoise1-0-steps25-CFG7.png
https://i.ibb.co/drV32wh/05-2x-Denoise0-6-steps10-CFG10.png
https://i.ibb.co/cDcs7Jj/06-2x-Denoise0-5-steps10-CFG18.png >>544の続き
【4倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 2段階拡大 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 → Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 いきなり4倍 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
4枚目 元絵再現性重視 いきなり4倍 UltimateSDのみ Denoise0.1_steps10_CFG7
5枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG12
6枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG10
7枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.5_steps10_CFG18 → Denoise0.3_steps10_CFG7
8枚目 バランス型 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.1_steps10_CFG7
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/f8Rr5Y7/02-x2x2-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/64MD1dn/03-4x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/7b7s9wf/04-4x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/6BDLgcG/05-2x2x-Denoise0-4-steps10-CFG12.png
https://i.ibb.co/f2ZQLxM/06-2x2x-Denoise0-4-steps10-CFG10.png
https://i.ibb.co/2MjYhZx/07-2x2x-Denoise0-3-steps10-CFG7.png
https://i.ibb.co/y4mSxYM/08-2x2x-Denoise0-1-steps10-CFG7.png
まとめ
4倍アップスケールは2倍に比べて激しく破綻しやすい。いきなり4倍で書き込み(ノイズ)量増やすのは無理。
元絵再現性重視なら、いきなり4倍でDenoise0.1 CFG7 steps10で良い。2段階拡大は時間の無駄。元絵再現性を重視ならCN Tileは不要。
元絵再現しつつ書き込み(ノイズ)量増やすならCN Tileは必須。2倍2倍で段階を踏むこと。
5枚目のDenoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG7〜12は、今回の元絵だと2/3の確率で右手首が増えた。二段階目は破綻なし。
元絵やSampler(例:eulerやDPM++等)によっては安定性が激変する。
実用性を考えると6枚目のDenoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG7〜10が安定性しているかも。
個人的には書き込み量を控えた8枚目のバランス型が好き。書き込み量とはノイズだから、多すぎると汚いので程々に。
上記の設定値はあくまで参考程度にして欲しい。元絵の解像度が違ったり、特に実写風では設定値は全く違うものになると思う。 おっつん
オンラインサービスやとsteps多いの方がお得な気がして最大にしてたわ ワイの普段のアップスケールワークフローは>>149やが
ワークフローの設定に間違いがあったので訂正しておく
入力は「widlcard_text」ではなく「populated_text」が正解
https://i.ibb.co/YLF8Rzf/Impact-Wildcard-Encode.png >>539
VM上のLinuxでもwinより早い可能性ってあるんだろうか >>540
あ、変わらんのか
やっぱネイティブだな >>547
このトグルっていじった覚えないのに
いつもいつの間にかfixedになってるの何なんだろな🤔❓ Linuxって余り知らんけど
今はドライバとかあってグラボの性能フルに使えるんだな
ちょっと興味あるかも >>550
自分の場合だとワークフロー読み込ませるために画像突っ込んだら
何故か勝手にfixedになっていたね。バグかな アップスケーラーなら ComfyUI で HiRES Fix Script 使って latent 空間で ttl_nn.SDXL モデルを使って 1.5x を2回回して、
そのあと一枚絵超解像で 2x でも 4x でもするのが破綻が無くて一番きれいに出来るって正解が出てる >>551
問題は自分が今持ってるPCをubuntuにして普段使いがどうなるか?ってところかと
firefoxデフォで入ってるのはありがたいけど、他が大変だし・・
まさかAI学習でいちいち再起動とかもちょっとね Pony系の3文字を試してるけどホント難しいわ、使うモデルでも変わってくるからお気に入りのモデル特化で試行錯誤するしかない。
あとEbaraPony専用Loraでエッジ強調、色味強調、影強調の3種類がCivitaiにあったから導入してみたけど良い感じだね、ありがたいわ。 普段はYouTubeしか見ないし別にubuntuでの良いなって思い始めている
それにwin10サポート切れるし窓と縁を切っても良いな win11がゴミカスで常時10-20%ぐらいデバフ食らってるからその分早くなるのはわかるけど
なんで学習は倍近く速いんだろうなlinux
昔のteslaみたいにlinux向けドライバだけ色々アンロックされてんの? >>558
win11のdefenderはすべてのデータを常時監視してる
リアルタイムスキャンを一時的に止めるとファイルの読み書きが早くなる そういうのって同じような画像数百数千数万枚でマンネリってるやつ向けだから
そのまま見せられても…間違い探しかな?
になるのはしゃあない シャープネス系の拡張機能FreeUとかもありでは?ワイは使ってないけど いや、確かに分かりにくかったゴメンよ。
大きい画面で見たら割とすぐ分かる程度には違う…と思う。
生成画像ってほんの些細な違いで満足度がアップするから影強調Lora助かるわ。 たまーにキャラモデルは何も指定しなくてもブロンズヘアー、プロンプトでもブロンズヘアーを指定しているという状態なのに
黒髪や銀髪になったりするのってなんなんだろうな
キーワードが多いと発生するのはなんとなく分かったけど、キーワードを多くすると発生率が上がるとかでもないし
多くてせいぜい5%くらいなんだけど髪色以外は良い感じの絵とかになるとちょっと精神的ダメージ受けちゃう >>567
元データの「ブロンズヘア」タグが付いた絵の中に黒髪や銀髪のキャラも含まれてるんだろう
AI絵は思い通りの絵を出そうとせず、AI先生にお任せする気持ち、出されたものを食べる精神
でも「赤ちゃん産んで」ってお願いしたのにヘンな何かを出産されるとさすがにへこむ
https://files.catbox.moe/w48g03.jpg >>568
ミギー産んでて草
元がアニメキャラだから学習データの可能性は考えてなかったけど
学習元で別キャラが含まれててタグ消し忘れたり、塗りの影響で白めに認識されたりしたらそういう可能性もあるのか
髪色以外全く不満ないモデルなんだけどな、今の出力画像をベースに自分でモデル作ってみるかぁ。へっぽこ化しそうだが Linuxは環境と目的によってだいぶ差があるみたいやな
うちはwsl2に入れたubuntuはバッチサイズ増やしたガチャやsdxlのlora学習やら実用ではほとんど効果なかった
実機は10種類ほど試した中ではfedoraが頭一つ抜けて速かった。4080でアスカベンチ11.1秒はモチベ上がる >>568
出産は何人か挑戦してるけど成功してる人少ないな
大抵はグチャってなってる >>567
ブロンズヘアってマジでブロンズ?
ブロンド(blonde)じゃなくてブロンズ(bronze)?
ブロンズならちょっと学習量少ないのかも
ブロンドは実は幅が広くてプロンプトの意味が薄れてる感はある >>566
細部に拘る気持ちは分かるわ
こんなん誰にも刺さんねーだろ。ってのがクる時ある
マイナー&細部過ぎる拘りって誰かのLora普通無いし、自分でLora作っても再現無理じゃね?って気持ちになってて挑戦すらしてないわ……沼にしか思えん
細部変なアクセとか表情表現の中の細かい違いとか >>574
へ〜そんな違いが。あれ、多分誤字だと思うんだけど幅広いのはどっちなんだ?
確認したら指定は「bronze hair」この指定はキャラモデル配布にあるサンプルにあった訳じゃなくて自分で指定したから
キャラモデル的に「bronze」か「bronde」のどっちが正確かは分からないや
元々色の指定は眼の色がぶれることがあって眼の色を入れるようにして、その時ついでに髪もたまにぶれるし入れるか〜って基本入れるようにしたのよね
自分で決める時は結構この手の髪色はブロンズかブロンドか薄茶かいつも迷ってるわ 出産は学習してないからプロンプトでは無理だよ
LoRA使ってすらまるで安定しないから概念自体を持ってないっぽい
だからLoRAを作るにしてもタグ付けの時点で相当研究しないと精度の高いものは出来ない
何を差分として認識させるかを見極める必要があるからね(まだ見つかってないと思う)
そこらのキャラや衣装LoRAとは訳が違う >>576
ブロンド、要は金髪が幅が広すぎると思う
黄色も白も銀もそれこそブロンズも混ざってる
platinum blondeとかって指定はあんま効かない
(まあググってみると色んな黄色味出てくるんでお察しではあるが) >>578
なるほど、ありがとう
確かに極端な変化が起こるのは金髪系なだけな気がする
そうすると自作するなら意識するのは光のあて具合かな。金髪はランダムにすると幅広く認識されそうだし リクエストで出産停止っていうのきたことあるしLORAもあったな >>579
まあ結局のところ金属色は光源で色味変わっちゃうんで思ったんと違う色になりがち
いっそのことイエローだとかブラウンだとか近しいソリッドカラーに艶指定がいいんじゃないかな
すまんそもそもどんなの期待してるか分からんので的外れなこと言ってたら忘れておくれ >>568
ヤギと交配するとたまにこんなの生まれるよね すっごい今更だけどebaraで何も考えず1024×1024でやってたけどアップスケール1.5で1200×1920に合わせても破綻せずちゃんと出るのな
縦画面でスマホで撮影してるみたいでこれはこれでありだな へえアスペクト比違っても破綻しないんだな面白い
まあ1.5倍は倍率低くて破綻少ないのもあるけど pony系でaqua eyesとかaqua hairとか指定すると必ずこのすばの女神が召喚される…
ネガにaqua \(konosuba\)入れても消えないんだけど
影響消す方法ありませんか? 影響消そうとするよりもブルーアイとか水色アイで妥協した方が早いのでは そのプロンプト避けるか
目だけのAD使うか専用にLoRAつくるか
モデルの問題だから解決手段が結構少ない >>589
アクアを学習したLoRAをマイナスにかけたら モデル自身にアクアが学習されているならネガに別のLora入れて効果あるのかな? aqua hairは結構使うけど駄女神が出てきたことは一度もないな
チェックポイントモデルの違いか、ponyの標準のネガティブが実は弾いてくれてるとかなのかな >>594
aquaという単語を避けるって方法もあるな。青系のプロンプトって実はとても多いし
https://note.com/krmr_aia/n/n8c477b42e01a
個人的に青系ではIndigo colorが好き エロい人がforgeをフォークして更新してくれたっぽ forgeが引き続き更新されるならいいことじゃないか
ComfyUIは代わりとしてはちょっと難しいからねえ
慣れちゃえばComfyUIの方が楽だけど
自分色に染めた世界一のUIが作れるんだよ 詳しい人教えて欲しいんだが実用レベルの動画生成AIがローカルで
出来たとして1分動画だと今の家庭用最高峰のGPUで対応できるかね? >>0145
とても気になります。
ブルマはスク水、ハイレグばかりになるので、
よろしければご教示して頂きたい。 >>572
WSL2でもWindowsより確実に高速だから意味はあるよ そもそも実用レベルがどこまでのクオリティと生成速度で言ってるのかがわからん
アニメとリアルでも全然違うし コンシューマ最上位のGPUで対応できないものを
「実用レベルの動画生成AIがローカルで出来た」
とは言わないんで質問がおかしい アプデの方法がよくわからない…。ダウンロードしてwebuiフォルダ内に上書きなんかな? >>609
今のforge環境を引き継ぎたいなら簡単なのはredditの-Vinzero-の返信にあるgitコマンドそのまま
gitコマンド分からないなら今の環境に上書きするんじゃなくてダウンロードした新しい環境に必要なものだけ上書きを推奨
なんも分からんなら変に上書きとかせずに新しい環境ではじめた方がいい(できればgit checkoutで) >>610
ありがとう、また容量くっちゃうなぁ。AIは大変だ。 >>603
そりゃklingとかsoraとかクオリティすげー高いやつだよ
あーいうのはローカルで出来るようになると思う?
ちな俺rtx4090持ってるよ
あくまでも感想でいいよ 全くのクソ質問やな。質問と言っていいかどうか知らんが
聖水で顔洗って出直してきたほうがええで >>613
どっちも世界トップレベルの企業が出したものだし個人環境で早々真似はできないんじゃないかな
技術が一般公開される訳でもないし、仮に技術提供されても要求されるハード面も4090単体とかそういうレベルではなさそう 初期のmorphstudioなんて10秒の動画を同時に10個生成できてたんだぜ
さすがに正式版になってからは5秒に減ったけど
とてもじゃないが太刀打ちできないだろ forge開発引き継がれるんだいいね
問題無さそうなら乗り換えよう >>613
生成にかかる時間を無視できるならいけるよ
問題はそういう技術がローカルに来てくれる可能性が今のところないし
倫理的な面から見てもこれから先に来る可能性もほとんどないところ
簡単に短時間でできるようになると絶対に犯罪に使う人が続出する ■ このスレッドは過去ログ倉庫に格納されています