【StableDiffusion】AIエロ画像情報交換44
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>488
どっちも使って失敗した上で聞いたんやで。初心者やから単純になんかしらダメだっただけっぽいな ありがとうございます、今使ってるPCが調子悪いのでどうせなら買い替えようと思ってましたので、
思い切って16GBのグラボのついたパソコン買います >>509
おお、ありがとう。
1個づつ効果試してみる、使ってるモデルによっても変わってくるだろうしほんと画像生成は沼だなぁ >>508
RTX 5090が出るまで待て
もう少しだから ゲームで妥協するならともかく、
確実に生成スピードがあがって
自分の時間という代えがたいものが
浮くので最高のグラボ買っても損しないよ 生成スピードは確かにそうだけどマネタイズする気でもないなら自身の予算に合わせればいいからこの手の半分脳死話付き合わなくていいと思うわ >>512
全くその通りだよね
時間はお金では買えないんだから
それに画像生成以外もそうだけど
ゲームやら色々活用の方法はあるわけで
最悪の場合売ってしまってもいいし 生成秒数比較なんか見ると4090欲しいな〜とは思うけど
そのスペックにするならメモリも増設したいしSSDも足りなくなるし多分電源も変えた方が良いってなって結局一式買いそうだ
まあアニメーション周りがの技術が確立してきたらそこで考えよかな 24GBとか28GBの半端さがどうしても気になってしまうワイプログラマ
32GBが来たら本気出す 去年3060の12Gから始めたけど秋頃出るであろう5000系に買い替えるつもり
また金が飛ぶが気にしない まあ4090とか最上位欲しいのは分からなくもないけど人それぞれの予算とか電気代とかの考えとかってもんがあるからそこを無視するアドバイザーなんて必要ないわけでね
1番上を買えば終わりとかそこが分かってれば相談しにすら来ないわけでよぉ…って感じ 恥丘(恥骨)のラインにこだわる絵が少ないのも時代かなぁ
あっさりした股間ばかりで・・・なにかいい手はありませんか? マシンパワーに拘るのは良いがt2iからアップスケールまで一度に全部処理する非効率は方法とかも改めるといいよ
処理方法やstepsの効果を調べることで時間は大幅に節約できる ロリ系の学習やらしたいんだったらローカル環境整えるのがベストなんだろうけど普通にファインチューンやらしたいんだったらRunPodとかで4090借りた方が良いわ
毎時百円程度で電気代も故障も室温も気にしないで良いのは強い 学習ならLinux環境でやれば速度は2〜3倍は速くなるとこのスレで言う人がいたね 4070だけどtiledVAE使わんとメインメモリスワップが入って激遅、
使うと2秒増加になる処理があって
VRAM使用量見ると14GBぐらいなので16GBあればいいのにと思うことはよくある そこでRX7900XT(X)
今ならWSLで動くしな >>476
アップルビジョンのが軽いような…
解像度半分ぐらいだし使った事無いのに適当な言ってない? >>518
何買うか知らんけど今年の秋から冬に発売されるのはハイエンドのみでミドルハイ〜ミドルは来年春だぞ ときどき投げ売りされるintel arc a770 16GB
3万で16GBはこれだけだろう なお使い勝手は悪い ひさしぶりに触ってるけど動画以外はあんまり革新的な変化はない感じか >>530
Radeon使いまでぶん殴るの辞めてもらっていいっすか😭😭 >>526
そら初めて買うからな
出来れば安くて軽くてが良いけど予算4-5万以内だから選択肢としては限られてくるんだわ >>529
今WSL2で一部Radeonが生成AIも対応してる Radeon 8GBはComfyUI使ってもSDXL使えないSD1.5専用カードなんだよね
普段こういうこと言わないけどPonyってキャッキャしているお前らがいつも羨ましいって思っている😭😭 そのグヌヌ言ってる時間でアルバイトでもしたらとっくにnvグラボ買えてると思うよ LoRA学習をlinuxでやるとwinの半分の時間で済むらしいので挑戦してみた
3060 12G
SDXL
画像41枚 繰り返し1 エポック10 バッチ1
win11=17分42秒
linux=10分44秒
半分にはならなかったがこれだったらlinux導入する意味あると思う WSL2使っても殆ど変わらないみたいよ
やっぱりネイティブじゃないとね ガチじゃないからarc WSLだけど、アップデートとサイズの調整でおかしかったところが直って一応は出来るようになってる
対応が出遅れるしトラブってもコミュニティが薄くて相談も出来ない アップスケール極めたので情報共有するで>>148の続きや
アップスケールの基本
書き込み(ノイズ)量:元絵に追加される情報。多いと破綻する。多いと線などが増え詳細な絵になるが、元絵の再現性が落ちる。低いとその逆。
Denoise値:高いと書き込み(ノイズ)量が増える。低いとその逆。
CFGScale値:高いと書き込み(ノイズ)量が増えるが、線が汚くなる。低いとその逆。アニメの人物絵だと7〜8が最適で12が限度かな?
steps値:高いと書き込み(ノイズ)量が減る。低すぎるとノイズまみれの汚い絵になる。
汚いノイズが消えるギリギリの低いsteps値を狙うと、書き込み(ノイズ)量が増える。steps値が高いほど綺麗になるは嘘。詳細は>>148
Upscale by値:拡大率。高いほど破綻しやすくなり、元絵再現性も落ちる。
【2倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 UltimateSDのみ Denoise0.1_steps10_CFG7
4枚目 書き込み量重視 CN Tile + UltimateSD Denoise1.0_steps25_CFG7
5枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.6_steps10_CFG10
6枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.5_steps10_CFG18
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/dQ6FJjW/02-2x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/ykmL3Zd/03-2x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/HTnqMct/04-2x-Denoise1-0-steps25-CFG7.png
https://i.ibb.co/drV32wh/05-2x-Denoise0-6-steps10-CFG10.png
https://i.ibb.co/cDcs7Jj/06-2x-Denoise0-5-steps10-CFG18.png >>544の続き
【4倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 2段階拡大 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 → Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 いきなり4倍 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
4枚目 元絵再現性重視 いきなり4倍 UltimateSDのみ Denoise0.1_steps10_CFG7
5枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG12
6枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG10
7枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.5_steps10_CFG18 → Denoise0.3_steps10_CFG7
8枚目 バランス型 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.1_steps10_CFG7
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/f8Rr5Y7/02-x2x2-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/64MD1dn/03-4x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/7b7s9wf/04-4x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/6BDLgcG/05-2x2x-Denoise0-4-steps10-CFG12.png
https://i.ibb.co/f2ZQLxM/06-2x2x-Denoise0-4-steps10-CFG10.png
https://i.ibb.co/2MjYhZx/07-2x2x-Denoise0-3-steps10-CFG7.png
https://i.ibb.co/y4mSxYM/08-2x2x-Denoise0-1-steps10-CFG7.png
まとめ
4倍アップスケールは2倍に比べて激しく破綻しやすい。いきなり4倍で書き込み(ノイズ)量増やすのは無理。
元絵再現性重視なら、いきなり4倍でDenoise0.1 CFG7 steps10で良い。2段階拡大は時間の無駄。元絵再現性を重視ならCN Tileは不要。
元絵再現しつつ書き込み(ノイズ)量増やすならCN Tileは必須。2倍2倍で段階を踏むこと。
5枚目のDenoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG7〜12は、今回の元絵だと2/3の確率で右手首が増えた。二段階目は破綻なし。
元絵やSampler(例:eulerやDPM++等)によっては安定性が激変する。
実用性を考えると6枚目のDenoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG7〜10が安定性しているかも。
個人的には書き込み量を控えた8枚目のバランス型が好き。書き込み量とはノイズだから、多すぎると汚いので程々に。
上記の設定値はあくまで参考程度にして欲しい。元絵の解像度が違ったり、特に実写風では設定値は全く違うものになると思う。 おっつん
オンラインサービスやとsteps多いの方がお得な気がして最大にしてたわ ワイの普段のアップスケールワークフローは>>149やが
ワークフローの設定に間違いがあったので訂正しておく
入力は「widlcard_text」ではなく「populated_text」が正解
https://i.ibb.co/YLF8Rzf/Impact-Wildcard-Encode.png >>539
VM上のLinuxでもwinより早い可能性ってあるんだろうか >>540
あ、変わらんのか
やっぱネイティブだな >>547
このトグルっていじった覚えないのに
いつもいつの間にかfixedになってるの何なんだろな🤔❓ Linuxって余り知らんけど
今はドライバとかあってグラボの性能フルに使えるんだな
ちょっと興味あるかも >>550
自分の場合だとワークフロー読み込ませるために画像突っ込んだら
何故か勝手にfixedになっていたね。バグかな アップスケーラーなら ComfyUI で HiRES Fix Script 使って latent 空間で ttl_nn.SDXL モデルを使って 1.5x を2回回して、
そのあと一枚絵超解像で 2x でも 4x でもするのが破綻が無くて一番きれいに出来るって正解が出てる >>551
問題は自分が今持ってるPCをubuntuにして普段使いがどうなるか?ってところかと
firefoxデフォで入ってるのはありがたいけど、他が大変だし・・
まさかAI学習でいちいち再起動とかもちょっとね Pony系の3文字を試してるけどホント難しいわ、使うモデルでも変わってくるからお気に入りのモデル特化で試行錯誤するしかない。
あとEbaraPony専用Loraでエッジ強調、色味強調、影強調の3種類がCivitaiにあったから導入してみたけど良い感じだね、ありがたいわ。 普段はYouTubeしか見ないし別にubuntuでの良いなって思い始めている
それにwin10サポート切れるし窓と縁を切っても良いな win11がゴミカスで常時10-20%ぐらいデバフ食らってるからその分早くなるのはわかるけど
なんで学習は倍近く速いんだろうなlinux
昔のteslaみたいにlinux向けドライバだけ色々アンロックされてんの? >>558
win11のdefenderはすべてのデータを常時監視してる
リアルタイムスキャンを一時的に止めるとファイルの読み書きが早くなる そういうのって同じような画像数百数千数万枚でマンネリってるやつ向けだから
そのまま見せられても…間違い探しかな?
になるのはしゃあない シャープネス系の拡張機能FreeUとかもありでは?ワイは使ってないけど いや、確かに分かりにくかったゴメンよ。
大きい画面で見たら割とすぐ分かる程度には違う…と思う。
生成画像ってほんの些細な違いで満足度がアップするから影強調Lora助かるわ。 たまーにキャラモデルは何も指定しなくてもブロンズヘアー、プロンプトでもブロンズヘアーを指定しているという状態なのに
黒髪や銀髪になったりするのってなんなんだろうな
キーワードが多いと発生するのはなんとなく分かったけど、キーワードを多くすると発生率が上がるとかでもないし
多くてせいぜい5%くらいなんだけど髪色以外は良い感じの絵とかになるとちょっと精神的ダメージ受けちゃう >>567
元データの「ブロンズヘア」タグが付いた絵の中に黒髪や銀髪のキャラも含まれてるんだろう
AI絵は思い通りの絵を出そうとせず、AI先生にお任せする気持ち、出されたものを食べる精神
でも「赤ちゃん産んで」ってお願いしたのにヘンな何かを出産されるとさすがにへこむ
https://files.catbox.moe/w48g03.jpg >>568
ミギー産んでて草
元がアニメキャラだから学習データの可能性は考えてなかったけど
学習元で別キャラが含まれててタグ消し忘れたり、塗りの影響で白めに認識されたりしたらそういう可能性もあるのか
髪色以外全く不満ないモデルなんだけどな、今の出力画像をベースに自分でモデル作ってみるかぁ。へっぽこ化しそうだが Linuxは環境と目的によってだいぶ差があるみたいやな
うちはwsl2に入れたubuntuはバッチサイズ増やしたガチャやsdxlのlora学習やら実用ではほとんど効果なかった
実機は10種類ほど試した中ではfedoraが頭一つ抜けて速かった。4080でアスカベンチ11.1秒はモチベ上がる >>568
出産は何人か挑戦してるけど成功してる人少ないな
大抵はグチャってなってる >>567
ブロンズヘアってマジでブロンズ?
ブロンド(blonde)じゃなくてブロンズ(bronze)?
ブロンズならちょっと学習量少ないのかも
ブロンドは実は幅が広くてプロンプトの意味が薄れてる感はある >>566
細部に拘る気持ちは分かるわ
こんなん誰にも刺さんねーだろ。ってのがクる時ある
マイナー&細部過ぎる拘りって誰かのLora普通無いし、自分でLora作っても再現無理じゃね?って気持ちになってて挑戦すらしてないわ……沼にしか思えん
細部変なアクセとか表情表現の中の細かい違いとか >>574
へ〜そんな違いが。あれ、多分誤字だと思うんだけど幅広いのはどっちなんだ?
確認したら指定は「bronze hair」この指定はキャラモデル配布にあるサンプルにあった訳じゃなくて自分で指定したから
キャラモデル的に「bronze」か「bronde」のどっちが正確かは分からないや
元々色の指定は眼の色がぶれることがあって眼の色を入れるようにして、その時ついでに髪もたまにぶれるし入れるか〜って基本入れるようにしたのよね
自分で決める時は結構この手の髪色はブロンズかブロンドか薄茶かいつも迷ってるわ 出産は学習してないからプロンプトでは無理だよ
LoRA使ってすらまるで安定しないから概念自体を持ってないっぽい
だからLoRAを作るにしてもタグ付けの時点で相当研究しないと精度の高いものは出来ない
何を差分として認識させるかを見極める必要があるからね(まだ見つかってないと思う)
そこらのキャラや衣装LoRAとは訳が違う >>576
ブロンド、要は金髪が幅が広すぎると思う
黄色も白も銀もそれこそブロンズも混ざってる
platinum blondeとかって指定はあんま効かない
(まあググってみると色んな黄色味出てくるんでお察しではあるが) >>578
なるほど、ありがとう
確かに極端な変化が起こるのは金髪系なだけな気がする
そうすると自作するなら意識するのは光のあて具合かな。金髪はランダムにすると幅広く認識されそうだし リクエストで出産停止っていうのきたことあるしLORAもあったな >>579
まあ結局のところ金属色は光源で色味変わっちゃうんで思ったんと違う色になりがち
いっそのことイエローだとかブラウンだとか近しいソリッドカラーに艶指定がいいんじゃないかな
すまんそもそもどんなの期待してるか分からんので的外れなこと言ってたら忘れておくれ >>568
ヤギと交配するとたまにこんなの生まれるよね すっごい今更だけどebaraで何も考えず1024×1024でやってたけどアップスケール1.5で1200×1920に合わせても破綻せずちゃんと出るのな
縦画面でスマホで撮影してるみたいでこれはこれでありだな へえアスペクト比違っても破綻しないんだな面白い
まあ1.5倍は倍率低くて破綻少ないのもあるけど pony系でaqua eyesとかaqua hairとか指定すると必ずこのすばの女神が召喚される…
ネガにaqua \(konosuba\)入れても消えないんだけど
影響消す方法ありませんか? 影響消そうとするよりもブルーアイとか水色アイで妥協した方が早いのでは そのプロンプト避けるか
目だけのAD使うか専用にLoRAつくるか
モデルの問題だから解決手段が結構少ない >>589
アクアを学習したLoRAをマイナスにかけたら モデル自身にアクアが学習されているならネガに別のLora入れて効果あるのかな? aqua hairは結構使うけど駄女神が出てきたことは一度もないな
チェックポイントモデルの違いか、ponyの標準のネガティブが実は弾いてくれてるとかなのかな >>594
aquaという単語を避けるって方法もあるな。青系のプロンプトって実はとても多いし
https://note.com/krmr_aia/n/n8c477b42e01a
個人的に青系ではIndigo colorが好き エロい人がforgeをフォークして更新してくれたっぽ forgeが引き続き更新されるならいいことじゃないか
ComfyUIは代わりとしてはちょっと難しいからねえ
慣れちゃえばComfyUIの方が楽だけど
自分色に染めた世界一のUIが作れるんだよ 詳しい人教えて欲しいんだが実用レベルの動画生成AIがローカルで
出来たとして1分動画だと今の家庭用最高峰のGPUで対応できるかね? >>0145
とても気になります。
ブルマはスク水、ハイレグばかりになるので、
よろしければご教示して頂きたい。 >>572
WSL2でもWindowsより確実に高速だから意味はあるよ そもそも実用レベルがどこまでのクオリティと生成速度で言ってるのかがわからん
アニメとリアルでも全然違うし ■ このスレッドは過去ログ倉庫に格納されています