【StableDiffusion】AIエロ画像情報交換44 	
■ このスレッドは過去ログ倉庫に格納されています
 !extend:checked:vvvvv:1000:512 
 !extend:checked:vvvvv:1000:512 
  
 AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ 
 単なる娘自慢も可、だが児ポはダメゼッタイ! 
  
 前スレ 
 【StableDiffusion】AIエロ画像情報交換43  
 https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/ 
  
 【初めての人は読んでね】テンプレまとめ・編集コード「5ch」 
 https://rentry.co/pinkaiero 
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured  LORA作成はVRAMは8あればなんとか。動画は未知数、今後出てくるものによって変わりそう 
 どちらもVRAMが多いほど速度面では有利な事が多いので、これから購入予定&やり続けられる自信があるなら相応のスペック用意してもいいかもね 
 ちなみに画像の並行生成なんかする場合はメインメモリの方も最低64くらい欲しい  動画を作るなら12はあった方がいいけどメインPCを兼ねてて裏で動画とか見てたいなら16を勧める 
 12だと全部動画生成に持って行かれて生成中は他をまともに出来ないから  >>494 
 3文字いろいろ試したけど、これっ!てのが見つからなかったから良かったら参考に教えて欲しいです  >>488 
 どっちも使って失敗した上で聞いたんやで。初心者やから単純になんかしらダメだっただけっぽいな  ありがとうございます、今使ってるPCが調子悪いのでどうせなら買い替えようと思ってましたので、 
 思い切って16GBのグラボのついたパソコン買います  >>509 
 おお、ありがとう。 
 1個づつ効果試してみる、使ってるモデルによっても変わってくるだろうしほんと画像生成は沼だなぁ  >>508 
 RTX 5090が出るまで待て  
 もう少しだから  ゲームで妥協するならともかく、 
 確実に生成スピードがあがって 
 自分の時間という代えがたいものが 
 浮くので最高のグラボ買っても損しないよ  生成スピードは確かにそうだけどマネタイズする気でもないなら自身の予算に合わせればいいからこの手の半分脳死話付き合わなくていいと思うわ  >>512 
 全くその通りだよね  
 時間はお金では買えないんだから  
 それに画像生成以外もそうだけど 
 ゲームやら色々活用の方法はあるわけで 
 最悪の場合売ってしまってもいいし  生成秒数比較なんか見ると4090欲しいな〜とは思うけど 
 そのスペックにするならメモリも増設したいしSSDも足りなくなるし多分電源も変えた方が良いってなって結局一式買いそうだ 
 まあアニメーション周りがの技術が確立してきたらそこで考えよかな  24GBとか28GBの半端さがどうしても気になってしまうワイプログラマ 
 32GBが来たら本気出す  去年3060の12Gから始めたけど秋頃出るであろう5000系に買い替えるつもり 
 また金が飛ぶが気にしない  まあ4090とか最上位欲しいのは分からなくもないけど人それぞれの予算とか電気代とかの考えとかってもんがあるからそこを無視するアドバイザーなんて必要ないわけでね 
 1番上を買えば終わりとかそこが分かってれば相談しにすら来ないわけでよぉ…って感じ  恥丘(恥骨)のラインにこだわる絵が少ないのも時代かなぁ 
 あっさりした股間ばかりで・・・なにかいい手はありませんか?  マシンパワーに拘るのは良いがt2iからアップスケールまで一度に全部処理する非効率は方法とかも改めるといいよ 
 処理方法やstepsの効果を調べることで時間は大幅に節約できる  ロリ系の学習やらしたいんだったらローカル環境整えるのがベストなんだろうけど普通にファインチューンやらしたいんだったらRunPodとかで4090借りた方が良いわ 
 毎時百円程度で電気代も故障も室温も気にしないで良いのは強い  学習ならLinux環境でやれば速度は2〜3倍は速くなるとこのスレで言う人がいたね  4070だけどtiledVAE使わんとメインメモリスワップが入って激遅、 
 使うと2秒増加になる処理があって 
 VRAM使用量見ると14GBぐらいなので16GBあればいいのにと思うことはよくある  そこでRX7900XT(X) 
 今ならWSLで動くしな  >>476 
 アップルビジョンのが軽いような… 
 解像度半分ぐらいだし使った事無いのに適当な言ってない?  >>518 
 何買うか知らんけど今年の秋から冬に発売されるのはハイエンドのみでミドルハイ〜ミドルは来年春だぞ  ときどき投げ売りされるintel arc a770 16GB  
 3万で16GBはこれだけだろう なお使い勝手は悪い  ひさしぶりに触ってるけど動画以外はあんまり革新的な変化はない感じか  >>530 
 Radeon使いまでぶん殴るの辞めてもらっていいっすか😭😭  >>526 
 そら初めて買うからな 
 出来れば安くて軽くてが良いけど予算4-5万以内だから選択肢としては限られてくるんだわ  >>529 
 今WSL2で一部Radeonが生成AIも対応してる  Radeon 8GBはComfyUI使ってもSDXL使えないSD1.5専用カードなんだよね 
 普段こういうこと言わないけどPonyってキャッキャしているお前らがいつも羨ましいって思っている😭😭  そのグヌヌ言ってる時間でアルバイトでもしたらとっくにnvグラボ買えてると思うよ  LoRA学習をlinuxでやるとwinの半分の時間で済むらしいので挑戦してみた 
  
 3060 12G 
 SDXL 
 画像41枚 繰り返し1 エポック10 バッチ1 
 win11=17分42秒 
 linux=10分44秒 
  
 半分にはならなかったがこれだったらlinux導入する意味あると思う  WSL2使っても殆ど変わらないみたいよ 
 やっぱりネイティブじゃないとね  ガチじゃないからarc WSLだけど、アップデートとサイズの調整でおかしかったところが直って一応は出来るようになってる 
 対応が出遅れるしトラブってもコミュニティが薄くて相談も出来ない  アップスケール極めたので情報共有するで>>148の続きや 
  
 アップスケールの基本 
 書き込み(ノイズ)量:元絵に追加される情報。多いと破綻する。多いと線などが増え詳細な絵になるが、元絵の再現性が落ちる。低いとその逆。 
 Denoise値:高いと書き込み(ノイズ)量が増える。低いとその逆。 
 CFGScale値:高いと書き込み(ノイズ)量が増えるが、線が汚くなる。低いとその逆。アニメの人物絵だと7〜8が最適で12が限度かな? 
 steps値:高いと書き込み(ノイズ)量が減る。低すぎるとノイズまみれの汚い絵になる。 
 汚いノイズが消えるギリギリの低いsteps値を狙うと、書き込み(ノイズ)量が増える。steps値が高いほど綺麗になるは嘘。詳細は>>148 
 Upscale by値:拡大率。高いほど破綻しやすくなり、元絵再現性も落ちる。 
  
 【2倍アップスケール】 
 1枚目 SD1.5 元絵 512x768 
 2枚目 元絵再現性重視 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 
 3枚目 元絵再現性重視 UltimateSDのみ    Denoise0.1_steps10_CFG7 
 4枚目 書き込み量重視 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 
 5枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.6_steps10_CFG10 
 6枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.5_steps10_CFG18 
 https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png 
 https://i.ibb.co/dQ6FJjW/02-2x-Denoise0-1-steps10-CFG7.png 
 https://i.ibb.co/ykmL3Zd/03-2x-Ultimate-SD-Denoise0-1-steps10-CFG7.png 
 https://i.ibb.co/HTnqMct/04-2x-Denoise1-0-steps25-CFG7.png 
 https://i.ibb.co/drV32wh/05-2x-Denoise0-6-steps10-CFG10.png 
 https://i.ibb.co/cDcs7Jj/06-2x-Denoise0-5-steps10-CFG18.png  >>544の続き 
 【4倍アップスケール】 
 1枚目 SD1.5 元絵 512x768 
 2枚目 元絵再現性重視 2段階拡大  CN Tile + UltimateSD Denoise0.1_steps10_CFG7 → Denoise0.1_steps10_CFG7 
 3枚目 元絵再現性重視 いきなり4倍 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 
 4枚目 元絵再現性重視 いきなり4倍 UltimateSDのみ    Denoise0.1_steps10_CFG7 
 5枚目 書き込み量重視 2段階拡大  CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG12 
 6枚目 書き込み量重視 2段階拡大  CN Tile + UltimateSD Denoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG10 
 7枚目 書き込み量重視 2段階拡大  CN Tile + UltimateSD Denoise0.5_steps10_CFG18 → Denoise0.3_steps10_CFG7 
 8枚目 バランス型   2段階拡大  CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.1_steps10_CFG7 
 https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png 
 https://i.ibb.co/f8Rr5Y7/02-x2x2-Denoise0-1-steps10-CFG7.png 
 https://i.ibb.co/64MD1dn/03-4x-Denoise0-1-steps10-CFG7.png 
 https://i.ibb.co/7b7s9wf/04-4x-Ultimate-SD-Denoise0-1-steps10-CFG7.png 
 https://i.ibb.co/6BDLgcG/05-2x2x-Denoise0-4-steps10-CFG12.png 
 https://i.ibb.co/f2ZQLxM/06-2x2x-Denoise0-4-steps10-CFG10.png 
 https://i.ibb.co/2MjYhZx/07-2x2x-Denoise0-3-steps10-CFG7.png 
 https://i.ibb.co/y4mSxYM/08-2x2x-Denoise0-1-steps10-CFG7.png 
  
 まとめ 
 4倍アップスケールは2倍に比べて激しく破綻しやすい。いきなり4倍で書き込み(ノイズ)量増やすのは無理。 
 元絵再現性重視なら、いきなり4倍でDenoise0.1 CFG7 steps10で良い。2段階拡大は時間の無駄。元絵再現性を重視ならCN Tileは不要。 
 元絵再現しつつ書き込み(ノイズ)量増やすならCN Tileは必須。2倍2倍で段階を踏むこと。 
  
 5枚目のDenoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG7〜12は、今回の元絵だと2/3の確率で右手首が増えた。二段階目は破綻なし。 
 元絵やSampler(例:eulerやDPM++等)によっては安定性が激変する。 
 実用性を考えると6枚目のDenoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG7〜10が安定性しているかも。 
 個人的には書き込み量を控えた8枚目のバランス型が好き。書き込み量とはノイズだから、多すぎると汚いので程々に。 
 上記の設定値はあくまで参考程度にして欲しい。元絵の解像度が違ったり、特に実写風では設定値は全く違うものになると思う。  おっつん 
 オンラインサービスやとsteps多いの方がお得な気がして最大にしてたわ  ワイの普段のアップスケールワークフローは>>149やが 
 ワークフローの設定に間違いがあったので訂正しておく 
 入力は「widlcard_text」ではなく「populated_text」が正解 
 https://i.ibb.co/YLF8Rzf/Impact-Wildcard-Encode.png  >>539 
 VM上のLinuxでもwinより早い可能性ってあるんだろうか  >>540 
 あ、変わらんのか 
 やっぱネイティブだな  >>547 
 このトグルっていじった覚えないのに 
 いつもいつの間にかfixedになってるの何なんだろな🤔❓  Linuxって余り知らんけど 
 今はドライバとかあってグラボの性能フルに使えるんだな 
 ちょっと興味あるかも  >>550 
 自分の場合だとワークフロー読み込ませるために画像突っ込んだら 
 何故か勝手にfixedになっていたね。バグかな  アップスケーラーなら ComfyUI で HiRES Fix Script 使って latent 空間で ttl_nn.SDXL モデルを使って 1.5x を2回回して、 
 そのあと一枚絵超解像で 2x でも 4x でもするのが破綻が無くて一番きれいに出来るって正解が出てる  >>551 
 問題は自分が今持ってるPCをubuntuにして普段使いがどうなるか?ってところかと 
 firefoxデフォで入ってるのはありがたいけど、他が大変だし・・ 
 まさかAI学習でいちいち再起動とかもちょっとね  Pony系の3文字を試してるけどホント難しいわ、使うモデルでも変わってくるからお気に入りのモデル特化で試行錯誤するしかない。 
 あとEbaraPony専用Loraでエッジ強調、色味強調、影強調の3種類がCivitaiにあったから導入してみたけど良い感じだね、ありがたいわ。  普段はYouTubeしか見ないし別にubuntuでの良いなって思い始めている 
 それにwin10サポート切れるし窓と縁を切っても良いな  win11がゴミカスで常時10-20%ぐらいデバフ食らってるからその分早くなるのはわかるけど 
 なんで学習は倍近く速いんだろうなlinux 
 昔のteslaみたいにlinux向けドライバだけ色々アンロックされてんの?  >>558 
 win11のdefenderはすべてのデータを常時監視してる 
 リアルタイムスキャンを一時的に止めるとファイルの読み書きが早くなる  そういうのって同じような画像数百数千数万枚でマンネリってるやつ向けだから 
 そのまま見せられても…間違い探しかな? 
 になるのはしゃあない  シャープネス系の拡張機能FreeUとかもありでは?ワイは使ってないけど  いや、確かに分かりにくかったゴメンよ。 
 大きい画面で見たら割とすぐ分かる程度には違う…と思う。 
 生成画像ってほんの些細な違いで満足度がアップするから影強調Lora助かるわ。  たまーにキャラモデルは何も指定しなくてもブロンズヘアー、プロンプトでもブロンズヘアーを指定しているという状態なのに 
 黒髪や銀髪になったりするのってなんなんだろうな 
 キーワードが多いと発生するのはなんとなく分かったけど、キーワードを多くすると発生率が上がるとかでもないし 
 多くてせいぜい5%くらいなんだけど髪色以外は良い感じの絵とかになるとちょっと精神的ダメージ受けちゃう  >>567 
 元データの「ブロンズヘア」タグが付いた絵の中に黒髪や銀髪のキャラも含まれてるんだろう 
 AI絵は思い通りの絵を出そうとせず、AI先生にお任せする気持ち、出されたものを食べる精神 
  
 でも「赤ちゃん産んで」ってお願いしたのにヘンな何かを出産されるとさすがにへこむ 
 https://files.catbox.moe/w48g03.jpg  >>568 
 ミギー産んでて草 
  
 元がアニメキャラだから学習データの可能性は考えてなかったけど 
 学習元で別キャラが含まれててタグ消し忘れたり、塗りの影響で白めに認識されたりしたらそういう可能性もあるのか 
 髪色以外全く不満ないモデルなんだけどな、今の出力画像をベースに自分でモデル作ってみるかぁ。へっぽこ化しそうだが  Linuxは環境と目的によってだいぶ差があるみたいやな 
 うちはwsl2に入れたubuntuはバッチサイズ増やしたガチャやsdxlのlora学習やら実用ではほとんど効果なかった 
 実機は10種類ほど試した中ではfedoraが頭一つ抜けて速かった。4080でアスカベンチ11.1秒はモチベ上がる  >>568 
 出産は何人か挑戦してるけど成功してる人少ないな 
 大抵はグチャってなってる  >>567 
 ブロンズヘアってマジでブロンズ? 
 ブロンド(blonde)じゃなくてブロンズ(bronze)? 
  
 ブロンズならちょっと学習量少ないのかも 
 ブロンドは実は幅が広くてプロンプトの意味が薄れてる感はある  >>566 
 細部に拘る気持ちは分かるわ 
 こんなん誰にも刺さんねーだろ。ってのがクる時ある 
  
 マイナー&細部過ぎる拘りって誰かのLora普通無いし、自分でLora作っても再現無理じゃね?って気持ちになってて挑戦すらしてないわ……沼にしか思えん 
 細部変なアクセとか表情表現の中の細かい違いとか  >>574 
 へ〜そんな違いが。あれ、多分誤字だと思うんだけど幅広いのはどっちなんだ? 
 確認したら指定は「bronze hair」この指定はキャラモデル配布にあるサンプルにあった訳じゃなくて自分で指定したから 
 キャラモデル的に「bronze」か「bronde」のどっちが正確かは分からないや 
  
 元々色の指定は眼の色がぶれることがあって眼の色を入れるようにして、その時ついでに髪もたまにぶれるし入れるか〜って基本入れるようにしたのよね 
 自分で決める時は結構この手の髪色はブロンズかブロンドか薄茶かいつも迷ってるわ  出産は学習してないからプロンプトでは無理だよ 
 LoRA使ってすらまるで安定しないから概念自体を持ってないっぽい 
 だからLoRAを作るにしてもタグ付けの時点で相当研究しないと精度の高いものは出来ない 
 何を差分として認識させるかを見極める必要があるからね(まだ見つかってないと思う) 
 そこらのキャラや衣装LoRAとは訳が違う  >>576 
 ブロンド、要は金髪が幅が広すぎると思う 
 黄色も白も銀もそれこそブロンズも混ざってる 
 platinum blondeとかって指定はあんま効かない 
 (まあググってみると色んな黄色味出てくるんでお察しではあるが)  >>578 
 なるほど、ありがとう 
 確かに極端な変化が起こるのは金髪系なだけな気がする 
 そうすると自作するなら意識するのは光のあて具合かな。金髪はランダムにすると幅広く認識されそうだし  リクエストで出産停止っていうのきたことあるしLORAもあったな  >>579 
 まあ結局のところ金属色は光源で色味変わっちゃうんで思ったんと違う色になりがち 
 いっそのことイエローだとかブラウンだとか近しいソリッドカラーに艶指定がいいんじゃないかな 
 すまんそもそもどんなの期待してるか分からんので的外れなこと言ってたら忘れておくれ  >>568 
 ヤギと交配するとたまにこんなの生まれるよね  すっごい今更だけどebaraで何も考えず1024×1024でやってたけどアップスケール1.5で1200×1920に合わせても破綻せずちゃんと出るのな 
 縦画面でスマホで撮影してるみたいでこれはこれでありだな  へえアスペクト比違っても破綻しないんだな面白い 
 まあ1.5倍は倍率低くて破綻少ないのもあるけど  pony系でaqua eyesとかaqua hairとか指定すると必ずこのすばの女神が召喚される… 
 ネガにaqua \(konosuba\)入れても消えないんだけど 
 影響消す方法ありませんか?  影響消そうとするよりもブルーアイとか水色アイで妥協した方が早いのでは  そのプロンプト避けるか 
 目だけのAD使うか専用にLoRAつくるか 
 モデルの問題だから解決手段が結構少ない  >>589 
 アクアを学習したLoRAをマイナスにかけたら  モデル自身にアクアが学習されているならネガに別のLora入れて効果あるのかな?  aqua hairは結構使うけど駄女神が出てきたことは一度もないな 
 チェックポイントモデルの違いか、ponyの標準のネガティブが実は弾いてくれてるとかなのかな  >>594 
 aquaという単語を避けるって方法もあるな。青系のプロンプトって実はとても多いし 
 https://note.com/krmr_aia/n/n8c477b42e01a 
  
 個人的に青系ではIndigo colorが好き  エロい人がforgeをフォークして更新してくれたっぽ  forgeが引き続き更新されるならいいことじゃないか 
 ComfyUIは代わりとしてはちょっと難しいからねえ 
 慣れちゃえばComfyUIの方が楽だけど 
 自分色に染めた世界一のUIが作れるんだよ ■ このスレッドは過去ログ倉庫に格納されています