【StableDiffusion】AIエロ画像情報交換44
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>544の続き
【4倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 2段階拡大 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 → Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 いきなり4倍 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
4枚目 元絵再現性重視 いきなり4倍 UltimateSDのみ Denoise0.1_steps10_CFG7
5枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG12
6枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG10
7枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.5_steps10_CFG18 → Denoise0.3_steps10_CFG7
8枚目 バランス型 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.1_steps10_CFG7
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/f8Rr5Y7/02-x2x2-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/64MD1dn/03-4x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/7b7s9wf/04-4x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/6BDLgcG/05-2x2x-Denoise0-4-steps10-CFG12.png
https://i.ibb.co/f2ZQLxM/06-2x2x-Denoise0-4-steps10-CFG10.png
https://i.ibb.co/2MjYhZx/07-2x2x-Denoise0-3-steps10-CFG7.png
https://i.ibb.co/y4mSxYM/08-2x2x-Denoise0-1-steps10-CFG7.png
まとめ
4倍アップスケールは2倍に比べて激しく破綻しやすい。いきなり4倍で書き込み(ノイズ)量増やすのは無理。
元絵再現性重視なら、いきなり4倍でDenoise0.1 CFG7 steps10で良い。2段階拡大は時間の無駄。元絵再現性を重視ならCN Tileは不要。
元絵再現しつつ書き込み(ノイズ)量増やすならCN Tileは必須。2倍2倍で段階を踏むこと。
5枚目のDenoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG7〜12は、今回の元絵だと2/3の確率で右手首が増えた。二段階目は破綻なし。
元絵やSampler(例:eulerやDPM++等)によっては安定性が激変する。
実用性を考えると6枚目のDenoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG7〜10が安定性しているかも。
個人的には書き込み量を控えた8枚目のバランス型が好き。書き込み量とはノイズだから、多すぎると汚いので程々に。
上記の設定値はあくまで参考程度にして欲しい。元絵の解像度が違ったり、特に実写風では設定値は全く違うものになると思う。 おっつん
オンラインサービスやとsteps多いの方がお得な気がして最大にしてたわ ワイの普段のアップスケールワークフローは>>149やが
ワークフローの設定に間違いがあったので訂正しておく
入力は「widlcard_text」ではなく「populated_text」が正解
https://i.ibb.co/YLF8Rzf/Impact-Wildcard-Encode.png >>539
VM上のLinuxでもwinより早い可能性ってあるんだろうか >>540
あ、変わらんのか
やっぱネイティブだな >>547
このトグルっていじった覚えないのに
いつもいつの間にかfixedになってるの何なんだろな🤔❓ Linuxって余り知らんけど
今はドライバとかあってグラボの性能フルに使えるんだな
ちょっと興味あるかも >>550
自分の場合だとワークフロー読み込ませるために画像突っ込んだら
何故か勝手にfixedになっていたね。バグかな アップスケーラーなら ComfyUI で HiRES Fix Script 使って latent 空間で ttl_nn.SDXL モデルを使って 1.5x を2回回して、
そのあと一枚絵超解像で 2x でも 4x でもするのが破綻が無くて一番きれいに出来るって正解が出てる >>551
問題は自分が今持ってるPCをubuntuにして普段使いがどうなるか?ってところかと
firefoxデフォで入ってるのはありがたいけど、他が大変だし・・
まさかAI学習でいちいち再起動とかもちょっとね Pony系の3文字を試してるけどホント難しいわ、使うモデルでも変わってくるからお気に入りのモデル特化で試行錯誤するしかない。
あとEbaraPony専用Loraでエッジ強調、色味強調、影強調の3種類がCivitaiにあったから導入してみたけど良い感じだね、ありがたいわ。 普段はYouTubeしか見ないし別にubuntuでの良いなって思い始めている
それにwin10サポート切れるし窓と縁を切っても良いな win11がゴミカスで常時10-20%ぐらいデバフ食らってるからその分早くなるのはわかるけど
なんで学習は倍近く速いんだろうなlinux
昔のteslaみたいにlinux向けドライバだけ色々アンロックされてんの? >>558
win11のdefenderはすべてのデータを常時監視してる
リアルタイムスキャンを一時的に止めるとファイルの読み書きが早くなる そういうのって同じような画像数百数千数万枚でマンネリってるやつ向けだから
そのまま見せられても…間違い探しかな?
になるのはしゃあない シャープネス系の拡張機能FreeUとかもありでは?ワイは使ってないけど いや、確かに分かりにくかったゴメンよ。
大きい画面で見たら割とすぐ分かる程度には違う…と思う。
生成画像ってほんの些細な違いで満足度がアップするから影強調Lora助かるわ。 たまーにキャラモデルは何も指定しなくてもブロンズヘアー、プロンプトでもブロンズヘアーを指定しているという状態なのに
黒髪や銀髪になったりするのってなんなんだろうな
キーワードが多いと発生するのはなんとなく分かったけど、キーワードを多くすると発生率が上がるとかでもないし
多くてせいぜい5%くらいなんだけど髪色以外は良い感じの絵とかになるとちょっと精神的ダメージ受けちゃう >>567
元データの「ブロンズヘア」タグが付いた絵の中に黒髪や銀髪のキャラも含まれてるんだろう
AI絵は思い通りの絵を出そうとせず、AI先生にお任せする気持ち、出されたものを食べる精神
でも「赤ちゃん産んで」ってお願いしたのにヘンな何かを出産されるとさすがにへこむ
https://files.catbox.moe/w48g03.jpg >>568
ミギー産んでて草
元がアニメキャラだから学習データの可能性は考えてなかったけど
学習元で別キャラが含まれててタグ消し忘れたり、塗りの影響で白めに認識されたりしたらそういう可能性もあるのか
髪色以外全く不満ないモデルなんだけどな、今の出力画像をベースに自分でモデル作ってみるかぁ。へっぽこ化しそうだが Linuxは環境と目的によってだいぶ差があるみたいやな
うちはwsl2に入れたubuntuはバッチサイズ増やしたガチャやsdxlのlora学習やら実用ではほとんど効果なかった
実機は10種類ほど試した中ではfedoraが頭一つ抜けて速かった。4080でアスカベンチ11.1秒はモチベ上がる >>568
出産は何人か挑戦してるけど成功してる人少ないな
大抵はグチャってなってる >>567
ブロンズヘアってマジでブロンズ?
ブロンド(blonde)じゃなくてブロンズ(bronze)?
ブロンズならちょっと学習量少ないのかも
ブロンドは実は幅が広くてプロンプトの意味が薄れてる感はある >>566
細部に拘る気持ちは分かるわ
こんなん誰にも刺さんねーだろ。ってのがクる時ある
マイナー&細部過ぎる拘りって誰かのLora普通無いし、自分でLora作っても再現無理じゃね?って気持ちになってて挑戦すらしてないわ……沼にしか思えん
細部変なアクセとか表情表現の中の細かい違いとか >>574
へ〜そんな違いが。あれ、多分誤字だと思うんだけど幅広いのはどっちなんだ?
確認したら指定は「bronze hair」この指定はキャラモデル配布にあるサンプルにあった訳じゃなくて自分で指定したから
キャラモデル的に「bronze」か「bronde」のどっちが正確かは分からないや
元々色の指定は眼の色がぶれることがあって眼の色を入れるようにして、その時ついでに髪もたまにぶれるし入れるか〜って基本入れるようにしたのよね
自分で決める時は結構この手の髪色はブロンズかブロンドか薄茶かいつも迷ってるわ 出産は学習してないからプロンプトでは無理だよ
LoRA使ってすらまるで安定しないから概念自体を持ってないっぽい
だからLoRAを作るにしてもタグ付けの時点で相当研究しないと精度の高いものは出来ない
何を差分として認識させるかを見極める必要があるからね(まだ見つかってないと思う)
そこらのキャラや衣装LoRAとは訳が違う >>576
ブロンド、要は金髪が幅が広すぎると思う
黄色も白も銀もそれこそブロンズも混ざってる
platinum blondeとかって指定はあんま効かない
(まあググってみると色んな黄色味出てくるんでお察しではあるが) >>578
なるほど、ありがとう
確かに極端な変化が起こるのは金髪系なだけな気がする
そうすると自作するなら意識するのは光のあて具合かな。金髪はランダムにすると幅広く認識されそうだし リクエストで出産停止っていうのきたことあるしLORAもあったな >>579
まあ結局のところ金属色は光源で色味変わっちゃうんで思ったんと違う色になりがち
いっそのことイエローだとかブラウンだとか近しいソリッドカラーに艶指定がいいんじゃないかな
すまんそもそもどんなの期待してるか分からんので的外れなこと言ってたら忘れておくれ >>568
ヤギと交配するとたまにこんなの生まれるよね すっごい今更だけどebaraで何も考えず1024×1024でやってたけどアップスケール1.5で1200×1920に合わせても破綻せずちゃんと出るのな
縦画面でスマホで撮影してるみたいでこれはこれでありだな へえアスペクト比違っても破綻しないんだな面白い
まあ1.5倍は倍率低くて破綻少ないのもあるけど pony系でaqua eyesとかaqua hairとか指定すると必ずこのすばの女神が召喚される…
ネガにaqua \(konosuba\)入れても消えないんだけど
影響消す方法ありませんか? 影響消そうとするよりもブルーアイとか水色アイで妥協した方が早いのでは そのプロンプト避けるか
目だけのAD使うか専用にLoRAつくるか
モデルの問題だから解決手段が結構少ない >>589
アクアを学習したLoRAをマイナスにかけたら モデル自身にアクアが学習されているならネガに別のLora入れて効果あるのかな? aqua hairは結構使うけど駄女神が出てきたことは一度もないな
チェックポイントモデルの違いか、ponyの標準のネガティブが実は弾いてくれてるとかなのかな >>594
aquaという単語を避けるって方法もあるな。青系のプロンプトって実はとても多いし
https://note.com/krmr_aia/n/n8c477b42e01a
個人的に青系ではIndigo colorが好き エロい人がforgeをフォークして更新してくれたっぽ forgeが引き続き更新されるならいいことじゃないか
ComfyUIは代わりとしてはちょっと難しいからねえ
慣れちゃえばComfyUIの方が楽だけど
自分色に染めた世界一のUIが作れるんだよ 詳しい人教えて欲しいんだが実用レベルの動画生成AIがローカルで
出来たとして1分動画だと今の家庭用最高峰のGPUで対応できるかね? >>0145
とても気になります。
ブルマはスク水、ハイレグばかりになるので、
よろしければご教示して頂きたい。 >>572
WSL2でもWindowsより確実に高速だから意味はあるよ そもそも実用レベルがどこまでのクオリティと生成速度で言ってるのかがわからん
アニメとリアルでも全然違うし コンシューマ最上位のGPUで対応できないものを
「実用レベルの動画生成AIがローカルで出来た」
とは言わないんで質問がおかしい アプデの方法がよくわからない…。ダウンロードしてwebuiフォルダ内に上書きなんかな? >>609
今のforge環境を引き継ぎたいなら簡単なのはredditの-Vinzero-の返信にあるgitコマンドそのまま
gitコマンド分からないなら今の環境に上書きするんじゃなくてダウンロードした新しい環境に必要なものだけ上書きを推奨
なんも分からんなら変に上書きとかせずに新しい環境ではじめた方がいい(できればgit checkoutで) >>610
ありがとう、また容量くっちゃうなぁ。AIは大変だ。 >>603
そりゃklingとかsoraとかクオリティすげー高いやつだよ
あーいうのはローカルで出来るようになると思う?
ちな俺rtx4090持ってるよ
あくまでも感想でいいよ 全くのクソ質問やな。質問と言っていいかどうか知らんが
聖水で顔洗って出直してきたほうがええで >>613
どっちも世界トップレベルの企業が出したものだし個人環境で早々真似はできないんじゃないかな
技術が一般公開される訳でもないし、仮に技術提供されても要求されるハード面も4090単体とかそういうレベルではなさそう 初期のmorphstudioなんて10秒の動画を同時に10個生成できてたんだぜ
さすがに正式版になってからは5秒に減ったけど
とてもじゃないが太刀打ちできないだろ forge開発引き継がれるんだいいね
問題無さそうなら乗り換えよう >>613
生成にかかる時間を無視できるならいけるよ
問題はそういう技術がローカルに来てくれる可能性が今のところないし
倫理的な面から見てもこれから先に来る可能性もほとんどないところ
簡単に短時間でできるようになると絶対に犯罪に使う人が続出する pony系のモデルってプロンプトの強弱のつけ方変わってる? 1.5同様に(pubic hair:1.3)とかやってもぜんぜんマン毛が濃くならんのだが。それかモデルに原因がある? >>620
それで普通に強調できるから
モデルかLoraが悪いんじゃない >>620
ponyならpubesのほうが効きがよいぞ pony系の陰毛はpubesじゃなかったっけ
large breastsとか強調してみたら強調が効いてるかわかるんじゃない? 俺は生成AIの技術的な事は分からんけど想像するに動画は画像と比べて細かい部分が誤魔化せるから
「動画は画像より生成の時間短いケースあるんじゃね」ってのは間違い?
それに容量的にも動画って圧縮してるじゃん
1000枚5mbyteの動画をパラパラ動画にしたら5Gにはならないじゃん
何か動画のほうが楽できそうってのは間違いかね 今更ながらにようやくLora作り始めたものだけどヤバいな
時間無限に溶けてく気すらする
でもやめられない >>624
動画ってのは言わばパラパラ漫画30FPSで1分なら同時に30X60秒で1800枚の画像を同時に扱う事になる
(実際にはフレーム補完等でもうちょっと少ないとは思うけど)
圧縮についても勘違い
圧縮ってのは動画として最後の最後に行うものなので生成中は未圧縮、ついでに画像もその時点では未圧縮なので更に重い
現状でもAnimateDiffとかで2,3秒の動画ですらVRAM12GBくらいは使ってるよ pubeはちゃんとマン肉とケツ毛まで生やして臭そうにできるので好き >>626
ご丁寧にありがとう
1分程度で1800枚なら数時間あればいけそうだが…
やたら動画を否定する人がいるのは気のせいかね
>生成中は未圧縮
つまり圧縮済みから作れば早そうだね 胸のサイズ指定もモデルによってサイズがちがうので
時々爆乳ロリとか誕生して困る >>627
しかもあれ髪の毛の色と同じ色の下の毛になるんだっけ
すごいね >>628
詳しい事分からんならもうそのまま置いときな。どうせまだ一般公開されてもない技術だ(公開されるかもわからん)
多少知識ある人なら画像生成ですらローカルスペックはかなりギリギリなのに動画なんて出来る訳ないって思う人が多いのは仕方ない >>557
Winから乗り換えたいけど、Excelが使えないのがなぁー
今は知らないけどLibre重たすぎて使えないし、官公庁でもオープン化失敗してた気がする >>625
最終的には自動化だろうな
俺は画像収集だけは手動でそれ以外はほぼ自動した
2話くらい見たら数時間後には分厚い同人エロ画集が出来上がる
半年待ってコミケで買ってた時代を知ってるとすごくいい時代になったと思う
夏アニメが始まる間に、ちょっとだけ古いアニメのとりためてたのを見てるんだけど
CivitaiにLoRA上がってないキャラのほうが遥かに多くコンテンツはほぼ無限にあるし時間なさすぎてやばい >>628
例えばアンチウイルスソフトとかでも圧縮してあればスルーしてしまうし圧縮すると意味あるデータにはならない
圧縮の方法でバイナリデータの特徴量もすぐに変化するだろうし
圧縮済みをいきなり作るのは原理的に難しいんじゃないか?
SDが既にとんでもな技術だとは思うけど普通に考えたら動画はその上だろうし
まぁモノクロのAIがいつかできると思ってたら、いきなりフルカラーで実用的なAIが先に来たしAIの未来なんて予想できないけど 動画学習やるなら歓迎するわ
中々情報集まらなくて困ってるんだよ 動画学習というか今企業が提供してるAI動画生成サービスレベルのものをローカルスペックで作成出来るのか?→無理(非現実的)
って質問を質問者が技術的根拠無しにいけると思うって言ってグダグダ長引いただけの話よ でもローカルに落ちてこないとそこからローカル向けにカスタムして使えるようにしてくれる人も現れないからローカルに落ちてくる事自体は大事だと思うんだ… この技術が使いたいなら提供している企業に金払ってオンラインで使わせてもらえばいい話で
ローカル運用させる必要性もメリットも開発した企業には一切ないしなんならデメリットしかない >>638
あくまでスペックの話であってローカルに落ちるかどうかはまた別の話よ
ただサービス展開してる企業がオープンソースにするメリットあるのか?とも思う
このあたりはどう転ぶか誰も分からんし言ってもしょうがないけどね エロ用途ならmagic animateとかの画像動かすやつで足りそうだからそっちが進歩してくれりゃいいよ
あっちなら余裕で動くし >>639
ローカルでオープンならVRAMを節約できる方法とか誰かが作ってくれるかもしれないけどな ■ このスレッドは過去ログ倉庫に格納されています