【StableDiffusion】AIエロ画像情報交換44
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>461
競泳水着系だからかもしれん🦆
試してみます、ありがとー >>466
俺も競泳好きなんだけど461の案は結構効くよ
stream aceとかNUXとか好きなんだろ? >>465
shaded faceとかshadow over eyes かな >>454
https://files.catbox.moe/aeggxa.png
rainbow on blueskyでできたけど出るシードまでガチャらないといけないしモロに配色がMLPだし学習させないと安定は無理だわ
カトゥーン調の虹が出る場合はgradient translcent rainbowを軽めにかける https://files.catbox.moe/r4pmyq.png
前に見た画像の左右で女の子比較するやつ一発で出せるようになったらめっちゃ捗ったわ
conditioning set areaで2枚分書いてるからバラバラに生成するのと手間はそこまで変わらないけどいいのが出たらすぐシコれる >>467
wet (好きな色) speedoです😤
競泳水着タグって他にあるんかな >>471
speedo忘れてた
471とならうまい酒が交わせそうだ
これまで色々試したけど自分でLora作らないと納得行く競泳水着は難しいと思う
プロンプトで頑張ってもスク水になったり派手な柄だったりカットも極端
自作ならシンプルな生地もレーザーレーサー生地も再現できる
画像コレクションあるだろうからLora作ってみな アップルビジョンでエロできたらリアルいらなくなるぐらい嵌まれそう
デモ体験しただけど、現実に違和感無くなるよ3Dキャラ出してきてヤバかった >>448
今見たらまたアップされていたで
今のうちに落としておきな
>>453
その手があったな🤔 >>449
https://i.imgur.com/TYUABKB.png
いいですね〜
やっぱモーションloraは可能性を感じる
loraのように作るテクニックが確立されていって欲しいね >>473
quest3持ってるけどappleみたいな割れるゴミよりこっちと同じだよ、軽いし Oculus Riftと違って確か電池でしかも交換ができないタイプだよね
長く使えないのは辛いが画質いいの?気になる
マルチモーダルなAIならそのうち3Dモデルとかも作れるようになるかねぇー >>472
エロゲでも競泳水着とスク水が厳密に分けられてなかったからなあ
danbooruにもちゃんとタグで分けられてないよなあって見てた
赤ちゃんだからまだまだプロンプトで試行錯誤してるけどいずれ作ってみたいわ >>477
スレチなのでquest3スレにおいで
俺はおらんけど >>478
ロゴがあったりカラフルなのが競泳
フチ以外1色なのがスクール? スレチだけどOculusじゃなくて軽さでpico3検討してるけどどっちがええんやろか
多分フライトシムに部類するエバースペースっていうゲームもVRでやってみたいんよね quest3に劣るpico4ならまだしもpico3?青空なのに曇り空でフライトシミュやりたいの? Loraで服を絶対に覚えさせないようにすることはできないものか
なに入れても覚えてしまう >>481
紺色の露出は控えめで学校の授業で使われてたのがスクール水着
スクール水着でも新と旧がある
違いは検索すればわかると思う
現代のスクール水着はジェンダー化してる
競技用の水着が競泳水着
昔は素材の抵抗が大きくて肌の部分が多ければ多いほど速く泳げる時代だったからハイレグで背中も大きく開いていて素材は透けやすいものも多かった
現代の競泳水着は肌より抵抗が少なくなったので膝まであるタイプが主流
競泳水着も部活で着てることがあるからスク水扱いされることも多い
ちゃんとジャンル分けされてないから探すのに手間がかかる >>485
なるほどサンクス
現代より平成中期ぐらいまでの方が良いよね
背中空きが競泳確かに。スク水でそんなのだとキッズが精通しちゃうもんね ebaraでLora自作して普通の絵いくつか生成したけど複数人出るわ四肢キモイわで顔も崩れてたのに具体的なエロ文章ぶち込んだ途端まともな抜ける絵生成されまくって草生えた。
でもなんか失敗感否めないんだけどキャラLora作成って顔だけと全身どっちの方が良いん?一般的な体型に全裸想定で。 >>456
自分もComfyUIに手を出すまで
結構時間がかかったダス
>>475
最近モーションLoraが
徐々に増えてきてうれしいダス
さっきCivitai見てたら、
以前実験した歩くモーションLora作ってた人が
新しいバージョン出してた↓
https://civitai.com/models/554279/csetis-walking-motion-loras-v2
今回は、前、後、右、左の4視点での歩行モーションっぽい >>483
なんなら中古でバカ安いPSVR(初代)でもいいぞ、コンソールしか出ないパワプロのvrモードもやってみたいし(steamででるプロスピが対応したら知らん)
とにかく安さと出来れば軽さが欲しいんだ、近い未来にヘッドホンのMDR-1AM2くらい軽いやつが出てくれたらなぁ ponyの3文字プロンプト無限にあるな…
みんな使ってる? ネガに昔なんUに貼られてたやつからさらに自分で厳選したのを入れてる
ほんとに効いてるのか?ってたまに抜いてみるとやっぱボヤっとしたイモ臭い絵になるので効いてるっぽい
ポジで積極的に使ってる人いるんだろうか ic lightの方が動画のtooncrafterとか作ってて、
結構楽しそう。ノード付け足してなんとか
使えるようにしたい。 なんかアニメ絵でうまくいかなかったけど、人形でやったら破綻なしで作成したから画像選ぶ必要はありそう。 でも差分二枚で作れるのは魅力かと。
本家のサンプルワークフローだとモデルダウンロードが自動になってて、自分はうまく落とせなかった。こっちの記事のみて試したら動きました。
まあ、comfyなので、自己責任で。
https://www.runcomfy.com/ja/comfyui-workflows/comfyui-tooncrafter-generate-cartoon-interpolation 質問させてください、
グラボVRAMは16GBあればとりあえず事足りるっていう認識でいいのでしょうか?
それとも、loraでモデルつくったり、
動画を作ったりする場合は24GBのグラボが必要だったりするのでしょうか? LORA作成はVRAMは8あればなんとか。動画は未知数、今後出てくるものによって変わりそう
どちらもVRAMが多いほど速度面では有利な事が多いので、これから購入予定&やり続けられる自信があるなら相応のスペック用意してもいいかもね
ちなみに画像の並行生成なんかする場合はメインメモリの方も最低64くらい欲しい 動画を作るなら12はあった方がいいけどメインPCを兼ねてて裏で動画とか見てたいなら16を勧める
12だと全部動画生成に持って行かれて生成中は他をまともに出来ないから >>494
3文字いろいろ試したけど、これっ!てのが見つからなかったから良かったら参考に教えて欲しいです >>488
どっちも使って失敗した上で聞いたんやで。初心者やから単純になんかしらダメだっただけっぽいな ありがとうございます、今使ってるPCが調子悪いのでどうせなら買い替えようと思ってましたので、
思い切って16GBのグラボのついたパソコン買います >>509
おお、ありがとう。
1個づつ効果試してみる、使ってるモデルによっても変わってくるだろうしほんと画像生成は沼だなぁ >>508
RTX 5090が出るまで待て
もう少しだから ゲームで妥協するならともかく、
確実に生成スピードがあがって
自分の時間という代えがたいものが
浮くので最高のグラボ買っても損しないよ 生成スピードは確かにそうだけどマネタイズする気でもないなら自身の予算に合わせればいいからこの手の半分脳死話付き合わなくていいと思うわ >>512
全くその通りだよね
時間はお金では買えないんだから
それに画像生成以外もそうだけど
ゲームやら色々活用の方法はあるわけで
最悪の場合売ってしまってもいいし 生成秒数比較なんか見ると4090欲しいな〜とは思うけど
そのスペックにするならメモリも増設したいしSSDも足りなくなるし多分電源も変えた方が良いってなって結局一式買いそうだ
まあアニメーション周りがの技術が確立してきたらそこで考えよかな 24GBとか28GBの半端さがどうしても気になってしまうワイプログラマ
32GBが来たら本気出す 去年3060の12Gから始めたけど秋頃出るであろう5000系に買い替えるつもり
また金が飛ぶが気にしない まあ4090とか最上位欲しいのは分からなくもないけど人それぞれの予算とか電気代とかの考えとかってもんがあるからそこを無視するアドバイザーなんて必要ないわけでね
1番上を買えば終わりとかそこが分かってれば相談しにすら来ないわけでよぉ…って感じ 恥丘(恥骨)のラインにこだわる絵が少ないのも時代かなぁ
あっさりした股間ばかりで・・・なにかいい手はありませんか? マシンパワーに拘るのは良いがt2iからアップスケールまで一度に全部処理する非効率は方法とかも改めるといいよ
処理方法やstepsの効果を調べることで時間は大幅に節約できる ロリ系の学習やらしたいんだったらローカル環境整えるのがベストなんだろうけど普通にファインチューンやらしたいんだったらRunPodとかで4090借りた方が良いわ
毎時百円程度で電気代も故障も室温も気にしないで良いのは強い 学習ならLinux環境でやれば速度は2〜3倍は速くなるとこのスレで言う人がいたね 4070だけどtiledVAE使わんとメインメモリスワップが入って激遅、
使うと2秒増加になる処理があって
VRAM使用量見ると14GBぐらいなので16GBあればいいのにと思うことはよくある そこでRX7900XT(X)
今ならWSLで動くしな >>476
アップルビジョンのが軽いような…
解像度半分ぐらいだし使った事無いのに適当な言ってない? >>518
何買うか知らんけど今年の秋から冬に発売されるのはハイエンドのみでミドルハイ〜ミドルは来年春だぞ ときどき投げ売りされるintel arc a770 16GB
3万で16GBはこれだけだろう なお使い勝手は悪い ひさしぶりに触ってるけど動画以外はあんまり革新的な変化はない感じか >>530
Radeon使いまでぶん殴るの辞めてもらっていいっすか😭😭 >>526
そら初めて買うからな
出来れば安くて軽くてが良いけど予算4-5万以内だから選択肢としては限られてくるんだわ >>529
今WSL2で一部Radeonが生成AIも対応してる Radeon 8GBはComfyUI使ってもSDXL使えないSD1.5専用カードなんだよね
普段こういうこと言わないけどPonyってキャッキャしているお前らがいつも羨ましいって思っている😭😭 そのグヌヌ言ってる時間でアルバイトでもしたらとっくにnvグラボ買えてると思うよ LoRA学習をlinuxでやるとwinの半分の時間で済むらしいので挑戦してみた
3060 12G
SDXL
画像41枚 繰り返し1 エポック10 バッチ1
win11=17分42秒
linux=10分44秒
半分にはならなかったがこれだったらlinux導入する意味あると思う WSL2使っても殆ど変わらないみたいよ
やっぱりネイティブじゃないとね ガチじゃないからarc WSLだけど、アップデートとサイズの調整でおかしかったところが直って一応は出来るようになってる
対応が出遅れるしトラブってもコミュニティが薄くて相談も出来ない アップスケール極めたので情報共有するで>>148の続きや
アップスケールの基本
書き込み(ノイズ)量:元絵に追加される情報。多いと破綻する。多いと線などが増え詳細な絵になるが、元絵の再現性が落ちる。低いとその逆。
Denoise値:高いと書き込み(ノイズ)量が増える。低いとその逆。
CFGScale値:高いと書き込み(ノイズ)量が増えるが、線が汚くなる。低いとその逆。アニメの人物絵だと7〜8が最適で12が限度かな?
steps値:高いと書き込み(ノイズ)量が減る。低すぎるとノイズまみれの汚い絵になる。
汚いノイズが消えるギリギリの低いsteps値を狙うと、書き込み(ノイズ)量が増える。steps値が高いほど綺麗になるは嘘。詳細は>>148
Upscale by値:拡大率。高いほど破綻しやすくなり、元絵再現性も落ちる。
【2倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 UltimateSDのみ Denoise0.1_steps10_CFG7
4枚目 書き込み量重視 CN Tile + UltimateSD Denoise1.0_steps25_CFG7
5枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.6_steps10_CFG10
6枚目 書き込み量重視 CN Tile + UltimateSD Denoise0.5_steps10_CFG18
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/dQ6FJjW/02-2x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/ykmL3Zd/03-2x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/HTnqMct/04-2x-Denoise1-0-steps25-CFG7.png
https://i.ibb.co/drV32wh/05-2x-Denoise0-6-steps10-CFG10.png
https://i.ibb.co/cDcs7Jj/06-2x-Denoise0-5-steps10-CFG18.png >>544の続き
【4倍アップスケール】
1枚目 SD1.5 元絵 512x768
2枚目 元絵再現性重視 2段階拡大 CN Tile + UltimateSD Denoise0.1_steps10_CFG7 → Denoise0.1_steps10_CFG7
3枚目 元絵再現性重視 いきなり4倍 CN Tile + UltimateSD Denoise0.1_steps10_CFG7
4枚目 元絵再現性重視 いきなり4倍 UltimateSDのみ Denoise0.1_steps10_CFG7
5枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG12
6枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG10
7枚目 書き込み量重視 2段階拡大 CN Tile + UltimateSD Denoise0.5_steps10_CFG18 → Denoise0.3_steps10_CFG7
8枚目 バランス型 2段階拡大 CN Tile + UltimateSD Denoise1.0_steps25_CFG7 → Denoise0.1_steps10_CFG7
https://i.ibb.co/HBKWqRf/01-source-SD1-5-512x768.png
https://i.ibb.co/f8Rr5Y7/02-x2x2-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/64MD1dn/03-4x-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/7b7s9wf/04-4x-Ultimate-SD-Denoise0-1-steps10-CFG7.png
https://i.ibb.co/6BDLgcG/05-2x2x-Denoise0-4-steps10-CFG12.png
https://i.ibb.co/f2ZQLxM/06-2x2x-Denoise0-4-steps10-CFG10.png
https://i.ibb.co/2MjYhZx/07-2x2x-Denoise0-3-steps10-CFG7.png
https://i.ibb.co/y4mSxYM/08-2x2x-Denoise0-1-steps10-CFG7.png
まとめ
4倍アップスケールは2倍に比べて激しく破綻しやすい。いきなり4倍で書き込み(ノイズ)量増やすのは無理。
元絵再現性重視なら、いきなり4倍でDenoise0.1 CFG7 steps10で良い。2段階拡大は時間の無駄。元絵再現性を重視ならCN Tileは不要。
元絵再現しつつ書き込み(ノイズ)量増やすならCN Tileは必須。2倍2倍で段階を踏むこと。
5枚目のDenoise1.0_steps25_CFG7 → Denoise0.4_steps10_CFG7〜12は、今回の元絵だと2/3の確率で右手首が増えた。二段階目は破綻なし。
元絵やSampler(例:eulerやDPM++等)によっては安定性が激変する。
実用性を考えると6枚目のDenoise0.6_steps10_CFG10 → Denoise0.4_steps10_CFG7〜10が安定性しているかも。
個人的には書き込み量を控えた8枚目のバランス型が好き。書き込み量とはノイズだから、多すぎると汚いので程々に。
上記の設定値はあくまで参考程度にして欲しい。元絵の解像度が違ったり、特に実写風では設定値は全く違うものになると思う。 おっつん
オンラインサービスやとsteps多いの方がお得な気がして最大にしてたわ ワイの普段のアップスケールワークフローは>>149やが
ワークフローの設定に間違いがあったので訂正しておく
入力は「widlcard_text」ではなく「populated_text」が正解
https://i.ibb.co/YLF8Rzf/Impact-Wildcard-Encode.png >>539
VM上のLinuxでもwinより早い可能性ってあるんだろうか >>540
あ、変わらんのか
やっぱネイティブだな >>547
このトグルっていじった覚えないのに
いつもいつの間にかfixedになってるの何なんだろな🤔❓ Linuxって余り知らんけど
今はドライバとかあってグラボの性能フルに使えるんだな
ちょっと興味あるかも >>550
自分の場合だとワークフロー読み込ませるために画像突っ込んだら
何故か勝手にfixedになっていたね。バグかな アップスケーラーなら ComfyUI で HiRES Fix Script 使って latent 空間で ttl_nn.SDXL モデルを使って 1.5x を2回回して、
そのあと一枚絵超解像で 2x でも 4x でもするのが破綻が無くて一番きれいに出来るって正解が出てる >>551
問題は自分が今持ってるPCをubuntuにして普段使いがどうなるか?ってところかと
firefoxデフォで入ってるのはありがたいけど、他が大変だし・・
まさかAI学習でいちいち再起動とかもちょっとね Pony系の3文字を試してるけどホント難しいわ、使うモデルでも変わってくるからお気に入りのモデル特化で試行錯誤するしかない。
あとEbaraPony専用Loraでエッジ強調、色味強調、影強調の3種類がCivitaiにあったから導入してみたけど良い感じだね、ありがたいわ。 普段はYouTubeしか見ないし別にubuntuでの良いなって思い始めている
それにwin10サポート切れるし窓と縁を切っても良いな win11がゴミカスで常時10-20%ぐらいデバフ食らってるからその分早くなるのはわかるけど
なんで学習は倍近く速いんだろうなlinux
昔のteslaみたいにlinux向けドライバだけ色々アンロックされてんの? >>558
win11のdefenderはすべてのデータを常時監視してる
リアルタイムスキャンを一時的に止めるとファイルの読み書きが早くなる そういうのって同じような画像数百数千数万枚でマンネリってるやつ向けだから
そのまま見せられても…間違い探しかな?
になるのはしゃあない シャープネス系の拡張機能FreeUとかもありでは?ワイは使ってないけど ■ このスレッドは過去ログ倉庫に格納されています