【StableDiffusion】AIエロ画像情報交換32
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換31
http://mercury.bbspink.com/test/read.cgi/erocg/1694071226/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ18
http://mevius.5ch.net/test/read.cgi/cg/1694882607/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>488
荒らしだろう
自分で出力した画像じゃなくて他サイトで公開された画像URL貼ってんだから 2.5inch SSDからm.2(3500MB/s)に変えてみたけど、明らかに速くなって嬉しい
animatediffだと何故かファイルサイズ小さいのにフォルダ表示がクソ重いんだよね >>480
最近私がやった事
majinaiで気に入った画像クリック
→にモデルシード、真ん中にプロンプト、入ってればTi、Loraもわかる
↓にスクロールしていくと同モデル他画像もある >>491
これは好みのモデルをザクザク探せますね
アップローダーは勉強にも超使えるのかぁ majinaiにあった基本用のネガティブプロンプトが有能すぎてずっと使ってるわ 黒人が白人女に3穴ハメてるLoraもアニメキャラで置き換えれるんだな
十分効いてると言うか二次だけの学習よりリアル寄りに出てこれはこれで良いのかも知れない majinai見てるととんでもなく長いプロンプトあったり逆にシンプル過ぎるのあったりで面白い オタ恋の広告みたいな男生成するのにオススメのモデルって何がある? やっぱpython勉強したほうがいいのかな?lora作れなくなって原因
わからんからコード解析する必要あんのかな エラーコード検索にぶち込んだら大体原因わかると思う 二次絵でメスガキがパンツ見せてニヤニヤしてるローアングルなイラストを出力したいけど、メスガキっていうプロンプトが見付からない
参考になるプロンプトありませんか? 急募
水着やパンツの上から陰毛が透けて見えるプロンプト
誰かわかる? >>502
mesugakiタグはDanbooruにあるけど枚数少ないね
devilish smile
skirt lift
from below
あたり組み合わせるしかないのでは >>504
>>505
有能すぎワロタ
マジでありがとう頑張るわ
まだ始めたばっかやけど使いこなせたら自分好みのオカズ作りたい放題とか夢が広がるぜ Danbooruタグ使うのはNAIベースだったころの話なので行きつく先が元素法典
SD1.5使う人なら旧日黎明参考にしてもいいけど
ぶっちゃけツイマンガがつけてるタグの方がわかりやすい現状 プロンプトの保存と編集を前のスタイルに変更する拡張ってないかな? 動画なんとかならんのかね
たった5秒でもいいから全く違和感のない動画見てみたいわ >>510
SDの仕様のままではあれ以上は無理
不可能ではないけどインスタントに作る範囲では精一杯というかむしろようやっとる komonoのkaiysxという人の動画は出来がいいよ
6個くらいの動画があってモーターショーとダンスのやつは2分越えてる >>489
ああそりゃ完全に荒らしだわ
画像だけはスレチでいいね、こういう悪い工作する奴もいるから 違和感ない動画は3Dポリゴンにでもして動かすしかないな 手元で作ってるimg2imgでも要素がガラッと変わるの見てるから、それと似たような事で動画作ってるんなら難しいんやろなあ
メソッド次第で多少はマシになるのかもしれないけど 動画はまってるけど、画像以上に運要素いるね
まずは通常画像でチェックしていけそうと思って動画で出力したら
画像以上にLoraの絵に引っ張られてたり 今年中にはできるかなと思ってたけども2D絵を違和感なくアニメーションさせるのはまだまだ先になりそうね 将来的にはメガネ型のカメラ&モニターで
見ている画像を生成AIにかけて
擬似的に透視メガネを実現できそう それ技術的には今でもギリ実現可能レベルかな
現状では生成の精度/速度と持ち運びに難点あるけど数年後には性能上がったスマートグラスと生成AI組み合わせて実用化できそう 動画面白いけど沼すぎる
モデルとloraの相性が凄い
生成時間もかかるし、夜からやってたらうっかりこんな時間になってしまった 506だけど、思ったように作るならLora必須だと気付いたんだけどファイル名や拡張子でLoraかモデルファイルか判別する方法ある?
配布されてるファイルだけではどこのフォルダに入れたらいいか分からん物がある。 モデルは2GBくらいある
loraはせいぜい数百MB networkの値弄ってサイズデカくできるけどまあ意味ないしすぐわかるか AI動画専用の投稿サイトってまだないのかな
上手い人のプロンプトやら参考にしたい 動画サイト欲しいね
Video to Videoの元ネタ集としても、画像よりもポータルサイトの必要性が高いはず ティンコを抜き差ししてって書いてもめっちゃ無視される
腰は動いてるけどティンコ動いてねぇぞ
って感じで試行錯誤してます モーションモデルがその辺学習してないんじゃないかな
胸だって揺れないし
自分で撮影してv2vするしかない ディルドー挿れて乳に水風船付けて揺らしてる様を撮影するのか。。。 txt2imgに飽きてきたからimg2imgで剥ぎコラやろうとしてるんだけど超難しくねこれ
inpaint+controlnetのopenposeでやるのが普通なんだよな?
裸にしようとしてるのに勝手に余計なもの描いたりつなぎ目が不自然だったり全体がグチャったりでマトモなものができん
Mask mode:元の画像による(顔と身体の塗りやすい方)
Masked content:latent nothing(originalだと裸にならないので)
inpaint area:Whole picture
Denoising strength:0.85
プロンプトはDeepBooru解析して服のプロンプト抜いてcompletely nude+α
って感じでやってるけどみんなどうやってるの?
あとマスクって保存しておけないの? i2iならsketchのほうで肌色で塗りつぶすだけじゃね >>532
それやってもマスクの形に沿って服の残骸みたいなのが出ちゃうんだが AnimateDiff挑戦中
設定合ってるかわからんけど、とりあえず複雑で忘れがちなのでメモ
というかループってこういう動きを想定してるよな
https://i.imgur.com/ajg7KCr.gif
https://i.imgur.com/JZrqGZT.jpg
Model:kawalighting_V2
Sampling method: DPM++2M SDE Exponential
Sampling steps:20, CFG Scale:10
・ControlNet不使用
・AnimateDiffバージョン:16b1781f
・プロンプトで以下LoRAを設定(Preffered Waight=1)
<lora:v2_lora_TiltUp:1.25>
・Frame Interpolation:FILM (要Deforumインスコ)
ツッコミどころあればよろ >>534
なんで17フレーム?
俺はmp4とwebpで出力してる
webpはプロンプト格納用で
interpは2でやってる
ループはずっと見てられるのがメリットだけど動きが少なくなりがちなのが悩ましい 顔が奥になって小さくなる構図だとディテールが物凄く適当になりますが、現状これをどうにかする手段はあるのでしょうか? >>535
うまくいかないケースって、16フレで前半8フレと後半8フレで全然違う絵になったりするのよね
それで色々試した結果、Context batch sizeより大きい数字にするとうまくいくみたいなんでとりあえず17にしてる
ドキュメントでもそこで変わるみたいな記述あったからさ
https://github.com/continue-revolution/sd-webui-animatediff#how-to-use
mp4とwebpはまだ試してないな、やってみるかな >>536
完璧な対策はない
生成サイズを大きくするか、ADetailerで緩和するか
顔だけ切り抜いてi2iでアップスケールしてから縮小してはめ込むという手もある >>537
75トークン未満なら分割された事ほぼないな
雰囲気でやってるけど色々あるんだな >>536
背景中心で顔が小さい場合、ControlNetのTile/Blur使って拡大すればでうまくいくかと
以下はキレイに4倍拡大する上で俺がうまく行ってる設定な
Hires.fixは2倍までに設定して、その後i2iに送る
ScriptからSD Upscale選択して 2倍設定(アップスケーラーは例えばSwinIR_4xとか、none以外)
ControlNetでPixel Perfect, Tile/Blur選択
Preprosessor tile_resample, Model: control_v11f1e_sd15_tile選択(要追加ダウンロード)
Denoising strength 0.55〜0.6くらい、CFG Scale:3
Step数はt2iのStep数と同じかやや大きめ
Hires.fix使わずにSDアップスケール4倍にするよりはこっちのが出来がいい気がする
設定によって拡大の出来が結構変わるから、あくまで経験則ね
TileDiffusionやTiledVAEも使えるのかしらんけどそっちはわからん
界王拳2倍x超サイヤ人2みたいな感じ >>539
なるほど
自分の環境だとトークン数少なくてもダメだった気がする
逆にこの設定だとトークン数130以上でもできてるね
モデルとサンプリング方法でも変わってきそうだけど ステップって低くしすぎたら奇形出やすくなる?
PixAIでやってるからステップ低くしてる
蟲姦つくってるんだけどうまくいかない
loraは入れてる >>543
なるよ
サンプラーごとに品質保証となるStepの最低値みたいなのが違うから一概にこの数値にしろってのは言えないけどね
LoRA入れるなら尚更高めにしないとグチャりやすくなる(LoRAによるけど) >>531
リアルかアニメかでノウハウたぶん違うんだよな
どっちなん? 今さら疑問なんだけど、速度遅くてステップ数も要するサンプラーって他の何か優位な点があるの?
サンプラーって同じプロンプト・シードの味変用にぐらいしか捉えてなかったから、気付けば初期の頃の遅いやつ使わなくなってた >>531
sketchでざっくり下描きしつつ、inpaintでマスクしてdenoise低めでやるといいよ
着衣状態を直接剥ごうとするとdenoiseでかくしないと剥けないからマスク内外つなぎ目の整合性が取り辛い
俺はよくi2iでパンツ剥いてぶっかけとか作ってるけど「書き直す部分」以外に関するプロンプトは全く必要ないよ
マスク外の絵はもうできてるんだから、事細かに指定する必要なく1girl,nude,nippes,pussy,standingとか最低限でいい
sketch下描き+denoise0.4〜0.6+最低限のプロンプトでやってる
sketchで基本的なポーズも指定されるからcontrolnetも使わない >>547
Extensionとかの動作が安定してるからEulerから動かしてないわ
まあDPMでもいいとは思うけど ステップ20でやってるけど奇形ギリギリなんよな
本当は30ぐらいにしたいけど遅くて選べない step30で耐えられないなら20でも相当遅くね? 7thやAOMからの流れで「DPM++ 2M Karras」で動作確認してるモデル作者が多い印象だから
特にこだわりがないならDPM系がいいと思うよ
と言いつつ自分はEulerだけど あァァァ…歯が上手く出せなくて完全に行き詰まった…
アニメ調でも妙にリアルになるのは何なんだろう リアルで学習させたモデルだからでしょ
そういう場合は一度FLATのLoRAかますとええ感じになる アップスケーラーなしで縦解像度2300とかいってるのに画像崩壊してない人って何やってるのあれ
真似しようとしても無理だわ ・崩壊してないように見えて、実は周期性・連続性のある絵で、崩壊自体が絵として成り立つ
・CNで補助してる
・その他、プロンプトの範囲指定系機能使ってる
この辺じゃない? upscale無のt2iはまともな画像にならなかった気がする 556だけどどうやら普通にアップスケールしてるっぽい
解像度半分にしたらそっくりなやつ出てきた
おかしいと思った そらそうやろね
768×768ぐらいでも隙間に何かと描きこもうとするAIちゃんなんだし あれ、majinaiのプロンプトなんかバグってんな
スクショの方が正しいです 流石に分かっとるわい
sketchとinpaintを両方使う、が分からんのよ
まあsketch自体もよく分かってないが >>548
この技法はワイもわからないな
>>563
ネガティブないのがまず変だと思うがなんでだろ?
自分がやるならインペイントスケッチで裸描いて、袖とかは背景の色で埋める
プロンプトはポジネガきっちり入れる
latent nothingはようわからん…
別のやつ使うな CNは使わない
インペイントスケッチがポーズ指定になるってとこは548と一緒や 元の服やその形状に用が無いのなら残しておく理由は無いね 最近は動画ばかり出力してるけど難しいよな
顏の向きや髪型や服・装飾がまるで安定せず変わりまくる
CNでやれないことはないけどテキストのみの時に比べ自由度が全くなくなってしまう
AnimateDiffは動画としての時間が短い、動きが乏しい、画質も粗いがコスチュームはまあまあ安定してる事が多い
prompt travel(Easy prompt anime)はかなりの長時間動画を作れ動きもぬるぬるで画質も良いが、コスチュームなどの変化が大きすぎる
この変化さえ抑え込むことができればめっちゃ実用的なんだがなあ この1年間ひたすら、skirt lift画像だけを楽しんでるから、animediffでもひたすらスカート上げさせてるわ
数秒でも足りるから満足
くねくね動くだけだったりするけど、それが丁度skirt liftとの相性も良いしな
何らかの動きをさせようとするとまだまだ実用性はないだろうな animatediffの2秒しばり随分前に無くなってるけど未だに言われ続けるのはなんなんだろうカワイソ 画像のノリでプロンプト入れると2秒で切り替わっちゃうのは今もだからじゃね >>563,568
両方使うって別に特別なことしてるわけでもなくて、sketchで下描き作ったら、それをinpaintに転送してマスクで描画範囲絞ってるだけだよ
sketch→inpaintタブ切替で、sketchで描いた内容をinpaint元画像に挿げ替える感じになる
要はこのくらい適当に剥いたやつをベースに普通にマスクかけてinpaintするのと同じ
https://ero-gazou-uploader.x0.com/image/36416.png
i2iはあくまで元絵をベースにするから、裸と色味が違いすぎるものを直接剥こうとしてもうまくいかないことが多い
(先のレスで言ったように、denoise大きくしないといかんから繋ぎ目がずれやすかったり色味おかしくなったり変な衣装の残骸が出てきたり) 3060で動画生成してる猛者はおるん?
10秒ぐらいじゃなくて
シーンを変えながら2〜3分ぐらいの尺をアニメ絵で動画生成するとなると
やっぱ4090必須? 4090は別に必須ではないよ
SDにおいては3060と4090で機能的に動く・動かないはあまり変わらなくなったから(VRAMオフロードのおかげ)
単純に時間や快適性にどれだけ金かけられるかって話になってくる >>576
3060でも時間さえかければ1分の動画は可能だよ
1分のアップスケールも果てしなく時間はかかるけど可能
ただし振り向き問題や髪やコスチュームの変化などが秒単位で常に発生していくんで、無理して長尺を作るメリットが無い(今のところ)
複数人物を出せば融合しまくるし、もちろん髪やコスの変化も2倍発生
なので今どうしても長尺をやりたいなら、ControlNetを使うなりして安定した動画を10秒程度ずつ作ってそれをつなぎ合わせる事だと思う >>577-578
具体的にはFHD解像度でボカロPVを自作したいと思ってて…
なるほど4090じゃなくてもOKなのね
あとは時間に金をかけるか否かか… あ、
>ControlNetを使うなりして安定した動画を10秒程度ずつ作ってそれをつなぎ合わせる事だと思う
これで全く問題ないです
どうせ数小節ごとにシーン切り替わるので ボカロみたいにSDが得意としてて造形もそこまで複雑ではないキャラなら今からでもできるんじゃないかね
局とリズムを合わすのが大変だろうけど ボカロを描くんじゃなくて、ボカロ曲用のPVを自作するみたいな感じじゃないか
自分も作曲齧ってるけど映像作るのがすごいダルいのよね 曲作りたいだけであって映像やりたいわけじゃないし
動画作成に関してはSDはポイントポイントの素材作りに使って
全体の作成はaviutilなりaeなりのツール使って静止画動画両方織り交ぜていくほうが現状は楽になるんじゃないかな 既存のMMDを高解像度化とかかもしれん?
アドバイスできる知識ないけど
まずは短いので納得いくクオリティ出るか見た方がいい 電気代高騰してるからマジでバカにならん
ちょくちょく生成してるだけだけど月1万かかる
ワッパ考えたら4090以外はキツいな ぼちぼち政府の補助金も終わりなんだっけ?
まあケチるつもりもないが >>572
結構 skirt liftだけではうまくたくしあげてくれなくね? 先生手であげてるところのプロンプトを!w >>575
ありがとう
でもよくわからないな
フォトショで着色ならわかるけど
インペイントスケッチ着色部分がすでにマスクになってるからインペイントでマスクする意味はあるんかな? ■ このスレッドは過去ログ倉庫に格納されています