【StableDiffusion】AIエロ画像情報交換33
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換31
http://mercury.bbspink.com/test/read.cgi/erocg/1694071226/
【StableDiffusion】AIエロ画像情報交換32
https://mercury.bbspink.com/test/read.cgi/erocg/1697419936/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ18
http://mevius.5ch.net/test/read.cgi/cg/1694882607/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>318
うん、SDは曲の内容知らんよ
どっちかてーと、動画素材をろいろSDで作った後に
適当な作詩を考えて曲を作った感じ >>319
西友には簡単になれる
いつの話をしとんねん >>321
まだまだエンジニアと言って良いハードルの高さだな 元動画と比較↓
https://files.catbox.moe/s3nmtl.mp4
変換後の動画で耳のある位置は
元動画では、ほとんど髪で隠れてる
んで、動画変換に使用しているEbSynthの特徴として
元動画の動きをトレースしてフレームを補完するから
髪が動いた分だけ耳が伸びてしまうのよ Stable Video DiffusionとかAnimateDiffとは別の話だけど
イラストをソースのモーションで動かすやつも凄い進化してる
Animate Anyoneが理論だけでて驚いてたら類似技術のMagic AnimateがByteDanceから動かせる形出ててびっくりした
ついでにVideoSwapなる類似技術もたった今出た
これはいよいよ完全に個人・お一人様でAVの時代来るかもね 用途全く違うがi2iの元動画はvamからキャプってるわ
自由度が半端ないしシーンデータも大量にある
vamの自作嫁をSDでより実写化したときは感動した >>324
簡単プロンプトアニメのopenpose?
自分もAVの動き取り込もうとしたが
全然うまく行かなかったわ ローカルにStable Diffusion入れて使ってます。
同じ顔の人物の画像を生成したく、Seed値を固定でも別人になります。
気に入った画像をpng内の情報を表示に入れて、
txt2imgに転送でプロンプトなどはすべて同じはずなんですが、何か間違ってますか?
画像によっては似た感じの顔になることもあります。。
そーゆーものですか? >>329
簡単プロンプトアニメはまだ使ったことない
AV変換の部分はWebUIのimg2imgで
ControlNetを2枚(たぶん、NormalMapとSoftEdge)使って
キーフレームを変換した後、
EbSynthてやつでフレーム補完するってやり方で作ってる
自分の場合はControlNetのOpenPoseを、
一人の人物の体全体が画面内にある時は使うことあるけど
AVは複数人が密着したり、局部をアップにするケースが多いから、
なかなか出番がない
単体オナニーものとか、単体野外露出ものとかでは使えそうだけど seedにはそんな機能ないよ
顔の特徴固定はLoRAとかControlNet使わないとほぼ無理 より、強力に制御できるのが、controlnetってことですか? >seedにはそんな機能ないよ
>顔の特徴固定はLoRAとかControlNet使わないとほぼ無理
えっ、そうなんですか・・・
ありがとう! >>330
「PNG内の情報を表示」タブからやると
ADetailerの選択とか、なんかは反映されなかったような・・・
「PNG内の情報を表示」タブからやるんじゃなくて
「txt2img」タブの「プロンプト」入力欄に画像をドラッグドロップしてから
「生成」ボタンの下にある「/」こんな感じのアイコンをクリックしてみるのおすすめ
全く同じ絵を出したいのか、
同じ顔の人物の別の絵を作りたいのかわからんけども お、なるほど、やってみわ
同じ顔の人物の別の絵を作りたいのかわからんけども、がやりたい ポジ、ネガプロンプト入れて、ControlNet reference_onlyで、
ベース画像を入れると顔を維持したまま、別の画像になったわ!
あとはプロンプトの微調整でいろんなシチュエーションつくるで使い方あってます? 自分のやりたいことが実現出来たらそれで正解としていいんだぜ そっか、じゃ正解で!
あと、インスタ リールでやっているような、イラストを滑らかに動かしたいんだが、どーやるのが、おすすめです?
テンションあがったんだよー >>330
静止画を作りたいんだろうけど
逆に アニメイトDiffか
ステーブル ビデオ ディフュージョン 使うと
同じ顔になるんだよ
だって動画なんだから同じ顔 >>344
わけわからん初心者からreferenceonly実践まで早すぎて
アフィ用のレス集めにしか見えない SVDのmotion_backet_idはなんとなくどこを動かすかのフォーカスみたいなもんなのね
うまく液体動かすのにコツを掴んできた 初心者のフリをし飲み込み早いフリをしてアフィネタ作ろうと演技してたら指摘され、言い訳がエンジニアの端くれは矛盾だらけで草 液体はmotion bucketは7がいいかも知れません >>351
ロジハラは犯罪だろ!いい加減にしろよ! こんなスレをアフィしてないで
もっとニュー速系とかの方がクリックして貰えるだろ oyakodon milk factoryみたいなlora使ったら普通のおいしそうな親子丼の画像が出てきた
釣り? ちょっと目を離した隙に置いていかれそうなくらい進化してんな
まあYouTuberがわかりやすく解説してくれるだろうな 皆がやっているような動画繋ぎ合わせて作品作るの楽しすぎ
何の才能もない俺がクリエイターになった気分 クリエイターだって最初はみんなそこからだったんやで
がんばればその先があるかもしれん 最近始めた初心者なんですがネガってどこまでいれればいいのかが難しいですね あんまり入れすぎると逆に構図に制限がかかって破綻したりするからね 新しいモデルのネガティブならこれだけで良い。腕とか足が増えるのは凄い稀
(worst quality,low quality,normal quality,low res,normal res,out of focus,blurry:1.5),
新しいモデルはCivitaiで人気のやつを落としてくるといいよ >>365
ありがとうございます
これでやってみます Civitaiでベースモデル眺めるだけでも楽しいな
今はこれがトレンドなんだなって カメラ目線をそらさせるプロンプトやLoraってないの? >>369
るっくあっとびゅーをnegative強めで入れたらダメか? ネガティブはポジティブの補完に使うかな
Japaneseとdressが入ってると着物が出たりするからkimono入れたり
チャイナドレス蹴るのにChinese入れたり、単純に谷間やスリットも入れる
人物複数ならmultiple girlとか
効いてるのかわからんがfusedは常時入れてる detailedとか否定語つけてネガに入れたほうが効きがいいからそんな調子で色々入れてると結局長くなる って言うかlow resとか多分いらんよ
ポジに4kや8k等解像度指定や、脳死で入れてるdetailed ○○入ってたら低解像度にならないでしょ
detailedも解像度指定入れてれば意味無い(と思ってる)から私は入れない そのうちネガティヴ入れなくても綺麗に出すモデル登場するだろ LCMとかCNの進化も凄いがモデルの進化も凄いもんだ
そのうち指が安定するモデルも出るんじゃね Magic Animate install
してみたけどこれすごいな
もう一つの到達点に来たね
AVが作れるわこれ しょーもない卑猥な歌詞を
真面目にAIに歌ってもらうプレイ。その2
https://files.catbox.moe/6qq7zt.mp4
(※音量注意)
今回の映像部分は、新しいLoraやCheckpointを
試してるときに溜まった副産物を
寄せ集めたやつだから統一感なし MagicAnimate install
AnimateDiff
この2つで忙しすぎだよ
もう完全に動画の時代になった MagicAnimateはTikTok
Animate Anyoneはアリババなんだね
https://forest.watch.impress.co.jp/docs/news/1552473.html
超大手が絡んできたなぁ
中国パワー凄い MagicAnimateインスコしたらディフェンダー先生から警告食らったわ
よくあるローカルサーバー系の誤検知だと思うけど前にそう思って強行したらxとかtiktokに乗っ取り投稿された事あるんで大事をとってアンスコした
anyone待つわ まだこれからなんだけどMagicAnimateのモーションデータって
エロいのとかユーザーが作ってcivitaiとかで公開されてるの? >>386
Colabで試せるよ
起動に7分、アニメ生成に16分かかるけど MagicAnimateは二次元だとうまくいかなくてガッカリだったな 結局はControlNetを使った補正みたいなもんだったね
体型とかもMotion Sequenceに引っ張られるから
サンプルをそのまま使うと強制的にリアル系になってしまう
Motionが充実してくれば変わるかもしれないけどその間に他のが出そう 動画が静止画並みに簡単に生成できる時代もそう遠くないな 派生モデルが出る前のSDと同じ状態かも分からんね
学習のために必要なデータの違いとかでそんなに早く進化しないかもしれんが 動画は背景とか人のアクセとか
ころころ変わるの辞めたら始めるわ オッパイに注目をあつめれば
服や背景が変わったことがバレにくい説の実験
https://files.catbox.moe/kxnvxa.mp4 >>380
アホすぎてワラッタ
音声系のAIも触りたいけど動画もまだ作りたいし
やりたいことありすぎて困る >>380
くっそくだらなくてわろた(褒め言葉)
作曲もAIだっけ良い感じの作れるんだなあ >>403
エロ歌作りおもろいよ
くだらない歌詞ほど、
AIの真面目な歌唱とのギャップがささる
最初は映像に合わせるために、曲を用意するつもりだったんだけど
だんだん曲のために、映像を用意する方向に変わりつつある >>373
プロンプト側に4kとか入れてもまったく意味ないよ
ネガティブ側にロウ、ノーマルクオリティ入れるほうが100倍効果ある
あと未だにプロンプト側にマスターピースだのベストクオリティだの入れてる奴いるけどこれももう入れなくていい。意味がない マスピはおまじないで常時入れてる
新しいモデル試す度に効くか効かないか見るのめんどくさいし
だがまあ大量のクオリティタグをずらずら並べるのは良くない文化だわな 4Kとか入れて劇的に変わるのってMidjourneyだよね モデル作者が同じだとプロンプトの使い回しが可能だな マスピとか画質を上げるプロンプトを入れるとせっかくの顔LoRAが別人に変化してしまって使うのをやめた プロンプトを変えると生成時間も変わるんだけど法則性がよく分からん
プロンプトを減らすと時間が増えることもあるしその逆もあるしどういうこっちゃ >>380
無意識に「♫赤ちゃんできちゃ〜う👶」って口ずさむようになってしまった
どうしてくれるんだ😡 Bingから正方形で出力される画像を下絵に取り込んで上手く縦長や横長に加工するにはどうすればいいんでしょう? マスピは皆同じような感じになって
マスピ顔とか言われてたね civitaiにクォリティタグを1つにまとめたLECOがあったので最近はそれを使っている モデル探しより好きなキャラのLora探すほうが楽しいな 現状、動画生成AIはローカルで動かすのキツイなw
いろんなソフトウェアがオンラインへ移行してるし
もうローカルPCで重たい処理をする時代は終わったのかもしれんなぁ 最中に目をギュッとつぶってる様なプロンプトってあります?
単にclosed eyesだとすやすやしてしまう… ■ このスレッドは過去ログ倉庫に格納されています