【StableDiffusion】AIエロ画像情報交換31
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換30
http://mercury.bbspink.com/test/read.cgi/erocg/1692070086/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ17
http://mevius.5ch.net/test/read.cgi/cg/1693401315/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 昔、技術スレにいた系統のアレかな?
トンデモ理論みたいなを自分で勝手に構築して、それが確定事項みたいに書き込みつつ
レス量で圧倒してくるってタチの悪いやつだったが・・
こちらの反論にのらりくらりと言うこと変えながら
すべてが嘘とも言いきれないように言葉を変えて誘導しつつとんでもない角度から反撃してきて難儀したよ 人物のlara 学習について教えてください。タグに parted lips とか、brown eyesとか、形容詞がつくものがあるのですが、これらは削除(学習の対象)すべきでしょうか。brown eyes を削除してしまうと、eyesのタグが全く無くなってしまうのですが。 絵の学校とか生成AIを積極的に使うような指導していくべきだと思うんだが
イラストレーター目指してオリジナルに拘ってる学生とか見てて辛いわ
5年前ならまだしも今はもう描けないもの無いもんね どっちも消さなくてもいいけど
brown eyesを消さなかった場合blue eyesとかに変化させる確率が高くなる
消した場合他のタグがその消したタグを吸収してしまってblue eyesにしても吸収したタグが存在する限りbrown eyesになりやすい
parted lipsは口の表情だから人物じゃ消さない >>590
仕事で美大に出入りしてる身としては商業・工業デザインなんかはそうかもしれんと思う
……が、言わなくてもあいつらはとっくにやってるぜ
普通の高校大学生と違って、そのためにそこに居る連中だからアンテナの張り方とフットワークの軽さが違う
あと例えばAdobeのFireflyの元画像供給側になれるのはオリジナルを描ける奴だからオリジナルにこだわる事は無意味ってわけでは無い
報われにくくはなるだろうが(AI絵と需要を取り合うという意味で) オリンピックロゴの時にデザイナー陣はデザインなんて全てパクリだと開き直ってたから
SDとの親和性もの凄く高いんだろうな デザインで今認められてるのってミニマリストのアホみたいに分かりにくいデザイン作った人とかでしょ?
既にまともな人が評価されてない(奇抜な人ばかり取り上げられる)業界ってイメージしかない https://files.catbox.moe/u0qu3z.mp4
animatediff-cli-prompt-travelはすごい
JNVAスレの方でズンタンニキが簡単に環境構築できるようなツール公開してくれたからハードルぐっと下がった
うちでは何故か上手くいかなかったから取り敢えずプロンプトだけ頂いたけど流石いい感じだ >>578
配慮の範囲でやってる
たとえばレズ画像ばっか出力するユーザーには
SEED値ランダム出力であっても男性との絡みがあるSEED値を避けたり
そういう「縁の下の力持ち」的な部分だけどね 氷のプールに浸かる競争で、美人インフルエンサーが下痢を噴出 [774971695]
この画像ください ちな and は追加を表わすけど AND は融合なんだよ
これめっちゃ重要だから覚えとこう! d1-でNGNAMEしとくといいよ
ワッチョイ変わってもその部分はほぼ不変
巻き添えで消える人いるかもしれんけど誤差よ誤差 欧米実写のモデル教えて
欧米でぐぐっても多くのモデルが欧米系です〇〇はそれとは違い〜
ばっかり >>583
ガチャの産物ですわ
法則性はわからんっす >>604
civitaiでモデルのサンプル見て好みのを選ぶのはアカンのか?
一口に欧米系って言っても好き嫌いあるだろうし 今civitalで探そうとしてるけどフィルタかかっとる
your profile やaccount settingが開かないかぐるぐる回ってる
ログインしてるのだけど
昨日もここで2つDLしようとしたが失敗ばかり 大体zipangにyou爺loraでおk
って冗談は置いといてcivaitaiのrealisticタグ付いてる人気順見ていけば良いんじゃないかな >>590
指導も糞もAIなんてよほど馬鹿じゃない限り一か月あればできるだろ
しかももっと簡単になるだろうしな >>589
loraの教師画像につけるタグは
・つけたタグ全てに教師画像全体のピクセル情報を覚えさせる
・生成でタグが指定された時に、その教師画像のピクセル情報が採用される可能性が上がる
というシンプルなものなので割と適当でいいよ
トリガワードと簡単なアングル・ポージングくらいまで削ってもいいし
taggerでつけたそのままとかでもいい AIアートなんて別に独学で誰でもできるんだからそんなの教わるほうがおかしいけどな
そんな学校に通てってる奴ならだれでも応用できるだろ stable diffsionの使い方、AI画像生成方法を教えます的な
教材を売ってる人も居るんだな…買う人いるん? 攻略サイトがあっても攻略本が売れるんだから買うやついるんだろうよ 体育館に中学生が一面に体育座りしてて
みんなパンツ見えてる、というのがやりたい
体育座りは
sit on ground, stand knees、でいける模様 >>604
ちびたいにchill派生の欧米実写モデルいっぱいある 複数の人物にプロンプトで指示を分けるの難しいね、inpaintingでちまちま修正していくしかないのかな、みんなどうしてるの? >>622
いくぞ!Regional prompter〜! >>619
白黒になっちゃったけどこんな感じならできた
group shot, mass of girls in straight lines are sitting on gym ground 〜
みたいな感じ
https://i.imgur.com/3n7cOQg.jpg braが2.3、Chillは2.8次元くらいなイメージ おジャ魔女どれみのloraからエロ画像を生成してみてこれ生成していいのかと困惑している
まぁ生成するんだけど >>628
でぇじょうぶだ
おジャ魔女のエロ同人やイラストがいくつ世の中にあると思ってる
胸張ってシコれ キャラものとか生成してて表情や表現が色々出てくるとメジャー作品だなと思い、プロンプトどういじくろうが似たような絵ばっか出てくるとマイナー作品なんだな……と微妙に凹む >>624
センターの子のぱんつどうなってるんだ? >>622
SDのプロンプトは根本的にそういうことをやるのに向いてないのよね
人物を個別に認識するみたいな概念がないし
プロンプトに色々文章書いても内部的にはタグの羅列的なものに変換されて一列に処理されるから
すごい端折って動作を説明すると
右の人物はスカート、左の人物はズボン と書いたとして
スカートというタグを持つ絵、ズボンというタグを持つ絵、右の人物以下略、左以下略の学習情報を参照して
なんとなく1枚の絵をそれっぽく仕上げるということしかしてない
右の人物とプロンプトに書いても、画面の右にいる人物を表すんじゃなくて
「右の人物というタグを持つ絵の画面全体のピクセル情報」を参照するだけ >>633
モデル改善とかじゃなくまずここを改善してほしいよな
苦手とかじゃなく原理的にできないのおかしいよほんと そこはSDの完全なる次世代、または新たな別技術の登場を待つしかないわな
今の生成は画面全体を1つのノイズとしてとらえてそこに各種変数を掛けていくってやり方だからどうしてもプロンプトが混ざってしまう
最初のノイズの時点で任意の個数と形に設定できるなら今のSDでもできるのかも知れんけど latent couple系がそこそこ使えるし
ABG Removerとかで背景透明画像のレイヤーを作って手動で重ねていくとか
inpaintするとか効率を落として頑張る手もあるが
抱き合ったり色んな体位となると厳しいねんな 大分前、latent coupleと使えなくなってすぐの頃のregional prompterは期待通りにLoRA適用できたけど
その後ずっと駄目だわ >>634
原理的には既にできてるはずなんだけどな
例えば〇〇する男と△△する女と書けば、TextEncoder的にはTransformerのAttentionがちゃんと各単語について必要な単語の方に向いて理解できるはずなので、それをちゃんとUNetに伝えればそういう絵ができるはず
なんでできないのかは分からんが 画質PTやNGで除外されて狭まってしまうのが大きいと思う 原理的にできるのかどうかわかってる時点ですごいわ
できないという現実の前に解明する方法が今は存在しないんだと思ってた ちょうど上から頭首肩胸と並んでるのが当たり前で
逆立ちはほぼ書けないみたいにこの単語はこの位置ってのがあるんよな
で、漠然と男女と言っても人間でも位置関係分からん
おまけにlatent coupleを使って男と女を描けと言っても
1人を描くのが癖らしく時々片側だけ胸がある人間を描いたりする 学習段階でもっと詳細なタグをつけてやれば基本何でもできるんじゃね?
ただその学習データを用意するコストが大変なことになりそうだけど annotation is all you need テキストエンコーダはちゃんと理解してるってほんとかよ
ならなんで色移りとか起きるんだ?
「全てのプロンプトが全体に影響するようにしか解釈できないから」だと思ってたが違うのか?
空と人物、とかの全く違うものが混ざらないのは、それらが混ざった絵を学習してないってだけじゃないのか? 同プロンプト同設定でバッチ回数指定で
AnimateDiffの動画生成ガチャ実験してみた
↓mm_sd_v14 で25連ガチャ
https://dotup.org/uploda/dotup.org3050221.mp4
↓mm_sd_v15_v2 で10連ガチャ
https://dotup.org/uploda/dotup.org3050222.mp4
POV視点で、草の上に仰向け(on grass)で正常位(missionary sex)
という意図でプロンプト設定したんだけど
mm_sd_v15_v2 の方は、仰向けに寝てくれない・・・
mm_sd_v14の方は仰向けになってくれる確率高いけど
足が生えたり手が生えたりで、惜しいのが多いかんじ
とりあえず、一番よさげだったやつ↓(3倍速60FPS)
https://dotup.org/uploda/dotup.org3050223.mp4 ついでに、POVのgang_rape系のプロンプトで
CFG=7とCFG=14との比較↓
https://dotup.org/uploda/dotup.org3050227.mp4
今度はmm_sd_v15_v2の方が足が伸びたり引っ込んだり・・・ >>622
俺の実験(実験野郎Aチーム)ではプロンプトは画面の左から右へと適用される
もちろん100%じゃないけど大まかな流れとして Regional Prompterってどうなのかな
使ったことないけど >>646
色移りについてはその色の単語(トークン)のそれ以外の各単語(トークン)に対するAttentionの重みが100:0じゃなくて、まだらな確率分布になるからあり得るかなとは思う
翻訳とかだと結果的に最大確率のものを1つ選ぶから混ざるってことは起きづらいけど、画像だとむしろ混ざらないと雰囲気描写の副詞や形容詞が効かないから択一にならずに確率分布を汲んで描画されるんじゃね?たぶんだが
まあ、それ以外のことででTEはちゃんと理解しているはずなのにおかしいじゃんってことあるから、結局よくわからんのは変わらんが animatediffすごいけどエロアニメやAVの代わりになるにはまだ足りない
でも人間のエロパワーってのはすごいから1年もしないうちにプロンプトだけで実用レベルのエロ動画作れるようになるんだろうな 出始めは新鮮で抜ける
慣れたら抜けない
だからまた次を生み出す
この繰り返しで今の文明があるからな ワイ英語全くわからん勢なのだが
SDのおかげでどんどん英単語覚えていく これはAI学習でって試みなんだろうけど
3Dモデリングとかと組み合わせて
人物モデルとか衣装とかポーズとか背景とか選べて
破綻なく決め打ち出来て
それでいて写真と見分け付かないくらいリアル
みたいなのを望むけど
そんな素晴らしい物を無償提供して欲しいなんて
厚かましいよね きっと >>654
今まで碌に使うことなんて無かった
翻訳サイトめっちゃ使う様になったな 我々がSDを調教してるんじゃない
SDが我々を調教してるんだよ 我々の方がSDに最適化されていると考えるのも面白いな 指定しないと中韓っぽい服装になりがちなのがゲンナリ >>651
>重みが100:0じゃなくて、まだらな確率分布になる
>択一にならずに確率分布を汲んで描画される
これはやっぱり複数の対象を個別に修飾することは「原理的にできない」と言ってるように聞こえる
black cat and white dogと書いて白黒の犬っぽい猫とかが生成されるのは、
どの単語がどの単語を修飾するか確率でしか判断してないってことなんだろ?
black cat, white dogにすれば改善されるけど確率が上がるだけで混ざることはあるし、
catとdogじゃなくて両方catにて修飾を増やしたりするとまるで制御できない
更に現実としてほとんどの人がプロンプトを文じゃなくて単語や句の羅列で書いてるわけで、
この書き方だとそもそも"black hair" "big breasts" "white shirt"などがそれぞれどの"girl"を修飾するのかAIに伝える方法自体無い ベクトル計算で示された所に一致する物がある事はまず絶対に無く、どれだけ近い所に近似値があるかの問題てわけでも無いのか >>660
原理的にはできるよ
黒い猫と白い犬の写った様々な種類の画像を用意してblack cat and white dogってキャプションで学習すればいい
現状は黒い猫、白い犬単体を生成する方法しか高い精度では学習できてないから混ざることもある Adobe Photoshop Elements 「選択ツール」⇒「色の置き換え」
これで選択ヵ所の色合いは自由自在、SDの画像は素材にすぎないのだ つまり「黒髪で白いシャツと赤いスカートを着てベッドに寝ている女の子の上に金髪で制服を着た女の子が座っている」絵を描かせようと思ったら
A girl with dark hair, wearing a white shirt and red skirt, sitting on a bed on top of a girl with blonde hair and wearing a school uniform(DeepL翻訳)というキャプションでそういう絵そのものを学習させれば良い、ってことか?
これで「原理的に可能」って言うならそうだけど…
ていうかこの場合"white shirt"だの"blonde hair"だの"sitting on a bed"だのの要素を個別に学習させてはいけない(すると混ざる)のでは
となるとそもそもこんな長文にする意味はなく、"abcdef"みたいな意味の無い文字列に関連付けて学習させるか、その絵を描く専用のモデルにすべき
つまり「専用のLoRA作ればどんな絵も描けます」ってだけの話かね こういうのって「余計なものを描かせない」と「必要な物を余さず描かせる」の両立が必要じゃん?
そのパターン網羅して全部学習させたモデルとか何Gどころか最低でもTまで行くと思うんだけどどうなの? >>659
お洒落な服装に仕上げてるの見ると
いったいどんなpromptなのか
loraなのかと気になります 何枚も同じキャラクタを生成→
メガネのプロンプトを追加→
メガネのキャラクタが生成される→
メガネのプロンプトを削除→
メガネプロンプト追加前ではいくら生成してもメガネは描かれなかったのに
メガネプロンプト追加のあと削除した後はたまにメガネありのキャラクタを生成するようになった
ネガティブにメガネ追加すれば生成されなくはなるが不思議 >>665
◯んこしか学習してないLoRAを被せると年齢とか指定しなくとも勝手に全身その◯んこの年齢に沿った物になるから
BBAの垂れ乳とか一部分のLoRA作ると良いのかも >>660
現状のCLIPじゃあ結構難しいってことになるんかなぁ
GPT3や4くらいの分量を学習させれば、この形容詞はこの名詞を修飾してるはずとか、この副詞は文章全部にかかっているとかを、文法じゃなくて経験則で覚えるはずだから、そいう意味で原理的には出来るとは思うんだけど、
CLIPは文章と画像のセットを学習させるので、何でもかんでも突っ込めばいいGPT系と違って学習素材の準備が面倒なんだと思う、たぶん >>669
SDの仕様だね、再現性あるからバグではなさそう
スマホに例えると先読み変換みたいなものだな、ユーザー補助の一種とゆーか
こういう目立たない部分の処理が地味にすごいんだこのソフト たんに人工知能を作るとお猿さんになったりアホの子になったりするわけで
じゃあ「頭の良さ」とはなんだと、要は「気が利く」ってことなんだな
ところがこれは未来予測だから難しい、過去のデータをもとに傾向管理することになる
それを前代未聞のtxt2imgでやるには相当な苦労があっただろうなと・・・ >>669
再現性のあるバグじゃねーの?
セッティングのとこでSDチェックポイントをアンロードすれば直ったりする
UIリロードだとチェックポイントが読み込まれてないから変な画像が生成される
なのでモデルチェンジして元のモデルに戻せば同じ画僧になるはず 君の脳内にしかない機能に勝手に苦労話を見出されましても 考察どころか妄想と感想でしかないわな
エロい特殊なシチュを再現するのにLoraはありがたいけど、どうしてもLoraの画質の影響を受けるから極力プロンプトのみで出すようになってきた
povでバックから突っ込みつつおケツに指入れて、入れられた方が(fucked silly,orgasm:2.0)くらいで悶えてるやつくらいならLora要らない事にようやく気付いた… 流れが流れだけに擬人化したLORAのバックから指を突っ込む頭のおかしい奴かと空見したわ AIの定義を議論する?
知ったかドヤは止めた方が恥をかかんで済む グラボ性能が後何倍になったら違和感皆無の動画作れるんだろう
2年以内に現在最強の10倍性能もったやつが出る可能性何%だろう ワイは他人に見せるわけでもなく
自分用のおかず生成専用だから違和感を麻痺させて問題解決や
指の本数なんか気にしなくなったわ
ところでお尻に指入れるプロンプト教えて下さい お願いします 人体動画なんかは3Dモデル作って動かしたほうが早いんじゃないのって思えてくるな
口や目を実写同然に動かす技術は10年前からあるわけだし....、、
それだと違和感皆無でより実写かがテーマになるだけだし。 グラボじゃなくて生成技術そのものに革新的なことが起きないと無理では 3DモデルをAIで作ってそれを動かすで良いんじゃね
完璧な3Dモデルさえ作ればノイズとか皆無なわけだし ■ このスレッドは過去ログ倉庫に格納されています