【StableDiffusion】AIエロ画像情報交換31
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換30
http://mercury.bbspink.com/test/read.cgi/erocg/1692070086/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ17
http://mevius.5ch.net/test/read.cgi/cg/1693401315/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 対話君は>>762のブログ読んでくれたのかしらね
ちなみに他記事もSD本体とか学習とか拡張とかについて「仕組み」ベースで解説してくれているので
興味がある人は読んでくるといいかも
SDをなんだかよくわからんブラックボックスとして使うのもまあ悪いことではないけど
大まかにでも仕組みを把握して使えば無駄な回り道を減らせるかもしれないよ >>790
初登場のときにそのやりとりはもうやってて、車輪の再発明って散々言われてのこれだからなぁ… 利己的な遺伝子のように考えると、
AIにとって人間は
ある種類のデータ塊(※1)を与えることで
AIにとって好都合な様々の作用(※2)をする
ビフィズス菌のような生物なのかも
※1:画像、動画、音声等。ERO因子とも
※2:電源確保、GPU増強、新種データの探索 じゃあAIにとっての生存とは自身(数式)が計算されることかい アニメ絵はエロいのいくらでもできるけど実写系はすぐ破綻するな 実写系はdanbooruみたいな統一規格ないから
学習データの数確保とかタグ・キャプション付けの点で精度高めにくいとかあるかもしらんね このスレのあいでるが決まったと聞いて飛んできました 青葉の書き込みと言われてるやつを読んだら対話君と大差なくて草生えない 性質的には同じタイプだもんなあ
こういうところが精神的な逃げ場所になってるからギリギリ踏みとどまってるようなもんだろうし AnimateDiffでえっちなの作って遊んでたら
偶然にもカットインで悶えてる顔がアニメーションする奴ができて
何かすげーぐっときてしまった >>805
ヨアソビのアイドルが出てきてウザいんだが これ間違いじゃね?ってときはまずググりましょうというのがよく分かるスレ >>813
ログ見たけどワッチョイ丸被りしてんのかよ...
別に信じなくてもいいし勝手にレッテル貼ってもいいけど778はしらねーやつだわ
IP出てないスレだから別人だと簡単に証明する方法もなさそうだしどうでもいいけど IDまでは同時に被らんので同じ日にレスしたら証明になるよ 女の子の日常の画像を生成して、
となりにその女の子のエッチな画像を生成すると
興奮する >>816
日常とエロのギャップで背徳感を掻き立てるというのは割とポピュラーな手法ね
元アイドルのうんたらかんたらみたいな企画ものAVとかで割とよく見かける
ハメ撮りで免許証とか学生証とか並べるのも似たようなベクトルだろうな >>816
onoffのLORAでできる
でも調整が難しいよ
両方の画像でおっぱい出しちゃう PixAIでやってるけどstable diffusion用のパソコン欲しいわ
金が足りない
今パソコン用の貯蓄が13万円なんだけどRTX4060ti16GBメモリ32GBのパソコンを買おうとしたらあと17ヶ月貯金しないといけない 3060なら変に高いCPU狙わない限り13万で余裕だよね たった十数万貯めるのに17ヶ月もかかるような生活してるなら
こんなところで遊んでないで仕事探せ >>826
RTX3060でも試算したみたけどゲームにも使いたいし保証もいいのにしたいから18万円だな
あと7ヶ月かかる
贅沢を言わなければもうすでに買えるな >>827
精神科がやってる就労支援に通ってる
早くパソコンを買うために働きたい
別に普通にハロワ行くなりバイト探すなりしてもいいんだが俺の経歴だとコネがないとコンビニですらお断りだと思う onoffって二次でもいけるんだな
追加の指定がいるけど中々良き >>829
3060の12Gでもローカルで作るの十分楽しいぞ >>832
7ヶ月後、17ヶ月後はそれらのグラボが値下がしてる可能性もあるし
もっとAI画像生成に向いた環境が登場して安く買える可能性もある
だが、台湾有事が勃発してPC関係全体が高騰してる可能性だってあるかもしれない
そして過ぎた時間は巻き戻せない
今、出来る事を、今やってみるのもいいんじゃないかな?
自分はRyzen 5 2600 の古めにPCに 3060 12GBを積んでみたけど
ストレスなくAI生成を楽しめているよ
ま、決めるのはあなただし価値観を押し付けたくはないけど >>833
その可能性もあるよね
Ryzenで保証1年なら今でも買えるし >>829
あっ病気持ちか なんかすまんかった
頑張ってくれ 件のグラボだけど4060Tiは値下がりが著しいし生産が止まらない限りはそのうち5万くらいで買えそう
500W電源で十分だからどう組んでも15万でおつりくるよ あいでる君には是非「けんのグラボってなんだよw」と反応して欲しい とりあえず1万円の中古パソコンに
RTX 3060の12gb を買って
それ後は頑張りゃいいじゃない
しょっぱなから何でそんなに揃えようとするのか >>838
そうか、それでもstable diffusionは動くのか
そういう手もあるな 一万で電源やらケースの大きさやらなんやら加味して
3060が刺さるパソコンあるのか・・・? >>838
数スレ前で俺同じような事言うた
>>840
あるで まあ色々情報集めて自分の環境に合うもの探したほういいだろうな 他人のおすすめに乗って買って後悔しても誰も責任を取ってくれないからな
自分の判断でやるのが正解だ 中古3080だと電源どれぐらい必要だろう
850Wぐらい? ちょっと時間あったので簡単な調査してみたよ
SDのタグやキャプションはあくまでただのラベルあって言語的な意味を期待して文章書くのは無駄なんじゃないかな
ということを改めて確認するためのもの
https://i.imgur.com/EopUk4W.jpeg >>844
nvidiaの仕様だと10900K+3080で750Wありゃいいみたいよ black hairで黒髪が出るのはbalckという色とhairという概念を別個に学習して組み合わせているわけではなく
black hairという塊で「黒い髪」を学習しているから、ということ?
つまり新しい概念(たとえばabcdefという新種の生物)をカラバリも含めて出力できるようにしようと思ったら
black abcdefとかwhite abcdefとかblue abcdefとか別個に学習させないといけない、ということ?
ほんと? >>845
それは loraから抽出するときは、設定したラベルでおk。文章はいらない。
という証明にしかなっていない。
全部loraで補って画像作るなら、確かに文章は無意味だよ。 何もわからんやつは初めに
RTX 3060の12gb 買えばいいんだって
結局 RTX 4090 H100は買うんだから
一番ダメなのは 20万ぐらいで
RTX 4070とかの BTO を買うやつね
それはゲームとか色々やるために
ゴテゴテ余計なのがついてるのであって
目的は AI のみなんだから AI だけやれればいいじゃん >>846
それは俺へのレス?
>>843じゃなくて? それがLoRAとかの追加学習でやってることそのままじゃない? >>847
ベースモデルの既存概念の学習データと組み合わせにくい新語とか造語に関してはそういうことになる
>>848
LoRAもDBも入力データ同じだしモデルも規模が違うだけで基本的にやってることは同じなんでないの
タグやキャプションをCLIPに通してできたベクトルに画像全体のピクセル配置傾向を関連付けて格納するという
んで学習データ量が大規模になればCLIPによる語間のベクトル傾向補完と教師画像データの数のおかげで
部分的に意味を捉えてるようなふるまいをするけれど
本質的には言語的な意味を理解して処理しているわけではないみたいな
例えばlong skirtみたいに組み合わされた場合、処理としては「long skirtの絵のピクセル傾向を学習データから引き出す」であって
「skirtの絵のピクセル配置傾向を学習データから引き出してlongで長く変形させる」ではない と自分は捉えている まあ何が言いたいかというと、SDは本質的に言葉の意味を理解していないから
SDに特殊なふるまいを期待して英文で語りかけるみたいなことやっても
プロンプトにノイズ増えて生成されるベクトルが変化しただけで
語りかけた英文の言語的な意味を理解してその通りに動いたわけではないだろうなということ それじゃwhite panty、pink panty、blue panty、、、とわざわざ分類させて覚えさせていった人がいるということ? とりあえず機械学習の入門書をちょっとだけ読んでみて 教師データがどうなってるかは推測しかできんが
pubic hairは色を指定しても黒以外出にくいとか
そういうのはあると思う
出力の肌の色が偏ってるのは差別だって団体もあったかな 色と下着別々で学習してあとは組み合わせでしょ
一個一個やってったら組み合わせ爆発するぞ >>814
こういうみっともない書き込み時にワッチョイ被りとか
随分都合のいい事でとは思う >>860
つまり
white and brown and black panty よりも
white brown black panty のほうが
三毛猫パンティを出しやすいってこと? >>845
これの場合見るべきはlongとshortで学習させてmediumが出るかどうかじゃない >>854
「skirtの絵の傾向を引き出してlongで長く変形させる」という処理に近い処理はしてるよ
そもそもそれができるのが生成AIの出発点だからそれができないなら生成AIは意味がない
skirtの意味ベクトルとlongの意味ベクトルの演算でlong skirtの意味ベクトルを得るという発想は生成AI初期のVAEだけで生成していた頃から存在している考え方(その頃はTEと連動してないけど) >>856
わざわざっていうか普通に学習で皆やってることでは
taggerみたいな自動タグ付けの仕組みもあるし
モデル作る時なんかはものすごい量のデータ食わせるから色んな方面で語の分類・関連付けが自動発生する感じで
>>859
色に関してはベースモデルの学習量の賜物で
例えばred hair,red shirt,red tree,red bakground…等あらゆる分野の画像につけられたredの情報を総合して
「redというトークンにはキャンバスの一部・あるいは全体においてR値が高くなる作用がある」のような感じの動作をしていると思ってる
概念を獲得するってやつか
形状に関しても同じように統計的情報から概念を獲得みたいな感じ
ちなみに白パンツ画像ばかり用意してwhite pantiesてタグつけてlora作ったらパンツ色を変えるのは難しくなるよ
追加学習部分でpantiesに白ピクセル配置を関連付ける影響が強くなるから つまりプロンプトでnippleをlongにすることも可能というのか? >>863
また時間取れたらやってみるよ
>>864
なんかその辺学ぶのにオススメのサイトとかありますかね
今んとこのイメージって物量で殴って概念を獲得、ベクトル演算で疑似的にそれらしく振る舞うけど
タグ付け・キャプショニングが性善説的に"正しく"運用される前提があってのもので
本質的には人間の理解してる言語とは全く別の体系で動いているという感じなんだけども >>867
SDとCLIPとUNETのあたりの概念はググればそれなりに出てくるけど動作の詳細を満足いくだけ書いてるサイトも書籍もあまりないと思う
生成AI全般についての概論ならいろいろ書籍は出てるけど、オライリーのGenerative Deep Learning, 2nd Edition(英語版)が分かりやすいし割と新しい情報まで出てるかな、日本語版がもう出てるかは知らない
でもこれ読んでも基礎や概論は分かるけど直接SDのプロンプトの作り方の参考にはならんよ >>866
googleで nipple long で画像検索しても配管の継ぎ手みたいのしか出てこないけど
長い乳首 で検索すると長すぎて泣きたくなる >>860を見てると
「,」を3個使って区切った方がいいのだろうとか
形容詞は名詞の前ってのを無視して
「bright light hair blue long 」はどうだろうかとか考えてしまうな
帰ったら試してみよう 秋とか火とか、赤を連想するトークンが入っているPromptで出したimgをimg2imgで同一Promptでアップスケールさせると絵全体がどんどん赤くなっていくってのはよくあるので色系トークンは絵作り全体に影響を及ぼすってのは結構納得いく >>860
経験的にカンマ付けないほうが(つまり長文にする方が)プロンプトの効きがよいと思ってたけどそういう事か カンマがいらないってことはスペースもいらないってことなん?
見た目を無視するならひたすらプロンプトを詰め込んでもええのかな
区切りはAI側が勝手にトークンごとに区切って反映させるってことで >>860
>Blong hair, bright light blue hairは最もダメな記述方式です。なぜなら、long hairを最初に置くと何かしらの色の長い髪になることが多く、後からbright light blue hairと指定しても遅いからです。
お気に入りのcheckpointやみんなが使っていそうなCounterfeit, hassakuHentaiModelを使っても特に水色以外の髪が出ることはないな、たまにセンター部分に白が混ざるとか二人目の髪色が白とかがあるぐらい
指定した複数の色あたりを除けばそこまで神経質になるほどでもないかも >>874
単語によっては繋がること、もしくは分離することでまったく意味が変わるものがあるからスペースはないとあかん
そもそもSDプロンプトの基本はタグの羅列ではなく簡易英文だし >>874
スペースはカンマと違ってトークン数0らしい
少なくともうちの環境だと実際にたくさん書いても何も変わらなかった
単語の順番をめちゃくちゃにした場合
hair blue longは青くて長い髪は確かに出るし
hair light blueは水色の髪が出やすいけど
hair blue lightは水色の髪も出るけど髪や背景が光るパターンが多くなるから順番の影響は場合によるっぽい
おもしろい >>874
CLIPのトークナイザーはスペースでまず分割してその後で単語を部品にトークン分割するはずなのでスペースで区切らないと正しくトークン分割されないと思う 有識者の情報ありがたい
スペースはちゃんと入れてカンマはなるべく削る方向でこれからやってみるか >>860
こんな考察あるんだな
自前のプロンプト組み直してみるか baby faceをいれたらお腹が膨れて困ったことあったな
この場合はbabyfaceかbaby-faceなんだな >>881
baby face:2トークン
babyface:2トークン
baby-face:3トークン
だからbaby faceとbabyfaceは同じ、baby-faceは違う、じゃないの? >>822
ついでに陽性の排卵検査薬スティックも置いてほしい 古い情報だしまたオカルトか?って思ったけど経験則でカンマ入れなくて羅列した方が思い通り出る時もあって判断に困る 重要なのはカンマ入れない、というより
Nai流のカンマで区切ったタグの羅列より従来通りの英文のほうがいいよ、って話でしょ
初期の初期から言われてたことだぞ その考察にある「トークンは置いた位置から後ろにかけて影響します。」って
ちょっと検証すれば分かるけど普通に置いた位置より前にも影響するよな
色によって影響力が違ってて特にpinkが影響させやすい色だと思う long hairだと(long のみ)と(弱めlong + hair)で
hair longだと(hairのみ)と(long + 弱めhair)で前後関係なく隣り合えばどのみち混ざるでしょ ■ このスレッドは過去ログ倉庫に格納されています