【StableDiffusion】AIエロ画像情報交換31
レス数が950を超えています。1000を超えると書き込みができなくなります。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換30
http://mercury.bbspink.com/test/read.cgi/erocg/1692070086/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ17
http://mevius.5ch.net/test/read.cgi/cg/1693401315/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>814
こういうみっともない書き込み時にワッチョイ被りとか
随分都合のいい事でとは思う >>860
つまり
white and brown and black panty よりも
white brown black panty のほうが
三毛猫パンティを出しやすいってこと? >>845
これの場合見るべきはlongとshortで学習させてmediumが出るかどうかじゃない >>854
「skirtの絵の傾向を引き出してlongで長く変形させる」という処理に近い処理はしてるよ
そもそもそれができるのが生成AIの出発点だからそれができないなら生成AIは意味がない
skirtの意味ベクトルとlongの意味ベクトルの演算でlong skirtの意味ベクトルを得るという発想は生成AI初期のVAEだけで生成していた頃から存在している考え方(その頃はTEと連動してないけど) >>856
わざわざっていうか普通に学習で皆やってることでは
taggerみたいな自動タグ付けの仕組みもあるし
モデル作る時なんかはものすごい量のデータ食わせるから色んな方面で語の分類・関連付けが自動発生する感じで
>>859
色に関してはベースモデルの学習量の賜物で
例えばred hair,red shirt,red tree,red bakground…等あらゆる分野の画像につけられたredの情報を総合して
「redというトークンにはキャンバスの一部・あるいは全体においてR値が高くなる作用がある」のような感じの動作をしていると思ってる
概念を獲得するってやつか
形状に関しても同じように統計的情報から概念を獲得みたいな感じ
ちなみに白パンツ画像ばかり用意してwhite pantiesてタグつけてlora作ったらパンツ色を変えるのは難しくなるよ
追加学習部分でpantiesに白ピクセル配置を関連付ける影響が強くなるから つまりプロンプトでnippleをlongにすることも可能というのか? >>863
また時間取れたらやってみるよ
>>864
なんかその辺学ぶのにオススメのサイトとかありますかね
今んとこのイメージって物量で殴って概念を獲得、ベクトル演算で疑似的にそれらしく振る舞うけど
タグ付け・キャプショニングが性善説的に"正しく"運用される前提があってのもので
本質的には人間の理解してる言語とは全く別の体系で動いているという感じなんだけども >>867
SDとCLIPとUNETのあたりの概念はググればそれなりに出てくるけど動作の詳細を満足いくだけ書いてるサイトも書籍もあまりないと思う
生成AI全般についての概論ならいろいろ書籍は出てるけど、オライリーのGenerative Deep Learning, 2nd Edition(英語版)が分かりやすいし割と新しい情報まで出てるかな、日本語版がもう出てるかは知らない
でもこれ読んでも基礎や概論は分かるけど直接SDのプロンプトの作り方の参考にはならんよ >>866
googleで nipple long で画像検索しても配管の継ぎ手みたいのしか出てこないけど
長い乳首 で検索すると長すぎて泣きたくなる >>860を見てると
「,」を3個使って区切った方がいいのだろうとか
形容詞は名詞の前ってのを無視して
「bright light hair blue long 」はどうだろうかとか考えてしまうな
帰ったら試してみよう 秋とか火とか、赤を連想するトークンが入っているPromptで出したimgをimg2imgで同一Promptでアップスケールさせると絵全体がどんどん赤くなっていくってのはよくあるので色系トークンは絵作り全体に影響を及ぼすってのは結構納得いく >>860
経験的にカンマ付けないほうが(つまり長文にする方が)プロンプトの効きがよいと思ってたけどそういう事か カンマがいらないってことはスペースもいらないってことなん?
見た目を無視するならひたすらプロンプトを詰め込んでもええのかな
区切りはAI側が勝手にトークンごとに区切って反映させるってことで >>860
>Blong hair, bright light blue hairは最もダメな記述方式です。なぜなら、long hairを最初に置くと何かしらの色の長い髪になることが多く、後からbright light blue hairと指定しても遅いからです。
お気に入りのcheckpointやみんなが使っていそうなCounterfeit, hassakuHentaiModelを使っても特に水色以外の髪が出ることはないな、たまにセンター部分に白が混ざるとか二人目の髪色が白とかがあるぐらい
指定した複数の色あたりを除けばそこまで神経質になるほどでもないかも >>874
単語によっては繋がること、もしくは分離することでまったく意味が変わるものがあるからスペースはないとあかん
そもそもSDプロンプトの基本はタグの羅列ではなく簡易英文だし >>874
スペースはカンマと違ってトークン数0らしい
少なくともうちの環境だと実際にたくさん書いても何も変わらなかった
単語の順番をめちゃくちゃにした場合
hair blue longは青くて長い髪は確かに出るし
hair light blueは水色の髪が出やすいけど
hair blue lightは水色の髪も出るけど髪や背景が光るパターンが多くなるから順番の影響は場合によるっぽい
おもしろい >>874
CLIPのトークナイザーはスペースでまず分割してその後で単語を部品にトークン分割するはずなのでスペースで区切らないと正しくトークン分割されないと思う 有識者の情報ありがたい
スペースはちゃんと入れてカンマはなるべく削る方向でこれからやってみるか >>860
こんな考察あるんだな
自前のプロンプト組み直してみるか baby faceをいれたらお腹が膨れて困ったことあったな
この場合はbabyfaceかbaby-faceなんだな >>881
baby face:2トークン
babyface:2トークン
baby-face:3トークン
だからbaby faceとbabyfaceは同じ、baby-faceは違う、じゃないの? >>822
ついでに陽性の排卵検査薬スティックも置いてほしい 古い情報だしまたオカルトか?って思ったけど経験則でカンマ入れなくて羅列した方が思い通り出る時もあって判断に困る 重要なのはカンマ入れない、というより
Nai流のカンマで区切ったタグの羅列より従来通りの英文のほうがいいよ、って話でしょ
初期の初期から言われてたことだぞ その考察にある「トークンは置いた位置から後ろにかけて影響します。」って
ちょっと検証すれば分かるけど普通に置いた位置より前にも影響するよな
色によって影響力が違ってて特にpinkが影響させやすい色だと思う long hairだと(long のみ)と(弱めlong + hair)で
hair longだと(hairのみ)と(long + 弱めhair)で前後関係なく隣り合えばどのみち混ざるでしょ wakame法みたいに空トークン埋めた方が良くなる説とかオカルトが多いな SDと会話するとか言ってる馬鹿より遥かに有益な情報 >>886
より前の単語が後の単語に影響してるのがそう(前にも影響するように)見えるんじゃないの? 例えばwhite shoes, ... , pink shirt, ...
みたいなプロンプトでピンクの靴が出てくる
そしてピンクのシャツは出てこなかったりする >>891
その場合shoesがpinkにかかってそうなるって>>860でも言及されてるよ >>881
BABYFACE Planet'sは量が多いからお腹いっぱいに成ったのかも >>882
単語をさらにトークン分割するときは分割されたと分かるようにマークされて単語の一部という認識になるはずだから、それ3つとも一応は違う扱いになる(その後の処理で結果同じような結果になることもある)
CLIPの詳細は知らないけどトークナイザーの一般で言えば、例えば「babyface」は「baby##」と「##face」みたいに、ここになんか続けて入ってたよっていうマークが入る >>882
単語としてbabyfaceを認識するかどうかだろうな >>894
(お腹の中に)赤ちゃんの顔
で妊婦になったんだと思う 単語として認識するかというのもあるけど
連続した単語の羅列を一つとして認識するかどうかというのもあるよね >>882
https://github.com/AUTOMATIC1111/stable-diffusion-webui-tokenizer
を入れてTokenizerタブのTokensでToken IDを調べてみればわかるけど
baby face => 7268, 1710
babyface => 1794, 1710
baby-face => 1794, 268, 1710
全部別々のtokenの組み合わせへの変換だよ
そもそもCLIPは単語を区切ってToken変換みたいな単純な処理じゃない
カンマ区切りなんかもこんな感じ
1girl school uniform jacket => 272, 1611, 267, 1794, 1710
1girl, school uniform, jacket => 272, 1611, 267, 1228, 11075, 267, 6164 @micro white bikini
Awhite micro bikini
@はほぼ白になるけど
Aは他の指定に負けることが多い気がする、black hairがあったら黒水着になったり トークン解析によって全然別のtokenに変換されるとともに、
事前学習情報によって近しい語のtoken(babyfaceの例だと1794と7268)は関連性を持っているので
結果としてそれなりに近しいベクトルが出力されるみたいな感じかな
CLIPの学習情報がエンドユーザからはブラックボックスみたいなもんだからややこしく感じるところだとは思う ベタ塗りのブサイクしか出力されなくなった・・・ 原因がわからない・・・ >>903
Loraとかの強調(数字やかっこ)が多過ぎると画質がすごく低下することがある >>899
そのToken IDの例で、おぼろげながら見えてきたよ。
ありがとう。 >>903
今までエロ画像の生成が出来ていて、いきなり画像が崩れだした。
とかってに解釈する。
1、loraの影響。(画質を引き込むことがある。)
2、nsfwの限界突破。
3、embeddings(埋め込みの悪さ。勝手に出てくる時がある。)
4、プロンプトのバランスが異常に崩れた。
5、顔だけ極端にゆがむ。(有名版権物に多い挙動)
画像を作る前にどういう行動をとったか、など
状況が分かれば助言できるかもしれない。 生成物一枚貼れば大体原因わかりそうな気がするんだけどね negativeに変なembeddings突っ込むと、ままある 一旦再起してPNG info等から生成情報送って同じ条件で作り直してみるとどうなるか確かめてみるのもいいんじゃない
「メモリ内に変な情報残って描画がおかしくなる」の実例を記録できればヒーローになれるかもしれん >>910
パッと見、鼻が大きくなっているから、nsfwの挙動だと思うけど、
気になったプロンプトは、idol, M legs, open legs, spread legs, skirt bikini,
私なら
idol→model
M legs, open legs,→raise leg,
skirt bikini→bikini,
と変換して、とりあえず刷ってみるかなぁ。 ちなみに私は以前プロンプトに badhandv4 を含めて居ないのに画像が変化したと言ってた者です
それは完全に私の勘違いヒューマンエラーでした
そういう、そそっかしい奴の話だと思って聞いて下さい
普段というか その前に作ってたのはこんな感じです
https://dotup.org/uploda/dotup.org3054614.png
それで一旦、元に戻そうとしてPNG Infoから同じの出そうとしたら
アホ顔に成ってたとです
https://dotup.org/uploda/dotup.org3054615.png
メモリにアホ顔DNAが残ってしまった!と思ったんですが
以前のチョンボの事もあったのでStable Diffusion Prompt Reader を使って
両ファイルのプロンプト等の情報をテキストファイルに書き出して徹底比較したところ
Adetailer のネガティブプロンプトに closed eyes, と入力して居ました。
完全にヒューマンエラーでした。
今回もおさわがせしてすみませんでした。 それで改善されなければ、ネガを見ていく。
気になったのは、(navel), bad-hands-5, badhandv4,
navelは削除
bad-hands-5, badhandv4,何方か採用する。
badhandv4,は後から入れたほうだからこれを一旦削除してみる。 >>913
>両ファイルのプロンプト等の情報をテキストファイルに書き出して徹底比較
そういうときはWinMergeを使うと便利だよ
ファイルやテキストの差異をビジュアルで示してくれる カンマ区切りの件だけど確かに文章にした方が良く出るのかも知れない
今まで単語のカンマ区切りで指定してたけどこれで出し易くなりそう 前にも言ったがそもそもSDの基本は英文記述なんよ
NAIの登場で「カンマ区切りのdanbooruタグの羅列でもそれっぽく出ます」っていうのが一気に広まっちゃったけど プロンプト欄も行の初めが小文字だと、
たまに大文字にしなさいと、二重青線が付くよね。
そこも、文章を意識したものっぽいですね。 そうか英文基本の方が性能発揮するのか
組み直さなきゃだわ 普段3090で生成してるけど
ファンが壊れてお蔵入りになってた1080Tiのファン交換して生成してみた
3090で18秒のが1080Tiだと50秒も掛かった
まぁそんなもんだろうと思ってたけど結構ショック >>920
それさ、そうでもないっていうか
カンマ区切りと文章体では別の物が出来るんだよ
だからどっちが良いとは一概に言えないと思う
色々やった限りだとカンマ区切りのほうがダーティな物が出来やすい気がする >>922
1080Tiと過ごした時間プライスレス >>922
むしろ2世代違ってその程度で済んだのかと
3070→4090だと思いっ切りエグかった いやそれ1世代新しいだけでなくミドル→エンスーで2ランクもアップしてますやん >>919
それブラウザの文法チェックかスペルチェックのどちかかに引っかかってるだけ >>923
仕様に沿った方法のほうが正しい結果が出やすいというのは当たり前
そうでない方法が違う結果になるのも当たり前
ただ、どちらの結果が好みに沿っているかは別問題 当時コスパ最高だった1050Tiが押し入れに眠ってるんだけど
サブPCに組み込んだらLoRA学習ぐらいなら役立ってくれるんかな >>930
学習は無理だし
SD なら 作成 ならなんとか
SDXL なら作成すらできない pcなのであながち間違ってないというか上位の存在なのでは!? >>935
そういう君はPCIじゃないか!GPU君とお似合いじゃんヒューヒュー 尻掴むポーズ取らせると後ろ向きになるのを正面向きに固定するプロンプトない? ワッチョイ後半は書き込みブラウザによって変わるんじゃなかったか 1050tiってVRAM4GBだろ
学習とかできるの? >>904
ありますね それがあるのでloraじゃなくてプロンプト力技に走る事が多いです
>>909
残念ながら、今回もヒューマンエラーを実証してしまいました>>904
>>915
いろいろありがとうございます 参考にさせていただきます
>>916
わ!WinMergeめっちゃ便利ですね 愛用させていただきます ブラウザが変わると変わるんか
これで今度こそ俺がPCIだ! しかしシビ帯もモデル作品ともにXLが増えてきたな
拘りなきゃそろそろ移行する時期なのかねぇ? XLはえっちなのはまだまだと聞いたが改善されたのかな? 何のために移行するのか自分で考えてみてやりたいことが決まってからでいいんじゃない?
LoRAの種類とエロのこと考えたら俺はまだまだ1.5で十分かなーって思ってる 今更な質問してゴメン
普段3090使ってる人だけどサブPCというか別の拠点でも生成したくなって
4070以下のグラボを何か買おうと思ってるんだけど
メモリって8GBでは絶対的に足りないんだっけか?
この拠点では学習とかやらず適当なマージと768x1024ドットくらいの画像生成するだけだけど
普段3090なもんだからメモリ量に関した知識がまるで無くてすマンコ >>955
メインメモリ8GBの内蔵グラボのノートパソコンで特別な方法を使って生成してみたけど一応できたよ
モデル入れないでハローアスカベンチマークのプロンプトでバッチカウント2で5枚やったらアスカが見えるまで47分
別なプロンプトでもやってみたけど一応は生成できる
メモリは8GBでも一応できた メインメモリとVRAMって区別して書かないと
こういうことになるといういい例 メインメモリは32GBね
つかグラボの話しててメインメモリを想像されるとは思わんかった レス数が950を超えています。1000を超えると書き込みができなくなります。