【StableDiffusion】AIエロ画像情報交換62
レス数が950を超えています。1000を超えると書き込みができなくなります。
>>955
避妊なしたちんぼのボテ腹はエロ画像だろ
これは敗戦国の女の子が貧困で避妊なし売春して孕んで、まだ貧困という感じだ
ちなみにキャプションには書いてないが、買ってるのは日本人
日本人が戦争で負かせた白人国家に多額の負債賠償金課して、貧困に陥ったロリが売春して、配線国だから立場弱いから避妊してもらえず妊娠して、そこら中に混血児の赤ちゃんたちがいる設定 ロリが力ない声で
「今日私は危険日です。哀れな敗戦国民の女を妊娠させませんか?」
「哀れな劣等国国民のお腹に宿った劣等な赤ちゃんに精液をかけていきませんか?」
とか言ってたちんぼして、それでもまともな暮らしはできない貧困の世界観
こういうのつくるのは俺だけ
征服欲の一種かもしれないが、幼い女の子に"みじめ"な妊娠をさせるのが趣味 >>886
野郎が片手で女をもう片手で自分の口を押さえるパターンがよく出てくるんよな つくる人がいないと思っていても学習データが有るってことは既に
誰かが作ってたということなんやで。
自分で素材を描いてLORAでも作らない限り、我々がやってることは所詮コラージュなの。
膨大な種類のブロックが用意されたレゴブロックみたいなもん。
それで作ったものをアートとかオリジナルとみなしてくれるかどうかは他人の課題で
どう思われるかについてはどうしようもない。
ただ自分がどう思うかについては自分で決められる。 SD関連のノウハウについてはchatgptに訊くように切り替えてからかなり問題解決の効率は上がった。
が、何と言うか、ここの掃き溜めみたいな書き込みを見ると無駄も悪いもんじゃないなと思うわ。
馬鹿でクソ効率悪いこと言ってる事に希少価値を感じるようになるとは思わなかった。 >>728
試しにtits使ったらbreastより小さくなったw
これはモデルに依存するのかな
boobsも試したらtits<boobs<breastsの順だった chatGPTはかなり答えてくれる
極めて重大な、とつけて聞くとそんなことまで!?ってなる回答してくれる
一番驚いたのはpixaiのloraはファイル名も学習の対象になるってこと おねショタ作ってる時ショタのおっぱいがバインバインになる時重宝する >>906
検索エンジンのサジェスト見てると、最近のネット民って言葉選びや探し方がとんでもなく酷いんだろうなとは思う 今は暇になった主婦や老人がyoutubeで世界の真実を知るようだけど、あと20年もしたらAIから世界の真実を教えられるようになるんだろうなぁ 鳥取県のディープフェイク禁止条例
この条例の規制の対象となる児童ポルノ等に、生成AI等を利用して青少年の容貌の画像情報を加工して作成した姿態(当該青少年の容貌を忠実に描写したものであると認識できる姿態に限る。)を描写した情報を記録した電磁的記録等が含まれることを明記する。
↑
いわゆる写真品質画像はダメなんだろうけど、「本人そっくりのイラスト」はどうなんだ?
あと、実在の人物じゃなきゃ写真品質でもいいと? >>962
普通は逆だからモデル側の癖だろ
ただ名詞を変えると胸の大きさも変わるのは共通だから
色々試してみるのが良いと思う >>969
条例設定して運営する県で問題おこして裁かれてみるしかないな
目に見えるアウトのラインは存在しないから判例ぐらいしか参考にならぬ イラストならセーフなんてどこ見たら思える?
実在の人物じゃなきゃってのは(当該青少年の容貌を忠実に描写したものであると認識できる姿態に限る。)の部分に言及してのことだと思うけど
この画像、私orうちの子に似てます!って主張された時、ほんとに似てたら終わりだぞい >>967
Z世代は「ヤバい」だけで20種類意味があるからな >>973
ありゃもう畜生の鳴き声みたいなもんだな >>968
AIが答えるなら少なくとも今ネットに蔓延してる「真実」よりらよっぽど真実だろうし、その方が健全な気がするな
いや、どうだろ?「AIは闇の組織によって検閲されている!」とか言い出すかも >>975
画像生成AIを使い込んでるここの民なら分かるだろうが、AIの出力内容なんていくらでも間違いがあるし
なんなら人の手で任意のベクトルに偏らせるなんてそう難しくないしな。
そりゃTwitterやコピペブログ、Youtubeを情報ソースにするよかマシかもしれんが。 レス数が950を超えています。1000を超えると書き込みができなくなります。