【StableDiffusion】AIエロ画像情報交換38
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換36
https://mercury.bbspink.com/test/read.cgi/erocg/1708774858/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ有)
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ無)
https://mevius.5ch.net/test/read.cgi/cg/1703250505/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>585
a1111はこのスレのスレ番1桁の頃から使ってる(た)けど
昔からずっとUIでモデル切り替えた瞬間に読み込みしてるよ
forgeとは挙動が違う >>522
civitai検索bdsmでそういう部屋のLoRAあるよ なんJの例の人の3文字ネガを自分で精査せずに使ってたんだけど、あれ割と抜きすぎてる感があるね
別の人が上げてた「特定外来種」あたりに絞った方がいいかもしれない・・ pony沢山あるなぁって見てたらおっぱい揉んでるジャバ・ザ・ハットあって草 civitaiで謎に遅い時は稀にあるけど、自分の場合、ブラウザを変えるだけで問題ない時があったような。 リアル系でイキ顔が表現できなくて困ってる
二次絵ならorgasmとかgaspingとかで簡単に出せたが
リアル系だとこの手のワードがほとんど反応しない
唯一ahegaoは反応するんだがリアル系であれやるとアインシュタインなんだよな 普通に効くはずだけど学習内容が洋AVや二次元だからかリアル系モデルの表情はほとんどコレジャナイになる そもそもリアルなイキ顔とは何なのかという話もあるな
目閉じるor細める+眉ひそめる+汗+赤面+吐息くらい組み合わせればええんちゃう >>595-598
色々やって解決しそうです
vibratorを入れてあげるとorgasmとかが効きやすくなることを発見しました 言ったらアレだけどさポニーの実写系って若干ダウン症入ってる感じがあってキツくない? まだまだ発展途上感はあるけど
逆にそこ乗り越えてXLのパワー全開リアルモデルが出たら別の意味でヤバいんじゃ
エロに使われるだけならともかく犯罪に応用されやすい XL萌え絵はポニー魔神で考え変わったけど
XLアジア物は当初のXLの印象のままだな
XLガイジンはそこそこ まだライトニングでしかやってないけど 1111とForgeって同時起動できるんだなあ
コマンド窓がちゃんと別々に開いて処理は完全に分離されてる
多くの人にはどうでもいい事だろうけどw forge起動したまま別窓で学習スクリプト回したりとかもできるぞ
まあ回してる間webui側はGPU使えないからpng info見たりとかの軽作業しかできんけど >>603
それって起動URLを別々に設定しなくてもそうなるの?
ガチ勢じゃないのでその辺をいじるのが自分はちょっと怖い 1111とforgeは別ソフトだから何か弄る必要もなく同時起動できる ポートが被っても後から起動したほうが1ずれてくれたはず 自分はいつもForgeを3つくらい起動してる
メインでプロンプト組みながら、サブで表現の実験とか >>600-602
要求レベル高いなー
俺はlambleでポン出しした画像で普通にガッツリ抜いてるわ Lora初心者で擬音のLora作ってみたけど中々上手くいかねえなー
人+擬音ありの画像使ってタグ最小限で作成したLoraでも、使うとどうしても顔とかにちょっと影響でちゃうわ
元画像で人が入ってない擬音だけのものとかを専用に用意するしかないんかな >>609
リアル系で満足いくイキ顔と満足いかない顔って実際どんな感じなの?
個人の趣味の違いだとは思うけど比較画像見せてくれると嬉しい 531だけどなんとかLoRA作れた
タグ付けに関して何か勘違いしてたらしく他人のLoRAを参考にして気づけた
「消したタグを強く学習する」ってのをどっかで見かけてそれをずっと真に受けて延々とメインワードを消してたという(汗)
エポックとかも全然足りてなかったし
出来としてはまだまだ不安定なものしか作れてないけど、魔神3.0用エバラ用abyssXL用をそれぞれ作れて感動アドバイスくれたニキ達サンガツ 実写系謳ってる奴はは正直レベル低いのに何故か持ち上げられてて違和感あるわ
たまに凄いのもあるけどそういうのは逆に騒がれないから目立たなくて詳細不明という不思議 >>611
loraは教師画像とモデル学習情報の差分を覚えていくって感じになるので
人物なしの画像でlora作ってもモデルと教師画像の画風の違いで絵柄に影響出てくるよ
自分は腰回りの画像だけでパンツlora作ってるけど(>>486)
肌とか布部分の質感に引っ張られて、顔もその質感に近い特定絵柄に結構寄っていく
おそらくだけど「ベースモデルで適当に生成した色んな画像に擬音を雑コラしたもの」を教師画像に使うと
絵柄の影響は少なくなるんじゃないかなと予想 >>617
なるほどねー、ありがとう
後で試してみるわ! >>620
ありがとう
確かにあんまりイってるようには見えないねw >>615
使ってみるとわかるんだけど
実写系の凄いやつはヤバいので
話題に出したくない リアル系に手を出したのがここ1週間ぐらいなのでとりあえずちびたいで手軽に拾えるもの使ってますが
実写系の凄い奴を試してみたいところです
清岡mixとか力武mixとかLSMixとかシベリアmixとか中華mixとかどこかにはあるのでしょう
>>621
まだまだ未熟ものなんで精進したいと思います XLに手出したけどアニメキャラとか出るには出るけど全然似てないんです
どーやったら1.5のローラみたいなクオリティー出せる? >>624
in ○○○○ style
でどう?有名作品や絵師の絵柄によせる系になる >>622
その凄い奴を使ってみたい
ヒントだけでもクレヨン 実写系はPromptによって全然ダメだったり凄い良かったりする
レベル低いって言ってる人と凄いって言ってる人が同じモデル使ってる可能性ある >>622
まだそこまでの高みに辿り着けてねーわ
再現性なさすぎて打率1割いかんレベルや >>623
あんたぁガチの人だな
LSMあたりは1.5の時はあったけどXLでは知らないなあ
大体古くて解像度低い画像ばかりなのでXLではボケボケになるのかもね
新し目ので元画像がアホほどでかいのもあるんで自分で作ればゲフンゲフン >>629
SDXLで学習したモデルがまたねぎ辺りに落ちてないかなあ
って期待したい リアル系は最初は おぉ凄えリアルなのできた このスタイルでいくぞ と作ってくいくけど展開させずらくてマンネリ化して結局2.5次元ぐらいにして空想感足したくなっちゃう リアル系は違和感ない人体構造を保ったまま外連味を効かせるのが難しくて結局ピンナップ系ばかりになっちゃって飽きるのよな そこを今のリアル系SDXLの限界だと考えないとずっと無いものを探し続けることになるのかもね >>632
さすがに人体構造まで求めると3DモデルになっちゃうけどねーーVaM とか
まあここにも二刀流でやってる人はいくらでもいそうだし、いずれDAZ 用のテクスチャやモーフも生成できるようになるだろうし 1週間に1回位Civitai見て気になるLoraやモデルをCivitaiHelperで落としてるけど1つずつだと数が多いと結構手間
URLだけ分かればあとはcivitaiから連続的にダウンロードする良いツール無いだろうか? >>636
urlをブラウザの別タブに張り付けてDL。 >>634
VaMはともかく、
daz程度の簡単なモデラーでポーズ組ませて
i2iならよくやる。
controlNET噛ませるとかえって崩れるから。 ワイルドカードってフォルダで階層管理できるけど、使うときはフォルダ部分を省略しても大丈夫なんだな。
aa\bb\cc.txt っていう階層だとすると、正しくは __aa/bb/cc__ になるけど __bb/cc__ でも認識してくれる。なんなら __cc__ でもいける。
dd\bb\cc.txt みたいなパス違いの同名のファイルがあった場合に、フォルダの指定を省略するとどんな動きをするのかは試してないからわからないけど。 >>638
> daz程度の簡単なモデラーでポーズ組ませて
> i2iならよくやる。
それが無難だよね……ControlNetはむしろ無理なポージングで構造という点では破綻しがちだし
ただ、いまの生成画像にそこまで求めるかってのもあるけど(エロければいいw) CivitaiHelperってレジュームダウンロードできる? https://majinai.art/i/bO_R6t6.png
バストショットで生成された絵ですが、可能な限り顔はこのままで、全身像にする方法はありますでしょうか?
もちろん、こちらで質問するのですから、nsfw,(naked:1.3)の方向でお願いします。 その画像1枚からLoRAを作る
CNのreference onlを使う
NAI3のバイブストランスファーを使う >>642
絵の見切れた部分(下方向)の続きを書く…という意味なら
アウトペインティングという機能が実装されてるはず(A1111)
調べてみて AI学習にも使われてるってさ
↓
【毎日新聞調べ】園児の画像、海外ポルノサイトへの転載多数 ネット画像調査で判明 [おっさん友の会★]
https://asahi.5ch.net/test/read.cgi/newsplus/1711504371/ >>644
見切れた部分って見えてる場合にも使うし
紛らわしいね 見切れたの正しい使い方はスタッフが見切れてるで!など見えてはいけない物が見えている写っている時に使うのが本来の使い方
ただ関西の芸人が使い始めた業界用語でそもそも正しい日本語ではなくて辞書にも載っていないし使い方がどうのこうの言えないところがある
俺は本来の使われ方していないの見ると気になる方ではあるけどね >>642
その絵にPNGinfo残ってるから絵の改変を続けて行けばいいんだけど
プロンプトが簡潔だから全身指定したら別の顔になって極太ディルドぶち込んだら完全に別人になるパターンだよなぁ
VAE内蔵モデル使ったことないんだけどHimawariMix_V8.0の使い心地はどう? >>645
子供の動画とかツベに高画質で大量にあるから
そのうち使われそうだな https://news.yahoo.co.jp/articles/8e91120144d2ae19da5cbe6f205f9d7abe814ae4
見てると、MidjourneyにはCreative ReferencがあってLoRAなしでキャラ再現できるみたいにあるけど
Stable Diffusionではいつ頃から出来るようになるだろ? >>643
先月からはじめたばっかですが、LORAは作ってみたいですね〜
いんぴおさせるには、男のコのデータ入りますし…
>>644
アウトペインティングですか。調べて試してみます。
>>648
まだ使い心地がどうとか…
たまたま、欲しいキャラのLORA見つけて、サンプル絵がHIMAWARI指定だったので入れてみただけです。
他も試してみたいです >>650
Stable Diffusionも「Reference Only」という機能を導入すれば
とりあえずできるというか… 微妙なので>>642に紹介するか迷ったんだ
「同じキャラ」の意味は人によって変わるから難しいよな >>642
ペイントでキャンバスサイズを全身像が入るくらい下に伸ばして
超雑に肌色で胴体書いてから胴体だけi2iでいけるんじゃね >>650
IP-Adapterならかなり前から使えてるけど、そういうことじゃなく?
ただFaceIDの方は、InsightFace がリアル系の顔しか認識しないかも
>>636
curlは? >>642をSDで見ると256x256で出してHires. fixで512x512にしてる
こうすると512x512で出すのとまったく異なる絵が出るんだね
こんなテクがあったのか、また一つ勉強になったよ 数分で雑に済ませたからモデルすら違うけどこんな感じかねぇ
https://images2.imgbox.com/58/53/AG9EqIXA_o.jpg
作業内容としては首から下を「outpainting」で生成してから
なじませるために顔以外をさらに「img2img」かな
こういうのなら「Generative AI fo Krita」が直感的に出来ていいと思うけどね
これはこれで覚えなくちゃいけないから初回は大変だけど
https://github.com/Acly/krita-ai-diffusion
https://www.youtube.com/watch?v=S2K_D_RlDCY さわったばっかだけどkiritaプラグインxlの機能少なくて残念 プロンプトの話だけど
アシンメトリー(左右非対称)というか
片側の手足にだけ衣服や装飾を指定する表現無いかな
right hand ●●
left ●●
とか頭につけても左右両方に反映されちゃう プロンプト的に言うと
右手 という概念が入ってない可能性がある あぁ、仕様上
左右片方に任意でって設定はできないのか
『右手だけ義手』とか
『右足にだけニーソックス』みたいな娘を作りたかったのに asymmetrical hair等、asymmetrical ○○というタグはいくらかdanbooruにあるからそれを試すくらいだな
SDはアルゴリズム的な問題で基本的に左右を表す語は効果が薄いと思ったほうがいい
「右手」が画面上のxyどの位置に配置するかが画角や体位等でバラバラなので
タグ分類が足りなくて学習内容が定まらない
指がグチャるのと同じような問題 そういうときのインペイントちゃうんか
おれは使いこなせてないけど 「右」ってなんですか?
って聞かれて誰にでも分かりやすく説明するのはとても困難
ましてやそれを機械にとなればほぼ不可能な領域 >>664
「この時計ひっくり返ってるから3時って下の方向でいいんだよね」
「俺の時計デジタルなんだが3時の方向って何?」 >>665
ひっくり返ってることがわかってるなら正位置に戻せばおk
「デジタル」言ってるならアナログも知ってるはずなのでおk >>667
機械相手にはそれが通用しないんですよ
正位置に戻すとかアナログとか「3時の方向」の補足として全部教える必要がある
それができてないのでSDは左右がわからないし指がグチャる >>668
ごめん機械の解釈か
単に664は多分茶化してたからレスの665もかと思った 人体の左右を考えるには人物ごとに基準となる中心線(背骨?)と正面を認識する必要が……
後ろ姿だったら画面上は左右逆になるとかあるし 学習水増しのために左右反転させるのも割とあるから更にカオスや まんまんも後ろからだと上下逆になったりしてたしな
ponyで普通にちゃんと描画された時は感動した >>668
> 全部教える必要がある
う〜ん……むしろ>>667 がそれなりに正しいんだけど
CLIPがゼロショット学習できてるから、SDもこれだけ多様な画像を生成できるわけだし
(もちろんデジタルを知ってるならアナログを知ってるとは必ずしもいえないけど)
>>663
不可能って……オズマ問題じゃないんだからw(モデルにはヒトの言語も画像も学習させるしね) >>674
SDが多用な画像を生成できてるのはCLIPのおかげというより
stability aiがたくさんのリソース注ぎ込んでCLIPの学習情報に耐えうるSD公式モデル作ってるからっていうのが大きいのでは
lora等でユーザーが後付け学習する時なんかは画角・角度・サイズ等殆ど応用が効かないから
結局「全部教える」必要があるよ >>652
ありがとうございます。
>>655
え? どこかでこれが正しいやり方って読んで、疑問持たずに実行してたんですが、確かにチェック入れなくても出力できますね。
こちらこそ勉強になりました。
>>656
おおう、こんな感じです。
こちらでもやってみました。
絵がかけないので、まずは素材の女の子を作らせー
https://majinai.art/i/jC-kevq
超絶、雑に組み合わせてー
https://files.catbox.moe/khu2zc.png
出力!
https://majinai.art/i/7H8S4cE
だめだ…違和感がありすぎる…やっぱり身体と顔の絵があってないですかねぇ。
とりあえず、ボディラインの繋がりなんかは問題ないんですが、どうにも違和感が… A1111のautolaunch切る方法なくなったんですか? >>678
デフォルトでautolaunchする設定になったんよ
どっかの設定の「Local」を「none」にするんよ >>679つづき
Systemの「Automatically open webui in browser on startup」を「Local」から「Disable」にするんだった >>679、680
サンクス
あんなわかりやすいの見落としていたとは
webui-user.batでどうにかするもんだとばっかり思ってました。 前はそうだったんだけど、いつの間に起動オプションでは無くなってたね 痺に上がってたモデルの作者が紹介してたBMABというのを使ってみたら、Ultimate SD upsclaeみたいに見た目そのまんまでt2i出来るのね pony用のLoRAを作るにはどうすれば良いんだろ?
なにか参考になるサイトとかないものだろうか?
1.5用のはたくさんあるけどpony用が見つけられない civitaiにはpony向けのLoRAいっぱい転がってるし
作るのも別に大した難しさはないよ
再現度を高めるために覚えた方がいいことはあるけど
そこ突き詰めていくのは経験と先人の知恵が大事
見て覚えるタイプのものじゃないからとにかく最低限の使い方覚えて
手を動かして経験積むかLoRA作っている人から直接アドバイスもらうようにしたほうがいいかも
サイトみても疑問に対する答えがすぐに得られないという点で見る価値が全然ない ■ このスレッドは過去ログ倉庫に格納されています