【StableDiffusion】AIエロ画像情報交換25【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1683421154/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>95
自分の場合は逆算したら4TBないと1年以上使えないって感じだったから4TBにしたわ
流石に一年持たずに一杯になるのは困るからな すげえどうでもいいけどプロンプト打ってたらdutch angleって予測変換が出て、これなんだと思ってグーグルで調べたら画面が斜めになったワロタ 本当だw
似たようなのだとライフゲームってググったら、ライフゲームが裏で走ったなんてことはあった 2TBくらいのSSD買うかな
ゲームやらないし、AIお絵描きもそのうち飽きそうでなんか勿体ない気もするが LoRa使うときにそれ用のプロンプト打ち込むのめんどくさいから、
wildcardに
lora character <lora:loraname:0.8>, red hut, pink shirt
みたいに書き込んで
__lora_character__
みたいな感じで構文呼び出してるんだけど、
それすらもめんどくさくて
何かGUI上で簡単に登録できたりしない? >>122
Easy Prompt Selectorでできるんじゃね
役に立ったらスケベyml作って提供してくれ
なんかしらんが全然配布されてねえんだ M2って大半のメーカが2TBしか出してないな、
スロットそんなないし、みんなどーしてるんだ
スロット増設?それともHDDをとか? トリガーワード複数あるLoRAをwildcardで仕込むの無限の選択肢すぎてめんどくさすぎワロタ >>125
そこをランダムにしておちんぽ握りしめるのよ >>124
2-3本挿して足りないならスロットにボードを増設してもう1本
充分や 学習中生成できないからimageCreatorくんでチキンレースしたら乳首描けたわ
https://i.imgur.com/pApd9UJ.jpg 使用頻度低いモデルとかは安いsataのssdに突っ込んでるわ
出力画像とかはHDDでもいいし
SDのディレクトリは100Gも使ってない >>122
さらに「__lora_character__」のみをスタイルとして保存する、っていうのは答えになってない? 前スレで低電圧の話がちょっと出てたんで挑戦してみた グラボは3060
1700MHz@800mVで512x512を実測4秒程度で出力、消費電力80W
これ以下にするとちょっと遅すぎに感じてしまうからこのあたりが速度と電力の妥協点かな VAEの「Automatic」ってなんなの?
Noneと違いが分からないんだが >>135
モデルと同名のvaeファイルを用意しておくと自動的に適用される vae選択機能なかった頃の名残やね
昔はkl-f8-anime.ckptをwd-v1-3-float32.vae.ptにリネームしてモデルの隣に置くみたいな感じでしかvae使えんかった 別PCにあるGPUパワーを使わせることってできない?
あと、エロOKなChatGPTみたいなのある?呪文考えさせたい。 realdosmix使っているけど、モデルデータでnsfw要素を拒否されているような感じ。
拒否ワード的なものってあるのかな >>140
これで使っているけどextentionのインストールに失敗するからそのときだけローカルに切り替えてる。
もしかしておま環? 固定キャラでやる時はlora使ってたけど、最近はリファレンスを使ってる。
loraだと色彩まで固定されて、絵の幅が狭なってる気がするんだけど実際どうなんですかね? >>142
listenはエクステ入れられない
対策はwikiに書いてあるが試したことないな >>141
今の学習の仕組みからしてそういう事は起こらないように思える
単純にそのモデルがnsfwワードに該当する学習情報に乏しいんでないかね
あと二次のbooru系と三次の独自キャプション系だと反応するワードが違うから
違う体系のワードで学習した奴を混ぜたモデルだと、それぞれに対応するワードを入れないと
アルゴリズム的に推論がうまくいかんのではないかと思う(ワードに対する反応が弱い)
例えば足開くポーズを二次側はspread legs、三次側はlegs spreadで覚えてるとかだと
両方指定しないとピクセル情報が求めにくいみたいな >>143
リファレンス便利だけど実写だと再現度ダメダメだからなあ lora作ってる時にネガティブ学習ワードみたいの設定できたらいいのになと思ったりしてた >>143
こんな機能あったのか,すごいねこれ。
自分で楽しむ分には好きな絵師の画集ひとつ与えたら、それで脱がせたりもできるのかな。 referenceって参照画像とほぼ同じ顔の角度しか出ないって聞いたけどどうなんやろ?
>>143 たしかに角度は似たようなところにしかならない
顔のlora込みでポートレイトとかで作成したものをフルショット等で作り直すと全身のバランスが崩れる 出にくいといえばモデルの影響なんだろうけど表情筋がいまいちなのあるよね
正面だっつってるのにあまり正面を向かなかったりとか
マージしていけばそのモデルの情報がどんどんプラスされていくんだろうか、それとも半分ぐらい折半にして忘れていくんだろうか マージしてもモデルのファイル容量変わらんのだし元々持ってた情報はどんどん薄まっていくんじゃないのかね >>150
横顔なら何とかいけてる感じ
ただリファレンスは、色合いがちょっと色褪せた感じになるバグが報告されてて、自分の絵でもあるんだよなあ。 マージ画面見ればわかるけど(SuperMerger画面の方がわかりやすい)
元のモデルからxx(指定数)抜いて、もう1つのモデルからxx入れる
たとえば0.5指定ならモデルAから半分抜いてモデルBを半分入れる事になるわけ
足す・混ぜるというよりは入れ替えるって感じかな
あれこれ大量にマージするよりも
2〜3個にしといたほうがわかりやすいしガツンと効いて良いと思うよ >>155
なるほど、やはり混ぜた分だけデータが抜けてしまうわけね
8個ぐらい階層マージかましてみたけど、無駄なことだったか……
モデルにloraマージするときも抜けるのかな?それとも混ざったり足されたりするのかな? としあきで普通のLora作ろうとしてるんだけど、
バッチファイルの中見たらネットワークモジュールが
network_module=lycoris.kohya
になってんのは
network_module=networks.lora
に変えなくていいのかな?
それとも俺が知らん間にlycorysに書き換えた? >>157
そらlora作りたいんならlycoris用の設定しててもあかんよ
正直その辺のbat使うくらいならGUI支援ツール系でも使ったほうがいいと思う
第三者作成のbat弄るのは手軽さにも欠けるし細かい機能対応も本家より遅れるし
俺は本家のドキュメント読んでbat自作するのに落ち着いた
tomlで設定管理できるの楽 つい3日くらい前から始めたのですがこれってもしかしてブスというか素人っぽい画像を出すのはすごく大変ですか? >>145
なるほど、モデルデータの実モデルがいるみたいで
モデルさんの尊厳を考慮してnsfwワードに反応しないと考えられる >>161
・ネガティブプロンプトを外してみる
・素人LoRAを自作 >>163
ありがとうございます
LoRAというのをまだ試してないのでこれからやってみます >>144
wiki調べたらやり方解りました。ありがとう。 27m2v購入したしFHDからどのくらい変わるか楽しみやわ 僕はfHDトリプルディスプレイちゃん
広い1画面も良いけど、マルチディスプレイもモニタごとに用途分けるみたいな使い方できていいよ
自分は作業用ウィンドウとか結構散らかしちゃうほうだからマルチディスプレイが性に合ってる 27M2Vはいいぞぉ 圧倒的な映像美に酔いしれろ
ブルマLoRAにはめっちゃお世話になってるけどブルマの色がブラの色に引っ張られるのが悩み >>136-137
遅れたけどありがとう
なるほどそんなことができたのか 旧式のRyzen 2400Gでも内蔵GPUだけで3画面いけるんだよな civitaiに自作Loraとちょいエロいサンプル画像を投稿しようとしたら、規約違反とかで消される
エロ画像投稿なんか腐るほどあるのに
なんか方法あるの? 年齢、暴力、犯罪がらみのタグまで見てるからな。トータル的にギャー人世界でダメなものダメ
エロは上げたことないからわからんけど、成人指定的な何か別の方法があるのかもしれん 原因判明
タグの15 years old が引っかかってたらしい
2D絵でもそれはダメなのね >>179
16もって…数だけで言ったらcivitaiのメガモデルとか桁が違うよ? 混ぜてエッチなやつが出るなら良いけどそうでもないのが難しいな ハーフパンツの隙間から見えるパンツとか出来ないよね
色々試してるけど隙間パンツができない >>175
エロいコスチュームならオッサンに着せると良いよ stable diffusion公開直後にローカルで動かしてすごいねーって放置してたけど久々に触ったらすげぇ実用性上がってるのな
イキ顔に鼻水欲しくてsnotとか入れてみてるけど2D系は反応無く(タグがない?)、3D系だとおなにゅしながらちり紙で鼻をかみだしてどうしたものか learning_rateで頭抱えてる。
1e-4だとわりと低ステップ数でガビりはじめるから、1e-5とかにしたら時間かかりすぎる上に大して学習せーへん。
dimとかにもよるんかなぁ。
みんななんぼにしてる? dim下げれば形状の追従性抑えられるかわりにガビりにくくなるよ
あと自分用loraならそんなにガビるの気にしなくてもいい
使う時にblockweightなりで抑えめにすりゃいいだけなので 目を何とか綺麗にしたいけど良い方法だろうだろうか?
super detailed eyesは入れてるけどうまくいかないことが多い
上から順に微妙な感じ
可能な限り最下段みたいにしたい
https://i.imgur.com/yL9NAOp.png 目をきれいにするためのマージ用モデルがあるよ
マージわからんなら無用かもだが あと単純に解像度足りてない気が
でかいサイズにhiresすればええ >>186
そーかー
dimでかいとそんな副作用あんのな。
32じゃまだでかいか。
alphaは機械的にdimの半分にしてたが問題あるかね・・・むずい >>187
上2つなんかは典型的な解像度不足の症状じゃないかね
綺麗にしたいなら脳死でhires2倍がスタートラインみたいなもんだと思う
小さいパーツの品質上げるにはピクセルサイズ稼がないとどうにもならんので
>>191
俺は衣装系lora作ってるけど1e-4のdim128/alpha64の2000ステップくらいでざっくり様子見して
いけそうならdim64とか32に落として2000ステップ、そのあといい感じになるまで2000単位で追加学習みたいな感じでやってる
学習不足よりは過学習のほうがマシなのでガビらせたのを強度下げて運用 >>192
ふーむ
人物系でもおんなじ感じでいけるかも
バッチサイズ1だよね?バッチあげたらステップ数は減るっちゅうことでいいよね? ワイ実写部、何も考えずKohyaのReadmeからリンクされてるYouTube動画参考にDim 128 Alpha 128 2D衣装Lota作成で、同じくDim 128 Alpha 128
earning_rateは1e-4でadetailer使用
ステップ数はバッチ5 × 5000くらいかな
特にがびったりはしない
出したい衣装以外もかなり混ぜるけど >>187
俺も同じ悩みだ
>>190のアドバイス参考にすると
絵自体が崩れるとかは一先ず置いて
脳死デフォ設定の512x512の2倍とかじゃなく
1024x1024の2倍とかやると変わるかな? 1人の顔と胴体は写っている絵を出したいから、縦長の512*768で出してるんだけど、他にいい縦横比率ってあります?あと解像度はあまり大きいのにすると2人になったり崩壊したりするから768がやっぱ限度ですかね…? 話流れで質問宜しくお願いします。
2次絵で512✕768で生成して、その後アップスケールしているのですが、目当たりや瞳がくっきり出ないとか上まぶたや下まぶたが2重になっているなど、イラスト全体で見てパッと見は綺麗ですが、アップにするとぼやけ気味になっています。
やはりくっきりさせるには画像サイズを大きく高画質設定で生成しないと駄目でしょうか? sd1.5ベースのモデルはだいたい512学習なので現実的に使える解像度は768*768くらいまで
1024とか出そうとすると人物が分裂したり崩れたりする
なのででかい画像は512〜768あたりの解像度+hires.fixで作る
ちなみにもともとhires.fixは上記の512学習モデルででかいサイズで出すと絵が崩れるのを防ぐ機能として開発された
今は改修されてディティールを追加しつつアップスケールするみたいな機能になってる あれ、うち800x600とか4:3で出したりしているけど(現在は960x720でのhires)
hiresは元絵を崩さないように、denoiseとhires steps低めにしてたり
でもやっぱり512か256の倍数の方がよかったりするのかしら >>199
言いたいことはわかるんだけど定義が曖昧なんで一つ確認
アップにするとって、画像サイズ100%を超えるサイズまで拡大して言ってないよね?
どんなに高精細に出力しても実際のサイズの300%とか400%にしたらぼやけるのは当たり前だから
クッキリしないってのは大きなサイズを出力してその画像の100%の表示サイズでの話だよね?
それなら原因や対処法というか、こうすればいい感じに拡大できるってのを教えられるけど(別スレのコピペになるけど)
300%400%の状態でぼやけない方法を教えろって言われても無理なんで 自分が満足いく絵が出せてるならいいんじゃないの
崩れるか崩れないかはモデルにもよるし
画サイズ横長の方が複数人出しやすい >>201
いやhires前の段階で崩れず狙い通りの構図が出せてるなら問題ないよ
hiresはi2iみたいなもんだから、hires前で崩れてなけりゃアプスケ後も大きな問題は起こらない
元が512*512ピクセルで学習してるから、解像度由来の破綻が一番少ないのは512*512だろうって程度の話ではある
自分は最近は512*640くらいをベースにしてる
768まで伸ばすと胴が伸びやすい 俺は4:3にしたいときは640*480にしてる
どっちも512に近いので破綻しにくい
と思っている >>201
64の倍数ならなんでもいいんじゃ
学習素材的なものを気にするなら大きさよりも正方形かどうかじゃないかな
NAIちゃん時代だけど正方形だと出やすい体位があると言われてたし >>202
お返事ありがとうございます。
まだまだ初心者で説明不足ですいません。
タブレットでイラストをズームして画像がぼやける感じではなく、目で言うと、瞳と白目での輪郭、まつげとあるとまぶたの当たりにまた、まつげがあるとか出来てしまいます。わかりにくくてすいません。
>>187にあるように目の当たりが上手く生成できませんでした。何枚かきちんとできる事もあります。 >>203-206
ありがとう。よく上がっている画像が3:2がおおかったりで、
単に最適なサイズを知らないだけかと思ったけど、ひとまずは64の倍数であれば良いみたいね https://i.imgur.com/LVAgf0i.png
本日付けの価格更新
4070とうとう4060Ti(16G)の予価より安くなっちゃった >>207
一応確認だけどrestore faces有効にしてたりしない?
二次モデルでrestore faces入れるとアニメ目とリアル目が二重に描画されるという症状が出るよ
その状態でhires通してもカバーしきれないことが結構ある マージ用のモデルなんてものがあるんやな
一覧みたいなの欲しい >>197
ワイの検証やけど
512*512の中にキャラの頭全体が縦に3つ入るくらいのカメラアングルだと崩れない
バストアップなんかは頭2つ程度だからかなり安定する
4つ以上のアングル、つまりカメラが引いてるってことだけど、そういうアングルになると崩れてくるから画像サイズ自体を大きくして対応する 目みたいな繊細なパーツはモデル差もあるだろうけど解像度を確保しないと始まらないよね
解像度は絵が破綻しない程度に出来るだけ大きくした方がいいし
更に解像度が同じでも顔の面積が大きい方がいいし
更に更に顔の面積が同じでも目の面積が大きい方がいいし
つまり大きな目が似合うロリコンがベスト
ロリコン大好き
https://files.catbox.moe/bz20j5.jpg ■ このスレッドは過去ログ倉庫に格納されています