【StableDiffusion】AIエロ画像情報交換25【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1683421154/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 年齢、暴力、犯罪がらみのタグまで見てるからな。トータル的にギャー人世界でダメなものダメ
エロは上げたことないからわからんけど、成人指定的な何か別の方法があるのかもしれん 原因判明
タグの15 years old が引っかかってたらしい
2D絵でもそれはダメなのね >>179
16もって…数だけで言ったらcivitaiのメガモデルとか桁が違うよ? 混ぜてエッチなやつが出るなら良いけどそうでもないのが難しいな ハーフパンツの隙間から見えるパンツとか出来ないよね
色々試してるけど隙間パンツができない >>175
エロいコスチュームならオッサンに着せると良いよ stable diffusion公開直後にローカルで動かしてすごいねーって放置してたけど久々に触ったらすげぇ実用性上がってるのな
イキ顔に鼻水欲しくてsnotとか入れてみてるけど2D系は反応無く(タグがない?)、3D系だとおなにゅしながらちり紙で鼻をかみだしてどうしたものか learning_rateで頭抱えてる。
1e-4だとわりと低ステップ数でガビりはじめるから、1e-5とかにしたら時間かかりすぎる上に大して学習せーへん。
dimとかにもよるんかなぁ。
みんななんぼにしてる? dim下げれば形状の追従性抑えられるかわりにガビりにくくなるよ
あと自分用loraならそんなにガビるの気にしなくてもいい
使う時にblockweightなりで抑えめにすりゃいいだけなので 目を何とか綺麗にしたいけど良い方法だろうだろうか?
super detailed eyesは入れてるけどうまくいかないことが多い
上から順に微妙な感じ
可能な限り最下段みたいにしたい
https://i.imgur.com/yL9NAOp.png 目をきれいにするためのマージ用モデルがあるよ
マージわからんなら無用かもだが あと単純に解像度足りてない気が
でかいサイズにhiresすればええ >>186
そーかー
dimでかいとそんな副作用あんのな。
32じゃまだでかいか。
alphaは機械的にdimの半分にしてたが問題あるかね・・・むずい >>187
上2つなんかは典型的な解像度不足の症状じゃないかね
綺麗にしたいなら脳死でhires2倍がスタートラインみたいなもんだと思う
小さいパーツの品質上げるにはピクセルサイズ稼がないとどうにもならんので
>>191
俺は衣装系lora作ってるけど1e-4のdim128/alpha64の2000ステップくらいでざっくり様子見して
いけそうならdim64とか32に落として2000ステップ、そのあといい感じになるまで2000単位で追加学習みたいな感じでやってる
学習不足よりは過学習のほうがマシなのでガビらせたのを強度下げて運用 >>192
ふーむ
人物系でもおんなじ感じでいけるかも
バッチサイズ1だよね?バッチあげたらステップ数は減るっちゅうことでいいよね? ワイ実写部、何も考えずKohyaのReadmeからリンクされてるYouTube動画参考にDim 128 Alpha 128 2D衣装Lota作成で、同じくDim 128 Alpha 128
earning_rateは1e-4でadetailer使用
ステップ数はバッチ5 × 5000くらいかな
特にがびったりはしない
出したい衣装以外もかなり混ぜるけど >>187
俺も同じ悩みだ
>>190のアドバイス参考にすると
絵自体が崩れるとかは一先ず置いて
脳死デフォ設定の512x512の2倍とかじゃなく
1024x1024の2倍とかやると変わるかな? 1人の顔と胴体は写っている絵を出したいから、縦長の512*768で出してるんだけど、他にいい縦横比率ってあります?あと解像度はあまり大きいのにすると2人になったり崩壊したりするから768がやっぱ限度ですかね…? 話流れで質問宜しくお願いします。
2次絵で512✕768で生成して、その後アップスケールしているのですが、目当たりや瞳がくっきり出ないとか上まぶたや下まぶたが2重になっているなど、イラスト全体で見てパッと見は綺麗ですが、アップにするとぼやけ気味になっています。
やはりくっきりさせるには画像サイズを大きく高画質設定で生成しないと駄目でしょうか? sd1.5ベースのモデルはだいたい512学習なので現実的に使える解像度は768*768くらいまで
1024とか出そうとすると人物が分裂したり崩れたりする
なのででかい画像は512〜768あたりの解像度+hires.fixで作る
ちなみにもともとhires.fixは上記の512学習モデルででかいサイズで出すと絵が崩れるのを防ぐ機能として開発された
今は改修されてディティールを追加しつつアップスケールするみたいな機能になってる あれ、うち800x600とか4:3で出したりしているけど(現在は960x720でのhires)
hiresは元絵を崩さないように、denoiseとhires steps低めにしてたり
でもやっぱり512か256の倍数の方がよかったりするのかしら >>199
言いたいことはわかるんだけど定義が曖昧なんで一つ確認
アップにするとって、画像サイズ100%を超えるサイズまで拡大して言ってないよね?
どんなに高精細に出力しても実際のサイズの300%とか400%にしたらぼやけるのは当たり前だから
クッキリしないってのは大きなサイズを出力してその画像の100%の表示サイズでの話だよね?
それなら原因や対処法というか、こうすればいい感じに拡大できるってのを教えられるけど(別スレのコピペになるけど)
300%400%の状態でぼやけない方法を教えろって言われても無理なんで 自分が満足いく絵が出せてるならいいんじゃないの
崩れるか崩れないかはモデルにもよるし
画サイズ横長の方が複数人出しやすい >>201
いやhires前の段階で崩れず狙い通りの構図が出せてるなら問題ないよ
hiresはi2iみたいなもんだから、hires前で崩れてなけりゃアプスケ後も大きな問題は起こらない
元が512*512ピクセルで学習してるから、解像度由来の破綻が一番少ないのは512*512だろうって程度の話ではある
自分は最近は512*640くらいをベースにしてる
768まで伸ばすと胴が伸びやすい 俺は4:3にしたいときは640*480にしてる
どっちも512に近いので破綻しにくい
と思っている >>201
64の倍数ならなんでもいいんじゃ
学習素材的なものを気にするなら大きさよりも正方形かどうかじゃないかな
NAIちゃん時代だけど正方形だと出やすい体位があると言われてたし >>202
お返事ありがとうございます。
まだまだ初心者で説明不足ですいません。
タブレットでイラストをズームして画像がぼやける感じではなく、目で言うと、瞳と白目での輪郭、まつげとあるとまぶたの当たりにまた、まつげがあるとか出来てしまいます。わかりにくくてすいません。
>>187にあるように目の当たりが上手く生成できませんでした。何枚かきちんとできる事もあります。 >>203-206
ありがとう。よく上がっている画像が3:2がおおかったりで、
単に最適なサイズを知らないだけかと思ったけど、ひとまずは64の倍数であれば良いみたいね https://i.imgur.com/LVAgf0i.png
本日付けの価格更新
4070とうとう4060Ti(16G)の予価より安くなっちゃった >>207
一応確認だけどrestore faces有効にしてたりしない?
二次モデルでrestore faces入れるとアニメ目とリアル目が二重に描画されるという症状が出るよ
その状態でhires通してもカバーしきれないことが結構ある マージ用のモデルなんてものがあるんやな
一覧みたいなの欲しい >>197
ワイの検証やけど
512*512の中にキャラの頭全体が縦に3つ入るくらいのカメラアングルだと崩れない
バストアップなんかは頭2つ程度だからかなり安定する
4つ以上のアングル、つまりカメラが引いてるってことだけど、そういうアングルになると崩れてくるから画像サイズ自体を大きくして対応する 目みたいな繊細なパーツはモデル差もあるだろうけど解像度を確保しないと始まらないよね
解像度は絵が破綻しない程度に出来るだけ大きくした方がいいし
更に解像度が同じでも顔の面積が大きい方がいいし
更に更に顔の面積が同じでも目の面積が大きい方がいいし
つまり大きな目が似合うロリコンがベスト
ロリコン大好き
https://files.catbox.moe/bz20j5.jpg >>205
480は64の倍数じゃないけど、8の倍数ならいける?
長方形目でいいアスペクト比を何にしたらいいかわからん… 8の倍数でないと微妙にリサイズされてしまうので、最小限8の倍数ではあったほうがいいかと ありがとう、とりあえず↑にあった512*640を使わせてもらおうかな。
縦を1080にしたいんだけど1.6875倍とかできるんかな… >>217
確かにそうだね
WebUIでは8の倍数ならOK
中身はよく知らん
64の倍数で4:3だと768*576などいかがか >>220
>>221
ありがとう。帰って試すの楽しみだわ。 https://i.imgur.com/NJp1tdO.jpg
256*512で作った顔が潰れてるボケボケ画像
https://i.imgur.com/ya56DkF.jpg
それをペイントソフトで4倍に引き伸ばして顔部分だけ512*512で切り抜いて、
コントロールネットで元の形を維持しつつi2iで顔だけ再生成
https://i.imgur.com/ugzRL2d.jpg
それを元の画像に張り付けて256*512に解像度を落とせばあら不思議!
お顔がとっても綺麗になった!
これは極端すぎる例だけど、目だけ綺麗にしたいとかなら俺はこうしてる その辺を自動化してくれるのがadetailerやddtailerということでよろしいか >>180
おぉ、こんなモデルあったのね
全然知らなかった
https://civitai.com/user/asmrgaming/models
3000以上をマージしてるみたいだけど
作者本人の言動・ファイルのデカさ・絵柄などなどで
思ったほどの評価は得てないみたいね
世界は広いや! >>228
Loraの受け(ある程度の再現してる気がする反応)は良くなるけど、再現度はモデルが平均化する分、ほとんど思い通りにいかなくなるからね
Clipバグが残ってたり学習が強かったり適当なものをマージすると奇形化したり汚染が広がって、生成が収束しにくくなるだけだし
リアル系の学習無しのマージを繰り返していくと、ほとんどSD1.5に最後に足したモデルの影響が強く出るだけになってしまうしね >>209
4070が16GBだったら買いなのにな
中途半端すぐる 現状stable diffusionに関しては12Gで機能的にできないことはほぼないから
当面の快適性とコスパ重視で4070か4070Tiは良いと思うよ 前に絶対アウそうなリアルロリAI絵を掲示板の転載で見て感動して機械音痴ながらStableDiffusionを入れてみたのですが、
ああいうロリ系の絵には専用のモデルが使われているのでしょうか?
そういうのに向いたおすすめのモデルとかってありますか? >>237
基本的にどのスレでも三次ロリ系について語ることはない
その画像が手元にあるのならテキストエディタにぶちこめばモデルからプロンプトまですべての情報は書いてあるはず
手元になく、何がなんやら状態ならwikiとかcivitaiとかmajinaiでこういうの出してえ!って画像探してきて
chilloutに同じプロンプト入れるだけでも七割くらいは同じもんが作れる
あとはプロンプト工夫したりガチャしたりLoraに手出してみたりモデルマージしたり自分なりの楽しみを見つけろ ロリコンを納得させるようなものは基本的にできないよ
子供の顔に大人の乳首と大人の身体でできた不気味なキメラができるだけ cstaberにchillやbraマージすれば欲しいもんは実現出来るって誰か教えてやれよ あれも所詮ソフトなのを広く浅くなやつだからな
ディープなやつは表に出てくるこたないだろう ちなみにLoRAは適用数値強めると学習素材ほぼそのままのやつがすぐ出るから
自作LoRA公開するときは素材に変なもの混ぜたらあかんぞ 結局AIでディープロリは難しいってこと?
意味なくない? ディープロリなんて元々手に入れる方法ならあった訳だから別に…
正直アウロリより特殊性癖イラストの方が希少だぞ 結局は教師データがものを言う世界だからね…
教師データを大量に持ってるやべー奴の手を借りるか
顔とかのセーフな部分だけで我慢するかしかないやろうな 以前からいる連中はロリ再現の方法を知っているが、言えないんだよ
禁忌なんだよ諦めろ GlyphControlよくわからんがこれは体操服に名札付けられるのか? cilloutのマスピ顔ロリで十分満足な俺は恵まれてるな RealDosMixでxx years oldって入れるとそれっぽくなる hashって中身一緒でも今と昔で違うんだっけ?
同じものか分からんけど例のロリモデルと同じ名前のやつちょっと前に見かけたな 私はわかりませんが皆さんあちらの方に歩いて行かれるようですよ 過去スレ見て勉強しました。
自分なりに楽しく遊べそうです。
ありがとうございました。 >>257
ここ2,3ヶ月くらいの過去スレ見たらいいモデル拾えると思うよ。 久しぶりにプラグインのアップデートしたら、LoRAが使えなくなった
WebUIのアップデートしなきゃならんのかな
久しぶりのアップデートはエンバグだらけで凄い評判悪かったけど、その後バグフィックスされてる? シンボリックリンクが使えなくなったって耳にしてたけど、全く修正されてないのな? それは治ったって聞いた
ワイもこれから試すから自信ないけど モデルの作り方で検索するとLoRAについてはでてくるけど
大本になるモデルデータってどうやってく作ってるの?この資料が全然ヒットしない >>261
ごめん、シンボリック自体は直ってた
LyCORISがLoRAのフォルダと別になったせいで無いと言われてた
今まで一緒くたにしてたけど、これからエラー出る度に探してLyCORISのフォルダに移動するお仕事が始まるのか? >>262
huggingfaceにt2iのtrainingの解説がある。diffusersの学習でググっても多少は出てくる
WDの人のディスコの過去ログを漁ってみるのもいいかもしれない
ただVRAMが24GB以上必要だしタグ付き学習画像が大量に必要だからまぁ素人向けじゃないと思う
WDも1.4から8個のA100とメモリ192GBの環境で100万枚以上の学習データ使ってたみたい >>263
めんどい人は全部LICORYSフォルダにブチ込んでるって聞いたが
層別の書式違うし分けたほうがええとは思うけどな 触り始めて3日目なんですが、hIresの存在を知って愕然としてます
そこで質問なのですが、1日目に作った画像をhiresで拡大する方法ってありますか? >>266
作ったpngファイルをpinginfoのタブの画面にドロップすると作成した設定やプロンプトが表示される
[send to t2i]ボタンを押すとその設定がt2iに反映される(シード値も)
同じ環境で全て一致していればほぼ同じ絵が生成されるのでその状態からhires.fixにチェックを入れて好みの倍率にして生成すればいい
他にpinginfoから[send to i2i]ボタンを押して解像度を好みのサイズに設定すれば似たような結果にできる。こっちはアップスケーラーを選んだりTiledDiffusionという拡張機能でいろいろな拡大方法が使えるがそれぞれ沼が深いので自分で調べるか試すのだ >>266
hiresの仕組みはほぼi2i
昔作ったものを今の知識や機能で高解像度にするならi2iを勉強したらええよ >>267-268
早速ありがとうございます!知らない単語が続々、精進しますm(_ _)m >>269
すまんpinginfoじゃなくてpnginfoだったわ >>266
そのまま拡大したいならmultidiffusionとか使うといいかも 単純拡大ならExtrasもあるよね
まあt2iのhiresやi2iのやり方を知ったらほとんど使わなくなるんだけどね
他にも憶えること山ほどあるけどガンバレ Extras以外の拡大って細部に少なからず画像の修正が行われるっていう
理解なんだけどあってます? 四つん這いのケツ突き出しができん
プロンプトで書くとヒザ下がなくなるよ
どうすればいいです? ■ このスレッドは過去ログ倉庫に格納されています