【StableDiffusion】AIエロ画像情報交換14【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換13【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1675638288/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術14【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1676588159/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください 2080SでせっせとLoRAってる私みたいな人もいるんですよ 2060と3060の生成速度差が大したこと無いなら2060でも良さそうな気はするな
20xxと30xx以降は生成される絵に違いが出るって情報があったと思うけど
自分が確認した限りでは2070と4090で生成される絵は同じだった LoRAでテキストエンコーダとUNet同時に動かす前にTextural Inversionかけてる人おらんか? >>250
3年経ったらAI画像作成の世界ってどうなってるんだろ?
この半年くらいの流れからすると想像もつかないな。
ある程度のところに達したら進歩速度鈍るのかもしれないけれども。 生成速度
https://ul.h3z.jp/fzhoYBHJ.png
の2060 12GBと3060 12GBで比較
なおアスカベンチだと2060が1割ぐらい遅い >>282
回答じゃないけど、それは根本的な解決法はないから何かの対処療法でなんとかするしかない
元のモデルが過学習してて顔の表情とエロ衣装を分離できてない
表情で済めばいいほうで、たとえばLoRA適用中に(LoRA訓練にスク水が無かったとして)スク水適用したら、元のモデルが過学習しててスク水成分が絵柄成分持ってて顔の絵柄ががらっと変わるとかもこれ >>287
何に対して言ってるのか分からんけど
2060と3060の差なら自分は持ってないから知らんし
2070と4090は自分で5枚くらい確認して差がなかったよ
↓でも差はなさそうだし、なんなら4090同士でも違っちゃってるし訳わからん
https://seesaawiki.jp/nai_ch/d/GPU%A4%CB%A4%E8%A4%EB%C0%B8%C0%AE%BA%B9%B0%DB%A4%CE%B8%A1%BE%DA
3060って【安いのに12GB積んでるから他製品より相対的にお得】って理由で勧められてると思ってたんだけど
より安い2060が非難されるのはなぜなのか知りたい
自分は20xxと30xxで生成される絵が変わるからなのかな?と思っただけだよ >>290
2060が高いからだよ
1万なら訓練中の推論サブとして買う
以上 >>288
3060買ったばかりだけど、それぐらいの差なら2060でも良かったな
放置してガチャ回すような使い方だから ちょっと自信ないんだけどCUDAコア数が1.5倍ぐらい違うのに計算時間が1割しか変わらないってことは推論はメモリ帯域にとらわれてんだろうけど、訓練時のベンチはないわけ?
推論は基本的に拡散計算だけだけど、訓練時はそれに加えて勾配計算が加わるからメモリ帯域が枷になる率が減るはずなんだけど
とはいえベンチしないと断言できないが >>289
やっぱりそんな感じの状態だよなあ
AOM3は表情や漫符が衣装や仕草に付随してくるからめちゃくちゃ使いにくいな 生成速度の問題だけじゃないのに何故わからないのか
もはや荒らしだなぁ >>295
だからそれを書いてくれれば一発で終わる話だと思うんだけど
自分が見落としてるだけならすまん
2060と3060の差ってなんなんだ? 2060と3060の違いは色々あるけど
dlss3じゃねえか? 公平な目で見たら2060否定派は理由を示せてないな
理由書いたらいいじゃん >>294
恐らく界隈で過学習率が少ない(と作者が主張してる)ACertaintyですらド変態系プロンプト追加してくとアヘ顔成分つけてくれて、その時LoRA顔の表情どころか絵柄ががらっと安っぽくなるからなあ
AOM3はAnything系だからより酷いだろうなとは思う
あとあんま自信ないけどマージを重ねてくと、同じプロンプトで刺激されたUNetが表す成分が複数になったりして状況が酷くなってくのか?と想像してる
AOM3はAOM2よりさらにマージ量増えたから >>297
CUDAコア数1.5倍
TensorRTサポート 2060 12Gは確かに一考の余地はあるが
ここにいる人はもっと良いもの持ってるし
買い替えなら一気に4090いきかねないから
ここで騒ぐ意味はあまりない >>288
RX6800だけど実は3060と大して生成速度の差はなかった?
できることが少なくて色々不自由ではあるけど 性能もソフトのチューニングが大きいから一概には言えないね
来週どうなってるか分からん なんかゲフォ論争が終息しそうにないな
一般的な社会人であれば4090買っとけばいいだろ
家族持ちやニート、学生はAIDrawingの趣味を持つ前にもっとするべきことあるだろってことで集結でいいだろ。 >>301
細かいゴミが蓄積している感じか
こりゃ対処療法で何とかしながら偉い人が解決してくれるのを待つしかないな >>297
スレチなのでここまでにしとくが、一番身近なとこだとLoRAの学習速度で大きな差が出る
わざわざvram12を推しておいて、そこの差を無視するのはダメでしょ
対応してるCUDAのバージョンが低いせいで高速化できない
そもそも3000/4000シリーズとアーキティクチャが違うから、今後TensorRTのアップデートでも蹴り落される可能性も非常に高い
AIという最新技術の使用にあたって、たかが1万円の違いで『前世代』の機器を新規購入するのはとにかくリスキーなんだよ
今の環境だけで使えても意味はない
逆に今だけでいいから安いのがいいってんならもっと下のグラボをすすめるわ
以上 おわり! >>309
具体的にどれくらいの差があるのか知りたい 大雑把にグラボに+αを求めるなら
ゲームしない→2060
一般的なゲームFHD→3060 12GB以上
最新のゲームFHD or WQHD→4070ti(4070 16GBモデルも)
最新のゲーム4K→4090
趣味で25〜30万のものを買うのは別に悪い事じゃないんだけどね
それでも必要じゃないからローやミドルでもいいやって人を4090で煽るのはどうかと思う
4090煽りの末期がいるスレ もはや病気の類だよ?
[AdaLovelace]NVIDIA GeForce RTX40XX総合 Part132
https://egg.5ch.net/test/read.cgi/jisaku/1676804849/ ネットで実写のパンチラ画像を見てムラムラ来たのでググったらAV女優だったんだが、動画みたらなんか逆にシュンとしてしまった
動画が必ずしも画像に勝てるわけじゃないんだよな 昨日インストールして始めました既出の話だっらすみません、txt2imgの作成してる時プレビュー画面で最初の構図はいい感じなのに80%超えたあたりで構図が崩壊するんですが、そう言うものなんでしょうか? >>314
見えそうで見えない>ちょっと見えたラッキー!>丸見え
俺の中ではこんな感じの価値だわ >>314
リアルAVは写真詐欺だらけだしね
実写動画はなんかエロさが全然足りない上に実際の顔も微妙で抜くどころか真顔になる
個人的には現状エロ漫画が頂点だなぁ 今日もまた理想のロリ巨乳を求める帰路なき旅が始まる 素人特有の生々しい動画好き
ああいうハメ撮り画質を狙って出すにはどうしたらいいんだろうか
Basilのvaeなしで生成するといい感じにボヤけるんだけどちょっと違うんだよな
あと暗い部屋が全然出せなくてモヤる 真顔で思い出したけど無表情にするためにexpressionlessって入れてみたけどAOM3くん無視してくるね
ちょっと開脚くぱぁして白い液体垂らしただけなのに・・・ huggingfaceのこれトロイ検出したんだけどクリーンなのどこです
SHA256 basil_mix.ckpt
bbf07e3a1c3482c138d096f7dcdb4581a2aa573b74a68ba0906c7b657942f1c2 素人考えでckptってデータ集みたいなもんだと思ってたけど、実はプラグインみたいな感じだったのか? 拡張子がsafeなんちゃらが比較的ウイルスを混入しにくいらしいから、そっち入れるんだな
原理は知らん
誰か教えてくんなまし >>315
それhireなんちゃらにチェック入れてるだろ
denoise?みてーなところを下げな >>302
> TensorRTサポート
2060はTensorRTを使えないんだ。3060にしておいてよかった
あれも早いとこ1111で使えるようになってほしい
画像生成が2倍ちょっと早くなるからね >>325
こんな所チェック入れたら覚えないんだけど、原因がわかって助かったよ、ありがとう。 3070tiなんて買うんじゃなかった
もっとメモリマシマシなの買っておけば。。。 まだ先の話だけど4070 16GBの噂が出てきたな、本当に出たらAI用だ で、NAIちゃんのアプデって何が変わったんでしょう
誰か使用者いたら情報欲しいです とりあえず大きい絵が出せるようになったって報告はあるね >288
4090 WSL2 環境 torch2.0+cu118
xFormers 0.017
Batch size 20 で 45 it/s 出ました
現状この辺が限界? >>334
そういうときこそcontrolnetでしょーがよー >>334
まぁ苦手やね。
CN使っても崩れやすい >>334
学習してないからねぇ
ほぼ100%クリーチャーになる >>326に自己レス
> 751 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cdf7-7PCk)[sage] 投稿日:2023/02/21(火) 11:27:22.40 ID:4mJQJFyu0
> WEBUIのTensorRT対応はissueは立ってるけどここのところ動きなしなんやな
> https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7345
>
> 制限が色々つくみたいなことも書いてあって、WEBUI対応は結構時間かかるかも分からんね
https://fate.5ch.net/test/read.cgi/liveuranus/1676865326/751
ショボーン バッチでアップスケーリングするとjpgとpng,2種類作成されるけどpngだけ出力させる方法あります? >>340
settingにあるけどどこだか忘れた
pngがどうたらとか書いてあるからすぐわかると思う >>336 337 338
Control netもimg2imgでつかうくらいかな(depthのみ)
OpnePoseEditorも今の所四肢の交差しない全身の立ち絵ポーズくらいで使えるくらいかなと。 顔傾けるだけでも水平になったあたりからクリーチャー化するよね AI画像生成って、本質的に「絵師が良く描くような絵ほど(学習データが多くて)上手い」もんだしな
逆さまになってる絵とかマンガとかなら探せば結構あるかもだけど、綺麗なCGの一枚絵では学習データ少ないだろうしな
逆さまだと髪型ごとにも表現変わってくるし 触手とかモンスターに足掴まれて逆さ吊りにされてるようなやつ一回描かせようとしたけど結局出来なかったわ だからたぶんガイルとか覚醒ゴンさんみたいな髪型も苦手なんだろうな
ガイルとゴンさん本人ぐらいは有名だから描けるかもしれんが 男の娘も良い感じに作ってくれない印象ある
耽美な顔したムキムキボディの少年かふたなりになりがち これ便利。
https://github.com/fkunn1326/openpose-editor
こいつポーズ指定してSend to ControlNetをして、PreprocessorはNoneで生成するだけ >>340
「画像/グリッドの保存」の一番下にある「If the saved image file size is above the limit, or its either width or height are above the limit, save a downscaled copy as JPG」
をオフにすると、その下の「If the saved image file size is above the limit, or its either width or height are above the limit, save a downscaled copy as JPG」や
「Width/height limit for the above option, in pixels」を画像のファイルサイズやピクセル数が上回ってもダウンスケールのjpg保存はされなくなるはず 増えすぎたstylesを整理したいんだけど
stykes.csvを編集するしか方法がない感じ? Kohya版LoRA WebUI 簡単スタンドアローンセットアップ(仮版)
https://note.com/uunin/n/n3f09b93df575
人によってはエラー出る可能性もあってわからんので、ヒマあったら誰か試してみて欲しい
世間の流行りはpopup版なんだが、お手軽にやってみたい人向けってことで
なんUとマルチになって申し訳ないが、オレそもそもこっちの住人なので許してねん🤗 NAIのアプデってサンプラーだけかー
モデルが変わらないんじゃあなぁ 新参だからTextual Inversionが新鮮に感じる
理想的にはプロンプト詰めればここまで元の絵師の画風捉えられるんだな
まずこれやってからUNet含めたLoRAやってどこまでいけるか試そう
要するにPivotal Tuningみたいなものだけどなぜか考察例ほとんどないってことはあんま良くないのかね
埋め込み語の初期ベクトル決められるから、学習率わざと下げて特徴捉えさせたいところ指定するとかできねえかな 画像のサイズ大きくすると人増えたりおばけになったりしちゃうんだがなんで?
大体1280*720くらい超えるとまともな絵にならない 画像のサイズ大きくすると人増えたりおばけになったりしちゃうんだがなんで?
大体1280*720くらい超えるとまともな絵にならない あれ、civitaiから減ってね?
アヘ顔とかあからさまに精子描写があったやつなくなってないか? フィルターがsafeになってるだけだから戻すよろし >>354
512とかでべんきょーしてるからおおきいのにがてだとかきいた
はいれぞであっぷすけーるしてごまかせ あれ、civitaiから減ってね?
アヘ顔とかあからさまに精子描写があったやつなくなってないか? >>357
>>359
ごめん、連投しちゃった
ありがとうございます、そのとおりでした >>359
非表示になってるのが多いから履歴にURL残ってれば落とせるよ
削除されてると404になるからあきらめるか、モデル番号で総当たりすると結構やばいやつもごろごろしてて笑えるけど
もう11000超えてるから表示されてない連番閲覧ツールとかない人は大変かも
好きな投稿者のフォローしておくと新作通知が来て、非表示でもアクセスできる機能もある
昨日あたりからアップチェックが人の目でやるようになったと感じるくらいまとめて更新されるようになったね >>29さん、>>31さん、>>37さん、>>39さん
貴重な情報ありがとうございます
特に>>29さんから頂いたVAEのご指摘と、>>31さんから提案頂いたプロンプトで出力される絵がとても改善されました!
本当にありがとうございます
・今回出力された画像例
http://ero-gazou-uploader.x0.com/image.php?id=24850
・プロンプト
masterpiece, best quality,masterpiece, best quality, (animated:1.3), full body of woman, mature, 30 years old,
brown medium hair, (delicate beautiful face:1.2), smile, closed mouth,
human hands, large breasts, high heels, simple white background, dress shirt,
black pants, extremely beautiful detailed anime face and eyes,
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality,
low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name,(worst quality:1.4), (low quality:1.4) , (monochrome:1.1),
Steps: 30, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 29781380, Size: 512x950, Model hash: abcaf14e5a
続けて質問する形で申し訳ないのですが
ControlNetなのですが、こちらは画像を出力する際に、背景を出力しない(背景は白や灰色の単色)方法ってありますでしょうか?
背景のなしと思われるプロンプトを入力しても背景がどうしても出てしまいます
モデルによってプロンプトが変わるのかもしれませんが何かヒントを頂けると幸いです
・ControlNetにて出力された画像例
http://ero-gazou-uploader.x0.com/image.php?id=24852
・プロンプト
同上 画風覚えさせるためにTextual Inversionをキャプション付きでやってるけど
キャプションで記述してるような覚えて欲しくない要素(猫耳とかオッドアイとか)も習得してしまうな
ベクトルサイズ小さくする手もあるけど、それで本当にいらない要素じゃなくて画風が選ばれるのか全く保証ないね
学習中にキャプションにある単語ベクトルとの距離を正則化項にするとかやったらうまくいくか? あと、訓練画像に低画質の混じってるんだが、学習ステップ数増やしたら何故かそれまで再現するようになりやがった
信じられないけど低画質感を再現するプロンプトがあるってことだよな?
「lowres」成分を学習したのかも
Textual Inversion、流行ってない感あるけどLoRAと相反する概念ではないのでもっと探求が進むべき はじめてLora作ってみたんだけど(60枚で100回回し?の6000)学習元が全部同じ衣装だったせいか
それが強すぎて使ってみてもその衣装でしか出てこなくなった…
ディープフェイクみたいに顔だけ欲しい場合は顔だけトリミングした画像を学習させた方がいいの? 無表情アナル拡張に成功した!
AbyssOrangeMix2_hardベースで
プロンプト
no facial features,(cold expression:1.4), (v-shaped_eyebrows:1.2), clothed mouth
ネガティブ
(blush,embarrassed,ahegao,smile,:/,😐:1.5)
ハードな内容になるとさすがに表情変えてくるけど
大股開きやアナル拡張ぐらいのちょっと恥ずかしい格好なら
キリっとした無表情で淡々とこなしてくれるぜ同士たちよ >>366
生首は一つの手ではある
あともしかしたらだけどLoRA適用時にtext encoder部分の強度弱めたら服装変えられるようになったりしない?
ちなみにDB方式?それとも丁寧なキャプションとタグつけた? cinnamon_mixとかrealistic_Visionのfixがついたモデルとついてないモデルの違いは何…? >>366
顔だけだったら600stepくらいでもかなり近いの出てくる
回しすぎなんじゃないか まずText Inversionでin the style of ***で画風を覚えさせて、次に
UnetだけLoRAする方法やってみたよ
埋め込み語のほうに明らかに過学習(髪色とか髪型とか)入ってるけどプロンプトで制御可能なレベル
片方だけ適用してみるとそれぞれがどういう特徴を覚えてるのかが分かって面白い
UNetだけだとこぎれいだけど魂が無いって感じ
テキストエンコーダだけだと特徴捉えてるけど細部が違う
みたいな
テキストエンコーダが過学習すると子供が描いたような特徴は分かるけど下手、みたいなのになる
概ね予想通り
訓練画像に多く居たキャラが頻発するけど、テキストエンコーダ切ればそれもなくなる
これも予想通り
埋め込み語のベクトル数が多めなのでプロンプトではmasterpieceとか使わないことにした
この方法でやれば対象絵師の画風をとりいれつつオリジナルな構図に持ってける気がする
少数枚数でのLoRAは結局過学習との戦いに終始することになるからこの方向で突き詰めるつもり
単体LoRAで過学習に悩んでる人も、UNetとテキストエンコーダどっちを弱めるか、とかの参考になると思う >>367
embarrassed多用する俺からするとこれがネガティブに入ってるのめちゃくちゃ違和感あるんだがw
どうやら相容れないようだ embarrassed入れると勝手にblush入るしな
しかしSDやらなきゃembarrassedという単語を
暗記することはなかっただろうな あとテキストエンコーダはステップ回してくと最初に顔を学習するって傾向は何度も見た
テキストエンコーダ側だといくらやってもnudeにしたときの体のタッチが顔と一致しない
UNet回せばすぐに体もある程度学習する
たぶん学習元のキャプションに体の表現タッチとかあんまりないんじゃないかな
逆もしかり いつもLoRAで半日かけて30000ステップぐらい回してるけどやり過ぎなのか ゴンさんが苦手と聞いてやってみたけど確かにまっすぐな髪って簡単には出せないのかも
https://i.imgur.com/3TakLnq.png >>375
用途によってはそれの20分の1でも良い 自分で作ったPNG画像から埋め込み情報取り出したら同じ絵になるものよね? 微妙に違うとかいうレベルじゃなくまったく違う絵になるんだけど何でかな? >>350
エクセルで読み込んで編集できる。
そこで記入もできる。 >>380
モデルによる
NAIがCLIP2から学習させるという特殊方式で学習したので、NAIが元になっているモデルは基本的にCLIP2のほうが望んだ結果が出やすい
ただ、そもそもの公式SDはCLIP1からなので、CLIP1のほうが公式SDの遺伝子が出やすい、また実写系はCLIP1が多い
けど、最近のモデルは両方混ざっているので実写系モデルもCLIP2のほうがコスプレ感とか出やすかったりもする
結論、モデルによる ■ このスレッドは過去ログ倉庫に格納されています