【StableDiffusion】AIエロ画像情報交換14【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ2023/02/19(日) 21:15:59.52ID:mgRCy8vB
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換13【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1675638288/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術14【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1676588159/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
0283...φ(・ω・`c⌒っ2023/02/21(火) 13:08:16.17ID:fS02l1R3
2080SでせっせとLoRAってる私みたいな人もいるんですよ
0284...φ(・ω・`c⌒っ2023/02/21(火) 13:13:59.50ID:RWTCuzQ4
2060と3060の生成速度差が大したこと無いなら2060でも良さそうな気はするな
20xxと30xx以降は生成される絵に違いが出るって情報があったと思うけど
自分が確認した限りでは2070と4090で生成される絵は同じだった
0285...φ(・ω・`c⌒っ2023/02/21(火) 13:14:06.50ID:vNvmIqoX
LoRAでテキストエンコーダとUNet同時に動かす前にTextural Inversionかけてる人おらんか?
0286...φ(・ω・`c⌒っ2023/02/21(火) 13:16:18.70ID:iO+i/BhQ
>>250
3年経ったらAI画像作成の世界ってどうなってるんだろ?

この半年くらいの流れからすると想像もつかないな。
ある程度のところに達したら進歩速度鈍るのかもしれないけれども。
0289...φ(・ω・`c⌒っ2023/02/21(火) 13:29:18.24ID:vNvmIqoX
>>282
回答じゃないけど、それは根本的な解決法はないから何かの対処療法でなんとかするしかない
元のモデルが過学習してて顔の表情とエロ衣装を分離できてない
表情で済めばいいほうで、たとえばLoRA適用中に(LoRA訓練にスク水が無かったとして)スク水適用したら、元のモデルが過学習しててスク水成分が絵柄成分持ってて顔の絵柄ががらっと変わるとかもこれ
0290...φ(・ω・`c⌒っ2023/02/21(火) 13:29:26.54ID:RWTCuzQ4
>>287
何に対して言ってるのか分からんけど
2060と3060の差なら自分は持ってないから知らんし
2070と4090は自分で5枚くらい確認して差がなかったよ
↓でも差はなさそうだし、なんなら4090同士でも違っちゃってるし訳わからん
https://seesaawiki.jp/nai_ch/d/GPU%A4%CB%A4%E8%A4%EB%C0%B8%C0%AE%BA%B9%B0%DB%A4%CE%B8%A1%BE%DA

3060って【安いのに12GB積んでるから他製品より相対的にお得】って理由で勧められてると思ってたんだけど
より安い2060が非難されるのはなぜなのか知りたい
自分は20xxと30xxで生成される絵が変わるからなのかな?と思っただけだよ
0291...φ(・ω・`c⌒っ2023/02/21(火) 13:34:01.52ID:vNvmIqoX
>>290
2060が高いからだよ
1万なら訓練中の推論サブとして買う
以上
0292...φ(・ω・`c⌒っ2023/02/21(火) 13:34:03.70ID:32hBmayb
>>288
3060買ったばかりだけど、それぐらいの差なら2060でも良かったな
放置してガチャ回すような使い方だから
0293...φ(・ω・`c⌒っ2023/02/21(火) 13:37:26.83ID:vNvmIqoX
ちょっと自信ないんだけどCUDAコア数が1.5倍ぐらい違うのに計算時間が1割しか変わらないってことは推論はメモリ帯域にとらわれてんだろうけど、訓練時のベンチはないわけ?
推論は基本的に拡散計算だけだけど、訓練時はそれに加えて勾配計算が加わるからメモリ帯域が枷になる率が減るはずなんだけど
とはいえベンチしないと断言できないが
0294...φ(・ω・`c⌒っ2023/02/21(火) 13:39:11.73ID:6GN45/mC
>>289
やっぱりそんな感じの状態だよなあ
AOM3は表情や漫符が衣装や仕草に付随してくるからめちゃくちゃ使いにくいな
0295...φ(・ω・`c⌒っ2023/02/21(火) 13:42:01.23ID:SGEQjVdD
生成速度の問題だけじゃないのに何故わからないのか
もはや荒らしだなぁ
0296...φ(・ω・`c⌒っ2023/02/21(火) 13:42:46.07ID:70lkEgOD
2060君はアスペ
0297...φ(・ω・`c⌒っ2023/02/21(火) 13:44:02.35ID:RWTCuzQ4
>>295
だからそれを書いてくれれば一発で終わる話だと思うんだけど
自分が見落としてるだけならすまん
2060と3060の差ってなんなんだ?
0298...φ(・ω・`c⌒っ2023/02/21(火) 13:44:14.12ID:gweD2Tav
まあスレ違い気味だからハードは別スレで
0299...φ(・ω・`c⌒っ2023/02/21(火) 13:45:37.13ID:jpt4ILkN
2060と3060の違いは色々あるけど
dlss3じゃねえか?
0300...φ(・ω・`c⌒っ2023/02/21(火) 13:47:18.41ID:jhtD1K8s
公平な目で見たら2060否定派は理由を示せてないな
理由書いたらいいじゃん
0301...φ(・ω・`c⌒っ2023/02/21(火) 13:48:34.29ID:vNvmIqoX
>>294
恐らく界隈で過学習率が少ない(と作者が主張してる)ACertaintyですらド変態系プロンプト追加してくとアヘ顔成分つけてくれて、その時LoRA顔の表情どころか絵柄ががらっと安っぽくなるからなあ
AOM3はAnything系だからより酷いだろうなとは思う

あとあんま自信ないけどマージを重ねてくと、同じプロンプトで刺激されたUNetが表す成分が複数になったりして状況が酷くなってくのか?と想像してる
AOM3はAOM2よりさらにマージ量増えたから
0303...φ(・ω・`c⌒っ2023/02/21(火) 13:55:08.68ID:Nr9cuedp
2060 12Gは確かに一考の余地はあるが
ここにいる人はもっと良いもの持ってるし
買い替えなら一気に4090いきかねないから
ここで騒ぐ意味はあまりない
0304...φ(・ω・`c⌒っ2023/02/21(火) 13:59:47.88ID:dswJQjgP
>>288
RX6800だけど実は3060と大して生成速度の差はなかった?
できることが少なくて色々不自由ではあるけど
0305...φ(・ω・`c⌒っ2023/02/21(火) 14:04:44.06ID:GKhGXdOz
性能もソフトのチューニングが大きいから一概には言えないね
来週どうなってるか分からん
0306...φ(・ω・`c⌒っ2023/02/21(火) 14:07:22.45ID:ek5p317i
なんかゲフォ論争が終息しそうにないな
一般的な社会人であれば4090買っとけばいいだろ
家族持ちやニート、学生はAIDrawingの趣味を持つ前にもっとするべきことあるだろってことで集結でいいだろ。
0308...φ(・ω・`c⌒っ2023/02/21(火) 14:13:40.64ID:6GN45/mC
>>301
細かいゴミが蓄積している感じか
こりゃ対処療法で何とかしながら偉い人が解決してくれるのを待つしかないな
0309...φ(・ω・`c⌒っ2023/02/21(火) 14:13:48.47ID:SGEQjVdD
>>297
スレチなのでここまでにしとくが、一番身近なとこだとLoRAの学習速度で大きな差が出る
わざわざvram12を推しておいて、そこの差を無視するのはダメでしょ
対応してるCUDAのバージョンが低いせいで高速化できない
そもそも3000/4000シリーズとアーキティクチャが違うから、今後TensorRTのアップデートでも蹴り落される可能性も非常に高い
AIという最新技術の使用にあたって、たかが1万円の違いで『前世代』の機器を新規購入するのはとにかくリスキーなんだよ

今の環境だけで使えても意味はない
逆に今だけでいいから安いのがいいってんならもっと下のグラボをすすめるわ
以上 おわり!
0312...φ(・ω・`c⌒っ2023/02/21(火) 14:24:06.64ID:jhtD1K8s
3060も前世代で草
4070Tiがキレるぞ
0313...φ(・ω・`c⌒っ2023/02/21(火) 14:25:19.71ID:RY/r53d2
大雑把にグラボに+αを求めるなら

ゲームしない→2060
一般的なゲームFHD→3060 12GB以上
最新のゲームFHD or WQHD→4070ti(4070 16GBモデルも)
最新のゲーム4K→4090

趣味で25〜30万のものを買うのは別に悪い事じゃないんだけどね
それでも必要じゃないからローやミドルでもいいやって人を4090で煽るのはどうかと思う

4090煽りの末期がいるスレ もはや病気の類だよ?
[AdaLovelace]NVIDIA GeForce RTX40XX総合 Part132
https://egg.5ch.net/test/read.cgi/jisaku/1676804849/
0314...φ(・ω・`c⌒っ2023/02/21(火) 14:25:43.53ID:ZSq2+/9U
ネットで実写のパンチラ画像を見てムラムラ来たのでググったらAV女優だったんだが、動画みたらなんか逆にシュンとしてしまった
動画が必ずしも画像に勝てるわけじゃないんだよな
0315...φ(・ω・`c⌒っ2023/02/21(火) 14:27:40.32ID:IHUJ3qz5
昨日インストールして始めました既出の話だっらすみません、txt2imgの作成してる時プレビュー画面で最初の構図はいい感じなのに80%超えたあたりで構図が崩壊するんですが、そう言うものなんでしょうか?
0316...φ(・ω・`c⌒っ2023/02/21(火) 14:33:41.69ID:6GN45/mC
>>314
見えそうで見えない>ちょっと見えたラッキー!>丸見え

俺の中ではこんな感じの価値だわ
0317...φ(・ω・`c⌒っ2023/02/21(火) 14:39:01.67ID:dswJQjgP
>>314
リアルAVは写真詐欺だらけだしね
実写動画はなんかエロさが全然足りない上に実際の顔も微妙で抜くどころか真顔になる
個人的には現状エロ漫画が頂点だなぁ
0318...φ(・ω・`c⌒っ2023/02/21(火) 14:40:58.36ID:jnDREdRG
今日もまた理想のロリ巨乳を求める帰路なき旅が始まる
0319...φ(・ω・`c⌒っ2023/02/21(火) 14:42:08.72ID:5pCLhcOu
素人特有の生々しい動画好き
ああいうハメ撮り画質を狙って出すにはどうしたらいいんだろうか
Basilのvaeなしで生成するといい感じにボヤけるんだけどちょっと違うんだよな
あと暗い部屋が全然出せなくてモヤる
0320...φ(・ω・`c⌒っ2023/02/21(火) 14:43:04.40ID:dswJQjgP
真顔で思い出したけど無表情にするためにexpressionlessって入れてみたけどAOM3くん無視してくるね
ちょっと開脚くぱぁして白い液体垂らしただけなのに・・・
0321...φ(・ω・`c⌒っ2023/02/21(火) 14:48:06.82ID:x37EKH/s
huggingfaceのこれトロイ検出したんだけどクリーンなのどこです
SHA256 basil_mix.ckpt
bbf07e3a1c3482c138d096f7dcdb4581a2aa573b74a68ba0906c7b657942f1c2
0322...φ(・ω・`c⌒っ2023/02/21(火) 14:52:39.81ID:Z+bRbATf
ckpt使ってる時点でトロイに文句言えねえんだわ
0323...φ(・ω・`c⌒っ2023/02/21(火) 15:10:32.86ID:zT33gjHN
素人考えでckptってデータ集みたいなもんだと思ってたけど、実はプラグインみたいな感じだったのか?
0324...φ(・ω・`c⌒っ2023/02/21(火) 15:11:48.79ID:ek5p317i
拡張子がsafeなんちゃらが比較的ウイルスを混入しにくいらしいから、そっち入れるんだな
原理は知らん
誰か教えてくんなまし
0325...φ(・ω・`c⌒っ2023/02/21(火) 15:14:06.33ID:ek5p317i
>>315
それhireなんちゃらにチェック入れてるだろ
denoise?みてーなところを下げな
0326...φ(・ω・`c⌒っ2023/02/21(火) 15:18:15.13ID:JbiVcde5
>>302
> TensorRTサポート

2060はTensorRTを使えないんだ。3060にしておいてよかった
あれも早いとこ1111で使えるようになってほしい
画像生成が2倍ちょっと早くなるからね
0327...φ(・ω・`c⌒っ2023/02/21(火) 15:30:13.02ID:IHUJ3qz5
>>325
こんな所チェック入れたら覚えないんだけど、原因がわかって助かったよ、ありがとう。
0328...φ(・ω・`c⌒っ2023/02/21(火) 15:32:37.39ID:Dqwphc2s
>>313
キ〇ガイスレやな
お前含めてw
0329...φ(・ω・`c⌒っ2023/02/21(火) 15:50:04.62ID:5TCtTmFW
3070tiなんて買うんじゃなかった
もっとメモリマシマシなの買っておけば。。。
0330...φ(・ω・`c⌒っ2023/02/21(火) 16:40:17.66ID:zdA4yd7c
無限にアイコラ作れるの笑う
チンコもたねえ
0331...φ(・ω・`c⌒っ2023/02/21(火) 17:13:52.96ID:FhjQnr0E
まだ先の話だけど4070 16GBの噂が出てきたな、本当に出たらAI用だ
0332...φ(・ω・`c⌒っ2023/02/21(火) 17:16:33.59ID:SGEQjVdD
で、NAIちゃんのアプデって何が変わったんでしょう
誰か使用者いたら情報欲しいです
0333...φ(・ω・`c⌒っ2023/02/21(火) 17:19:54.04ID:ioJpqbbk
とりあえず大きい絵が出せるようになったって報告はあるね
0334...φ(・ω・`c⌒っ2023/02/21(火) 17:28:18.62ID:b9eW17Mj
AIて逆さ向き苦手なんかな?
0335...φ(・ω・`c⌒っ2023/02/21(火) 17:28:43.23ID:HK9B61E3
>288
4090 WSL2 環境 torch2.0+cu118
xFormers 0.017
Batch size 20 で 45 it/s 出ました
現状この辺が限界?
0336...φ(・ω・`c⌒っ2023/02/21(火) 17:29:01.71ID:ek5p317i
>>334
そういうときこそcontrolnetでしょーがよー
0338...φ(・ω・`c⌒っ2023/02/21(火) 17:40:56.27ID:SGEQjVdD
>>334
学習してないからねぇ
ほぼ100%クリーチャーになる
0339...φ(・ω・`c⌒っ2023/02/21(火) 17:42:05.69ID:JbiVcde5
>>326に自己レス

> 751 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cdf7-7PCk)[sage] 投稿日:2023/02/21(火) 11:27:22.40 ID:4mJQJFyu0
> WEBUIのTensorRT対応はissueは立ってるけどここのところ動きなしなんやな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7345

> 制限が色々つくみたいなことも書いてあって、WEBUI対応は結構時間かかるかも分からんね

https://fate.5ch.net/test/read.cgi/liveuranus/1676865326/751

ショボーン
0340...φ(・ω・`c⌒っ2023/02/21(火) 17:55:50.43ID:d0w0sMTD
バッチでアップスケーリングするとjpgとpng,2種類作成されるけどpngだけ出力させる方法あります?
0341...φ(・ω・`c⌒っ2023/02/21(火) 18:03:21.51ID:vDUdhGTw
>>340
settingにあるけどどこだか忘れた
pngがどうたらとか書いてあるからすぐわかると思う
0342...φ(・ω・`c⌒っ2023/02/21(火) 18:24:27.01ID:b9eW17Mj
>>336 337 338
Control netもimg2imgでつかうくらいかな(depthのみ)

OpnePoseEditorも今の所四肢の交差しない全身の立ち絵ポーズくらいで使えるくらいかなと。
0343...φ(・ω・`c⌒っ2023/02/21(火) 19:19:48.55ID:6GN45/mC
顔傾けるだけでも水平になったあたりからクリーチャー化するよね
0344...φ(・ω・`c⌒っ2023/02/21(火) 19:28:18.83ID:j90v042a
AI画像生成って、本質的に「絵師が良く描くような絵ほど(学習データが多くて)上手い」もんだしな
逆さまになってる絵とかマンガとかなら探せば結構あるかもだけど、綺麗なCGの一枚絵では学習データ少ないだろうしな
逆さまだと髪型ごとにも表現変わってくるし
0345...φ(・ω・`c⌒っ2023/02/21(火) 19:32:54.62ID:e9PwPg1w
触手とかモンスターに足掴まれて逆さ吊りにされてるようなやつ一回描かせようとしたけど結局出来なかったわ
0346...φ(・ω・`c⌒っ2023/02/21(火) 19:33:47.46ID:6GN45/mC
だからたぶんガイルとか覚醒ゴンさんみたいな髪型も苦手なんだろうな
ガイルとゴンさん本人ぐらいは有名だから描けるかもしれんが
0347...φ(・ω・`c⌒っ2023/02/21(火) 19:34:03.59ID:dswJQjgP
男の娘も良い感じに作ってくれない印象ある
耽美な顔したムキムキボディの少年かふたなりになりがち
0349...φ(・ω・`c⌒っ2023/02/21(火) 19:56:12.62ID:JbiVcde5
>>340
「画像/グリッドの保存」の一番下にある「If the saved image file size is above the limit, or its either width or height are above the limit, save a downscaled copy as JPG」
をオフにすると、その下の「If the saved image file size is above the limit, or its either width or height are above the limit, save a downscaled copy as JPG」や
「Width/height limit for the above option, in pixels」を画像のファイルサイズやピクセル数が上回ってもダウンスケールのjpg保存はされなくなるはず
0350...φ(・ω・`c⌒っ2023/02/21(火) 20:05:43.33ID:6GN45/mC
増えすぎたstylesを整理したいんだけど
stykes.csvを編集するしか方法がない感じ?
0351...φ(・ω・`c⌒っ2023/02/21(火) 20:23:24.70ID:dxzUJp4y
Kohya版LoRA WebUI 簡単スタンドアローンセットアップ(仮版)
https://note.com/uunin/n/n3f09b93df575

人によってはエラー出る可能性もあってわからんので、ヒマあったら誰か試してみて欲しい
世間の流行りはpopup版なんだが、お手軽にやってみたい人向けってことで

なんUとマルチになって申し訳ないが、オレそもそもこっちの住人なので許してねん🤗
0352...φ(・ω・`c⌒っ2023/02/21(火) 21:22:21.64ID:SGEQjVdD
NAIのアプデってサンプラーだけかー
モデルが変わらないんじゃあなぁ
0353...φ(・ω・`c⌒っ2023/02/21(火) 21:42:17.35ID:vNvmIqoX
新参だからTextual Inversionが新鮮に感じる
理想的にはプロンプト詰めればここまで元の絵師の画風捉えられるんだな
まずこれやってからUNet含めたLoRAやってどこまでいけるか試そう
要するにPivotal Tuningみたいなものだけどなぜか考察例ほとんどないってことはあんま良くないのかね
埋め込み語の初期ベクトル決められるから、学習率わざと下げて特徴捉えさせたいところ指定するとかできねえかな
0354...φ(・ω・`c⌒っ2023/02/21(火) 22:54:36.95ID:ZLkgvEBl
画像のサイズ大きくすると人増えたりおばけになったりしちゃうんだがなんで?
大体1280*720くらい超えるとまともな絵にならない
0355...φ(・ω・`c⌒っ2023/02/21(火) 22:54:54.31ID:ZLkgvEBl
画像のサイズ大きくすると人増えたりおばけになったりしちゃうんだがなんで?
大体1280*720くらい超えるとまともな絵にならない
0356...φ(・ω・`c⌒っ2023/02/21(火) 23:23:28.20ID:qKX1bQWt
あれ、civitaiから減ってね?
アヘ顔とかあからさまに精子描写があったやつなくなってないか?
0357...φ(・ω・`c⌒っ2023/02/21(火) 23:31:05.47ID:n/fcGiKw
フィルターがsafeになってるだけだから戻すよろし
0358...φ(・ω・`c⌒っ2023/02/21(火) 23:42:49.12ID:FpSEJcTT
>>354
512とかでべんきょーしてるからおおきいのにがてだとかきいた
はいれぞであっぷすけーるしてごまかせ
0359...φ(・ω・`c⌒っ2023/02/21(火) 23:45:23.85ID:qKX1bQWt
あれ、civitaiから減ってね?
アヘ顔とかあからさまに精子描写があったやつなくなってないか?
0360...φ(・ω・`c⌒っ2023/02/21(火) 23:46:09.74ID:qKX1bQWt
>>357
>>359
ごめん、連投しちゃった
ありがとうございます、そのとおりでした
0361...φ(・ω・`c⌒っ2023/02/21(火) 23:56:54.47ID:vajhsqJh
>>359
非表示になってるのが多いから履歴にURL残ってれば落とせるよ
削除されてると404になるからあきらめるか、モデル番号で総当たりすると結構やばいやつもごろごろしてて笑えるけど
もう11000超えてるから表示されてない連番閲覧ツールとかない人は大変かも
好きな投稿者のフォローしておくと新作通知が来て、非表示でもアクセスできる機能もある
昨日あたりからアップチェックが人の目でやるようになったと感じるくらいまとめて更新されるようになったね
0363252023/02/22(水) 01:04:54.85ID:jo0GNBqt
>>29さん、>>31さん、>>37さん、>>39さん
貴重な情報ありがとうございます
特に>>29さんから頂いたVAEのご指摘と、>>31さんから提案頂いたプロンプトで出力される絵がとても改善されました!
本当にありがとうございます

・今回出力された画像例
http://ero-gazou-uploader.x0.com/image.php?id=24850

・プロンプト
masterpiece, best quality,masterpiece, best quality, (animated:1.3), full body of woman, mature, 30 years old,
brown medium hair, (delicate beautiful face:1.2), smile, closed mouth,
human hands, large breasts, high heels, simple white background, dress shirt,
black pants, extremely beautiful detailed anime face and eyes,

Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality,
low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name,(worst quality:1.4), (low quality:1.4) , (monochrome:1.1),
Steps: 30, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 29781380, Size: 512x950, Model hash: abcaf14e5a

続けて質問する形で申し訳ないのですが
ControlNetなのですが、こちらは画像を出力する際に、背景を出力しない(背景は白や灰色の単色)方法ってありますでしょうか?
背景のなしと思われるプロンプトを入力しても背景がどうしても出てしまいます
モデルによってプロンプトが変わるのかもしれませんが何かヒントを頂けると幸いです

・ControlNetにて出力された画像例
http://ero-gazou-uploader.x0.com/image.php?id=24852

・プロンプト
同上
0364...φ(・ω・`c⌒っ2023/02/22(水) 03:10:25.42ID:QU0M5qwx
画風覚えさせるためにTextual Inversionをキャプション付きでやってるけど
キャプションで記述してるような覚えて欲しくない要素(猫耳とかオッドアイとか)も習得してしまうな
ベクトルサイズ小さくする手もあるけど、それで本当にいらない要素じゃなくて画風が選ばれるのか全く保証ないね
学習中にキャプションにある単語ベクトルとの距離を正則化項にするとかやったらうまくいくか?
0365...φ(・ω・`c⌒っ2023/02/22(水) 03:14:32.03ID:QU0M5qwx
あと、訓練画像に低画質の混じってるんだが、学習ステップ数増やしたら何故かそれまで再現するようになりやがった
信じられないけど低画質感を再現するプロンプトがあるってことだよな?
「lowres」成分を学習したのかも

Textual Inversion、流行ってない感あるけどLoRAと相反する概念ではないのでもっと探求が進むべき
0366...φ(・ω・`c⌒っ2023/02/22(水) 04:56:52.87ID:vZ6tSXjT
はじめてLora作ってみたんだけど(60枚で100回回し?の6000)学習元が全部同じ衣装だったせいか
それが強すぎて使ってみてもその衣装でしか出てこなくなった…
ディープフェイクみたいに顔だけ欲しい場合は顔だけトリミングした画像を学習させた方がいいの?
0367...φ(・ω・`c⌒っ2023/02/22(水) 05:31:24.83ID:nBewq57F
無表情アナル拡張に成功した!
AbyssOrangeMix2_hardベースで

プロンプト
no facial features,(cold expression:1.4), (v-shaped_eyebrows:1.2), clothed mouth
ネガティブ
(blush,embarrassed,ahegao,smile,:/,😐:1.5)

ハードな内容になるとさすがに表情変えてくるけど
大股開きやアナル拡張ぐらいのちょっと恥ずかしい格好なら
キリっとした無表情で淡々とこなしてくれるぜ同士たちよ
0368...φ(・ω・`c⌒っ2023/02/22(水) 06:09:42.37ID:QU0M5qwx
>>366
生首は一つの手ではある
あともしかしたらだけどLoRA適用時にtext encoder部分の強度弱めたら服装変えられるようになったりしない?
ちなみにDB方式?それとも丁寧なキャプションとタグつけた?
0369...φ(・ω・`c⌒っ2023/02/22(水) 07:34:12.03ID:qXkUr0p7
cinnamon_mixとかrealistic_Visionのfixがついたモデルとついてないモデルの違いは何…?
0370...φ(・ω・`c⌒っ2023/02/22(水) 08:28:33.35ID:8PDJZcRo
>>366
顔だけだったら600stepくらいでもかなり近いの出てくる
回しすぎなんじゃないか
0371...φ(・ω・`c⌒っ2023/02/22(水) 09:15:39.32ID:QU0M5qwx
まずText Inversionでin the style of ***で画風を覚えさせて、次に
UnetだけLoRAする方法やってみたよ
埋め込み語のほうに明らかに過学習(髪色とか髪型とか)入ってるけどプロンプトで制御可能なレベル
片方だけ適用してみるとそれぞれがどういう特徴を覚えてるのかが分かって面白い
UNetだけだとこぎれいだけど魂が無いって感じ
テキストエンコーダだけだと特徴捉えてるけど細部が違う
みたいな
テキストエンコーダが過学習すると子供が描いたような特徴は分かるけど下手、みたいなのになる
概ね予想通り
訓練画像に多く居たキャラが頻発するけど、テキストエンコーダ切ればそれもなくなる
これも予想通り
埋め込み語のベクトル数が多めなのでプロンプトではmasterpieceとか使わないことにした
この方法でやれば対象絵師の画風をとりいれつつオリジナルな構図に持ってける気がする
少数枚数でのLoRAは結局過学習との戦いに終始することになるからこの方向で突き詰めるつもり
単体LoRAで過学習に悩んでる人も、UNetとテキストエンコーダどっちを弱めるか、とかの参考になると思う
0372...φ(・ω・`c⌒っ2023/02/22(水) 09:17:15.87ID:QU0M5qwx
>>367
embarrassed多用する俺からするとこれがネガティブに入ってるのめちゃくちゃ違和感あるんだがw
どうやら相容れないようだ
0373...φ(・ω・`c⌒っ2023/02/22(水) 09:20:26.61ID:jwGolw+/
embarrassed入れると勝手にblush入るしな

しかしSDやらなきゃembarrassedという単語を
暗記することはなかっただろうな
0374...φ(・ω・`c⌒っ2023/02/22(水) 09:22:04.29ID:QU0M5qwx
あとテキストエンコーダはステップ回してくと最初に顔を学習するって傾向は何度も見た
テキストエンコーダ側だといくらやってもnudeにしたときの体のタッチが顔と一致しない
UNet回せばすぐに体もある程度学習する
たぶん学習元のキャプションに体の表現タッチとかあんまりないんじゃないかな
逆もしかり
0375...φ(・ω・`c⌒っ2023/02/22(水) 09:22:10.87ID:jwGolw+/
いつもLoRAで半日かけて30000ステップぐらい回してるけどやり過ぎなのか
0378...φ(・ω・`c⌒っ2023/02/22(水) 09:49:50.96ID:1AOCQ4Nv
自分で作ったPNG画像から埋め込み情報取り出したら同じ絵になるものよね? 微妙に違うとかいうレベルじゃなくまったく違う絵になるんだけど何でかな?
0379...φ(・ω・`c⌒っ2023/02/22(水) 10:24:25.86ID:rjqEhWbY
モデルかClip skip値が違うパターンが多い
0380...φ(・ω・`c⌒っ2023/02/22(水) 10:50:33.47ID:Lg9B/kMv
clip skipって1と2で何が違うの?
0381...φ(・ω・`c⌒っ2023/02/22(水) 11:01:21.37ID:IYgz2vMf
>>350
エクセルで読み込んで編集できる。
そこで記入もできる。
0382...φ(・ω・`c⌒っ2023/02/22(水) 11:21:03.87ID:S8Zceb8s
>>380
モデルによる
NAIがCLIP2から学習させるという特殊方式で学習したので、NAIが元になっているモデルは基本的にCLIP2のほうが望んだ結果が出やすい
ただ、そもそもの公式SDはCLIP1からなので、CLIP1のほうが公式SDの遺伝子が出やすい、また実写系はCLIP1が多い
けど、最近のモデルは両方混ざっているので実写系モデルもCLIP2のほうがコスプレ感とか出やすかったりもする

結論、モデルによる
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況