【NovelAI】AIエロ画像情報交換 11【Waifu】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可
児ポはダメゼッタイ
前スレ
【NovelAI】AIエロ画像情報交換 10【Waifu】
https://mercury.bbspink.com/test/read.cgi/erocg/1671543900/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1669278997/
AI画像生成の是非や、イラストレーターの権利、法的な解釈、漠然とした未来像に対する討論はこちらで
【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1668016418/
次スレは>>980が立ててください >>92 ニキを真似て試しにDBしようとしたらエラー吐いて草
グラボはVRAM12GBのRTX3060だから最低条件は満たしてるはずだけどやっぱきついんか
https://i.imgur.com/i3HQ61s.png >>372
やはりvramは最低16 GB
24 GB 以上が理想か >>362
考える頭があるんなら自分で描けるはずだからあんまかっこつけたこと言うな 呪文は同じでも効果は千差万別
実に面白いね
工夫のし甲斐があるというもの 2次元はエロゲCGのが構図が優れてて良いと言ってた人がいたけど
そのエロゲCGをi2iして3次元モデル使うと
とてもスレには貼れない非あうろりが量産出来てしまう事に気付いた >>372
NMKDのDBは24GBないと動かない上に速度もクソ遅い
Dreambooth Gui使えば12GBでも十分やれるよ
https://gigazine.net/news/20221103-dreambooth-gui/ NMKDの利点は導入の簡単さとRadeon 6xxxシリーズ対応くらいであとは使えん つか、NMKDは1111に比べると画像からプロンプト読んだりVAEを変えまくれたりi2iでもスケールアップ出来たり便利なのは良いんだけど
i2iでVAE当てても色がセピアになったりt2iでは細部描画が下手だったりして、フォトショなり何なりレタッチソフトと組み合わせて使わないとイマイチ Better VAEといいつつ出力かなり変わってるし実際は新モデルかな?
一方で試しに新モデルで急VAE指定して出してもなんも変わらないように見える ありがとう
vaeはほとんど試さずにひとつを使い回してたから
今夜いろいろ試してみようかな vaeファイルが増えたわけじゃなくてモデルファイルが増えた形だね
vaeとして読もうとしたら失敗したので他では使えない?<無知
せっかくついさっき旧Anyで上げたのがあるわけだし、BetterVAE(vae auto)で出したのも上げてみたよ
旧:https://majinai.art/i/jgkT9xH
新:https://majinai.art/i/KpJIn39 わーい♪ nice bloomer!
でも言ってるように発色の違いはよくわからんね >>381
1111でプロンプト読むのはextraタブに画像を突っ込めば良い
vaeを変えまくるのは↓こーいう設定がある
https://note.com/uunin/n/n715256399038#25266864-ba79-4ab3-ba89-bab4651a7897
https://dskjal.com/deeplearning/automatic1111.html#quick-settings
i2iでスケールアップは普通にできるくない?
BetterVAEは使っとらんが
素のAnything_v3ではNAIのvae使わんと発色が悪くなる仕様を修正したやつだろう
naiのvae使ってるなら別に要らん
使うにしてもvaeの設定をautoにしないと無意味 >>389
そうかなとも思うんだが上に上げた通り画像自体だいぶ変わるんだよね
今後の研究が待たれる
ちなみにクイックセッティングは
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
ってやるとClip skipの1と2も気楽に試せてオススメよ 別途VAEを用意せずに使うもんじゃないんか・・・? >>390
anythingv3のモデルはどれ使ってるん?
2.16GB Anything-V3.0-pruned-fp16
3.27GB Anything-V3.0-pruned
4.27GB Anything-V3.0-pruned-fp32
7.70GB Anything-V3.0(not pruned)
これ全部でてくる絵違うからね
betterVaeはサイズ的にfp32と同じだけどたぶん君7.7GBの通常Anything使ってるんちゃう? >>393
マジですか・・・適当なこと言って大変申し訳無い
指摘ありがとう >>386
autoはシンボリックリンクとか使う人向けの古い互換性のやつだぬん
いまはVAEフォルダにファイル突っ込んで、QuickSettingに sd_vae を入れて切り替えるように改良された
AUTOMATIC1111最新環境なら.vae.ptにリネームの必要もなく.ckpt や .safetensors がそのまま使える
Real: SD1.4/1.5系/vae-ft-mse-840000-ema-pruned.ckpt
https://huggingface.co/stabilityai/sd-vae-ft-mse
Anime:
NAILeek/Anything-v3ほかNAI派生やマージモデルで色が褪せてる時はほぼ必須(2Dモデルはほとんどこれのコピー)
Anything-V3.0.vae.pt
https://huggingface.co/Linaqruf/anything-v3.0/tree/main
WD系/kl-f8-anime.ckpt/kl-f8-anime2.ckpt
https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
trinart/autoencoder_fix_kl-f8-trinart_characters.ckpt
(2022.11.06あたりで古いものはSDの物だったということが発覚して差し替えられた)
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/tree/main ざっくり過去スレ見てきたけど
みんなモデルや出したい絵によってvae使い分けてるの凄いな
俺なんか特別に指定されてるモデル以外はnai 無双してたわ >>395
すごい!wiki並の解説ありがとうございます!
今夜vae試すって書き込んだけど思ってたより数が多くてどうしようかなと困ってたところでした!
速攻で仕事終わらせて帰宅するで〜 >>394
そのレス見る限りでは通常Anything使ってたんかなと感じたけど
俺はアレコレ言いつつ今試せる環境にないから可能性を挙げてるだけで全然関係ないかもしれない
とりあえず試して情報共有してるやつが一番えらいと思う
念のためprunedとFPxxについて簡単な説明↓
https://fls.hatenablog.com/entry/2022/11/13/203753#pruned%E3%81%A8%E3%81%AF >>398
自分が使ってたのはAnything-V3.0-pruned.ckptだった
で、念のため5種全部ckptでそろえて4seedほどplotして確認してみた
btter-vaeはもとのV3.0.ckpt、およびfp32..ckptとほぼ一致してる
一方自分が使ってたpruned.ckptはfp16.ckptとほぼ一致してる
better-vaeのvaeに直接旧vaeを指定しても絵は変わらないことからも
指摘された通りfp32にvaeを内蔵したものということでよさそう
解説リンクもありがとう >>397
vaeフォルダにまとめて5つ以上あるなら手軽なチェックサムでMD5やSHAあたり取ってみると同じファイルが見つかると思うよ
7zとかインストールしてあれば比較的簡単に調べられる
エクスプローラーの右クリに入れておけば簡単。めったに使わんけど ブルマはそのままbloomersで良かったんや
できればシャツの淵も青くしたい
http://ero-gazou-uploader.x0.com/image/24432.png
なおシャツの文字がERO >>401
些末事だけどNegativeの kimono と bad_prompt の間の"."は","の誤記やろな NAIがタグ盛りじゃないといい感じの絵が出なかったので、その時にすすめられたプロンプトだろ?
Anything、Elysiumと何もしなくても美麗な表現をするモデルにおいては邪魔してるだけじゃないかと思う………。
だがgrayscale、monochrome、ロゴやサイン類は許さん! >>404
手元ではこいつの勝率が高そうやった。ただ、白でないことも多い
student training wear,navy blue gym bloomer,
こっちは白率高いけど、Tシャツ成分強くて絵が入る
japanese school gym t-shirt,navy blue gym bloomer,
いたしかゆしー >>354-356
フルHDで出せたわありがとう
色々いじって分かったけど 解像度が高い=使用VRAMが多い とは限らないんだな
横を512で固定して縦832とたて960で試したら960の方が使用VRAMが4GBくらい少ない
こんな落とし穴があるなんて気づかなかった
VRAMの使用量がどうやって決まるのか法則が全然分からない >>406
起動オプションや環境によるけど、VRAMは分割や解放&リサイクルを繰り返すから
使用VRAMはあくまで測定時のものだと思う
medvramやlowvramはそのあたりの占有を減らして必要なものだけメモリに置こうっていうものだしね 昔貝合わせ無理ってあったと思うけど
偶然出来た
陰部摩擦とマッチングで
((Pudendal rubbing)), ((mating)),
http://ero-gazou-uploader.x0.com/image.php?id=24434
あんなに頑張っても無理だったのに一瞬のひらめきだけで、、 >>406
内部処理的には一応32の倍数が都合がいいことになってる
ただ4GBもの差になるかは不明だからほかにも理由あるかもね >>406
下がるんじゃなくて分割されて減ってる
速度も実際落ちてる >>274
>>273
韓国語でヒントかいてあるんですけど、直訳すると 非番のときに人類えをどう名付けるで 一応はっておきますね。英語でローマ字以外で
変態紳士とかそんな感じです。ピクシブの作品みても艦これくらいしかなく赤城を英語でやってみましたが駄目でした
비번은 어떻게 사람 이름이?
하면 생각나는 분 성함 석자를 영어로 따라치면됨
(로마자 표기말고 걍 자판에 해당되는 부분)
一行でかかれてますけど改行してます。 短縮も貼っておきますけど ダウンロードの仕方を聞いただけで
消えろですよ。ここのがやさしいです
onl.tw/1yvk3f1 まぁそのなんというか…欲しいのはわかるけど暗黙の了解というかグレーゾーンだから
わざわざパスかけてあるってところでクレクレ言えば日本だって叩かれるわ。まぁ程々に
https://mega.nz/folder/sSACBAgC#kNiPVzRwnuzs8JClovS1Tw/file/0fgymRiQ AUTOMATIC1111の更新ついでで重い腰を上げてxformersを有効化してみた。
実行中は確かにVRAMの使用量が減ってるし、えらく高速化もされているのだけど、最後の最後にVRAM使用量が跳ね上がってCUDA out of memoryになるからでかいサイズが出せるようになるわけではないんな。
3060 12GBでhighres.fix 1696x1696くらいが限界だった。
https://i.imgur.com/S5t39fz.png
--no-half-vae外してfp16モデル使えばもっと行けるかも。
でもまあ、えらく高速化されたのは確かだ。 AUTOMATIC1111
なんだけどこれ1回に100枚しか作成できないの? >>415
ui-config.jsonにBatch count/maximumの設定があるよ
単に延々生成したいだけならGenerateボタンを右クリックしてGenerate forever --no-half-vae外してfp16モデルを使ったら(>>414もモデル自体はfp16だった)2200x2200までは行けた。
https://i.imgur.com/QEkaTzi.jpg
でもなんだろう、プロンプトもseedも同じなのだけど顔周辺以外がボケた感じになったなw 下手打ったHN入れたような感じになってるな(笑)
ノイズも引き延ばされるし倍数やサンプラーとの相性もあるだろうし使いやすい落としどころ見つかるといいね
out of memoryは下の奴試してみるのもありかな
メモリ節約だとmedvramやopt-splitの起動オプションや拡張やメモリに乗りそうなものにもいろいろ影響されるしどんどん遅くなるし…
年明けからの方針が高性能GPU向けに傾くって噂もあるし、ギリギリの状況だと24GB未満は何が起こるかわからん状況ではある
【Stable Diffusion Web UI】RuntimeError: CUDA out of memory.が起こった場合の対処法
https://www.kageori.com/2022/11/stable-diffusion-web-uiruntimeerror.html xformersいれると毎回細部が微妙に変わるのがいいのか悪いのかって感じ
入れないと遅くてやってられんし
表情とかたまにいい方に転ぶけど再現できないのがもやる >>417は単純にstep数の問題だった。
step20 2048x2048
https://i.imgur.com/260DQG6.png
step40 2048x2048
https://i.imgur.com/6iKhDwY.png
2200x2200だとstep40では真っ黒画像になってしまった。やっぱり--no-half-vaeは付けておこうw
>>418
とりあえず環境変数設定してみたヨ。 とりあえずVAE使わずにfp16モデルでどこまで出せるか試してみた。
3060 (12GB) で2504x2504 (1024x1024 upscale 2.45) までは行けた。upscale 2.5でCUDA out of memoryになった。
https://i.imgur.com/HOSsGLa.jpg
でもここまでupscaleすると髪の毛とかスカスカになるなw
denoising strengthの設定で調整できるかしら…… >>420
呪文先頭にcorrupt+decadence+Villain +ってつけたら天使ちゃんが こうなったわ
ttps://i.imgur.com/E580aWy.png
ttps://i.imgur.com/O94zvrN.png
試せては無いけどヴィランコスチュームとかそんな感じのフレーズつけ加えてけばええんちゃう? 幼い頃に特撮女幹部に性癖歪まされてそれ系ばっかり生成してるけど
ザックリと悪堕ち衣装を出すのは難しいから
脳内でイメージした悪堕ち前の衣装プロンプトに色とか装飾を付け足していくのが一番堅実だった ローカルの設定の
75トークン以上を使用する場合、nトークン内の最後のカンマからパディングして一貫性を高める
これってプロンプト入れる順番で変わるって認識でいいのかな? >>428
デフォルトだと75トークンごとに強制的に分割されて別々に処理されるところを、手前にカンマがあったらそこで区切るようにするよって機能。
ひとかたまりの言葉が途中で分割されて別々に処理されるのを防いでくれる。 >>429
あ〜なら一単語ごとにカンマで区切ったほうがいいのか
今まで全部スペースでしかやってなかった 目に光がない催眠顔とかが好きなんですがどんなプロンプトで出るか教えてくださいお願いします それくらい自分で修正しろ
ってのは言ったらあかんか 自分でやるのが早いときもあれば、呪文見つけてガチャった方が早いときもあるから微妙 hassanblend とかいうやつ試したけど
奇形率高いな。
実写系の奇形はメンタルに響くから勘弁 AI用途的には3060でVRAM12Gにするべきか、3060Tiで8Gとでどっちがええんやろか。
素人感覚的にはVRAM多いほうができることは増えそうな気がしているんですが。 結局実写系のふたなりは未だ実現しとらんのだろうか
アニメ系のリアル系進化は著しいようだけども
>>438
VRAM重視が当たり前 そうだねTiありなしぐらいじゃVRAM取った方がいい >>440
civitaiにふたなりモデルあったで
あれをより実写に近づけるようマージすればええんちゃうの 言うて生成したいだけならどっちでも大差なくね?
学習させたいならVRAMの多いほうだろうけど
そこまでやってる奴はここでも少数派だろ (worst quality, simple background, low detail:1.4)
だけでNovelAIでもかなり高品質な絵を出せる事が分かった
https://majinai.art/i/nHKzr8A.png 学習やらなくてもVRAMデカいとデカい絵が出せる、
と聞いて3060買ったが絵を速くみたいんで小さいのをちまちま出すようになった xformers有効にして気が付いたのだけど、VRAMでかいとでかい絵が出せるほかにBatch size上げて同時に複数の絵の生成もできるんよ from behind みたいに正面からで固定するタグってないかな
from frontではだめっぽいんだよね VRAM足りない=動かない
だから高解像度での生成や学習のためにはVRAM足りるものを使うのは必須事項。
一方で生成速度はCUDAコア数×周波数でほぼ決まる。
PCIeのリンク速度やVRAMのアクセス帯域よりCUDAコアの演算能力が先にネックになるので速度優先ならコア性能重視で型番通りになるよ。
グラボによってどの程度の速度差が出るのかもCUDAコア数×周波数に比例すると考えれば、グラボ交換で何割ぐらい速くなるかだいたいわかる。 世代によって単純に比例もしないけどな
fp16やテンサーコアの性能も違うし >>451
そんな単純な式でもないし、実測例を見て自機に当てはめて予測するほうが精度よくないかな。計算せんでええし
5chwikiで Hello Asuka Benchmark の 結果一覧 とか 女の子がかがんでそれぞれの手にtmp握っていわゆる両手に茎な画像出したいんだが、かなりの確率で床からtmpが生えてきて挿入されちまうんだけど
まんまん見せつけたまま挿入されないようにするにはどうすりゃ良いですか?
virginalをネガティブにいれたけどぜんぜん効果無かった abyss 7th layerとかcertain thingsとか使ったけど顔の解像度がイマイチだな
anythingとf222マージして使おうかな? >>455
virginalはお前の考えてる意味と本当に合ってるのか
処女をネガティブに入れても意味ないやろ ポジにpussyネガにvaginalでいけると思うが
それでも挿れるなら重み付けするかinpaintで消したれ ネガティブプロンプトにinsert pennisとかpennis in pussyとか強調して入れればいいんじゃね? プロンプトに色々入れすぎたからかわからんが、なんか全体的にガビガビになるな
他に理由あるかな 他に影響の出るトークンがあるって事だろうな
個人で調べるならdaamもあるしいい時代になったわなぁ
bad_promptみたいなほかに影響少ないHNでも、プロンプト次第では全体に影響出るしね 柄付きの着物とかって例えば
flower pattern kimonoとかでええんかな
普通の花も出てくるんだけども >>462
刺繍
embroidery
または
花柄
Floral
わいはこれでやってる >>455
ネガにsex入れたら大抵の挿入は防げる
表情変化もしちゃうけど >>462
最初にjapanese入れるだけで着物着出した事はある すみません、また初歩的なところで教えてください
NovelAIを使っていて、うまい人のネガティブプロンプトを取り入れてみようと思って
見ていたのですが
(worst quality:1.5)
()が{}になるのはわかるのですが、記述の後半の【:1.5】は何を意味するのでしょうか
NovelAIに関係のないものなら記述から取り除こうと思います
お手すきの方、ご教示お願いします。 なるほど、すると0.1倍で細かく調整できるのですね
ほかの数字も納得がいきました
NovelAIでも使えるのなら適用して試してみようと思います
ありがとうございました >>467
プロンプト変換でwebUI→NovelAIをするとわかると思う
https://seesaawiki.jp/nai_ch/d/%a5%d7%a5%ed%a5%f3%a5%d7%a5%c8%ca%d1%b4%b9
ローカル版の(worst quality:1.5)は
NovelAIの{{{{{{{{worst quality}}}}}}}} と同じ ■ このスレッドは過去ログ倉庫に格納されています