【NovelAI】AIエロ画像情報交換 11【Waifu】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可
児ポはダメゼッタイ
前スレ
【NovelAI】AIエロ画像情報交換 10【Waifu】
https://mercury.bbspink.com/test/read.cgi/erocg/1671543900/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1669278997/
AI画像生成の是非や、イラストレーターの権利、法的な解釈、漠然とした未来像に対する討論はこちらで
【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1668016418/
次スレは>>980が立ててください >>550
CLIP1になってたとか、ぽちぽち綴り間違いがあったのでついでにtwin_braidsでやり直してみたけど大勢は変わらなかったのでまあヨシ!
masterpiece, best quality, bust up portrait of girl with twin_braids tied with a ribbon and putted it on her chest
https://i.imgur.com/S2AIREv.jpg >>554
単語はそれなりに覚えるけど文法はむしろダメになっていくかと・・・ >>555
十分やろ‥
AI触ってなかったらその単語力もゼロや
より良いエロを効率的に求める気持ちが英語力を上げていくんだろ
興味を持って勉強することが一番効率ええと思うで >>555
astride、fellatio、Cowgirl position、naked、open clothes
とりあえず最近暗記した英単語書いてみたがやっぱりダメやな
使える場面がないやろ‥ loli,10yo,camisole,plated mini skirt,lift skirt,white panty,tooth smirk,cameltoe(迫真) covered nipple,huge breasts,spread legs
いきなりネイティブに話しかけられても安心だね >>558
たぶん pleated mini skirt やろな >>556
まあ英語に嫌悪感や苦手意識が薄らいだってのは確かにあるしデカいわな
intricateとかexquisiteやmassとmassive、excessとexcessiveなんて英単語はAIがなかったら一生使わんかった可能性が高いしな
卓上ゲーマーだったんでAIでは今のところ使い道のない「スリッパリィネス」slipperynessなんてワードは知ってて、
ry付けた後にness付けるとかそういう変化の仕方をさせられるってのはAIでは学べんかったかもしれんけど
TIでまれに効果が出たりするので知っててちょっと得した Anything-V4の情報追っててパチモンさ加減にワロタ
59 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ea38-PB+X) ▼
anyV4を上手く鮮やかにするvaeって無いんか?
標準のNAIのは何か暗いんやが
2023/01/14(土) 14:04:17.16 ID:0FpvE/AO0 [1回目]
60 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワンミングク MMe1-DweG) ▼
anyの作者ってvae不要の組み込み版V3出してたけどV4にはそういうのないんかな
2023/01/14(土) 14:06:35.57 ID:/LPc3CutM [2回目]
61 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b57b-NFgX) sage ▼
v4はcocoaとabyssorangemix2をweightsum 0.5でマージしただけのモデルでanythingv3とは無関係やで
2023/01/14(土) 14:08:08.97 ID:1KiBU/5J0 [2回目] any v4で一緒に配布してるvae使っても薄暗いし意味わからんよな
大したモデルでもなさそうだし捨てるか 通りでインスタマージ系の黒マスクによる顔破壊が頻繁に起きるわけだ
anyV4に特徴的な要素もなさそうだしスルーしておこう とりあえず、V3、V4、V4.5、Cinnamonを均等に混ぜて使っていくことにした novelAI更にクオリティ上がった?
何か絵の安定性とクオリティ上がった気がする オリオスペックで未開封のNVIDIA Tesla P100が39,800円らしいですよ
果たしてAIだと今のGeforceとどの程度まで戦えるのか... 16GBなら試してみるかと思うけど12GBならさすがに3060でいいな そんな型番あったっけと思ったら8年前の機種か... Pascal/Voltaはさすがにメモリどうこう以前に戦力外でいいと思うわ
タダでもらえるなら試してみるのもいいと思うけど未来が無さすぎる 12GBか、16Gなら確実にお買い得だけど
いずれにせよ秋葉原まで行かなきゃならん時点でグラボ買える 英単語がなかなか覚えられないが
diaper 女児ぱんつ
これだけは覚えた なんかバグ?が起きるんだけど解決方法知ってる人います?
例:Aモデル使って作成したPNGを読み込んでt2iに送るとなぜかBモデルがロードされる。 >>579
どっちかというとオムツっすよその単語…… ロードするモデルはハッシュ値で判定してて同じハッシュ値のモデルが複数あると一番上のやつが毎回読まれる
dreamboothとか使ってると同じハッシュ値のモデルが何個もできるから実際に使ったモデルとずれる事になる
邪魔なら設定のページの右側にあるwhen reading〜のチェック外せば勝手にモデル読まなくなる 女児パンってcotton pantiesとかそっちじゃない?
嫌やわこんな単語すぐにでてくるの... AIはエロスラング英単語を暗記するのにもってこいだな 差分マージの意味が分からん
例えばabyss1のベースモデルが
insta+(f222-sd1.5)らしいが
f222に含まれているのかどうかすらわからないsd1.5成分を何故わざわざ除外する必要があるのか意味が分からん
誰か分かりやすく教えてくれ 内部的にはベクトル計算なんだろなぁと思いつつニュアンスでマージしてるから俺も詳しく知りたいな 理屈上はf222からsd1.5を除外すればf222にしかない純粋な追加要素だけを抽出できるってやつだけど
成り立ちの知らんモデル見て なぜわざわざ を考えるのは無意味じゃね?
どっちにしろsd1.5はsd1.4+αだからSD成分が含まれてないことはないけど
1.4引くよりも1.5引いた方が結果が良かったか sd1.5の後に出たf222は普通に1.5ベースなんじゃねとか
なんでそうしたのかは想像しかできん
引かずに試してみりゃいいんじゃない
投稿者が試したのかも分からんし そのモデルが唯一の正解ってわけでもじゃないし NAI_NSFW - NAI_SFW とかどんな重みになってるんだろ グラボ買ったの夏なのに、今更afterburnerインストールしてみた。
RTX3060 (12GB) で640x1024 upscale 2 50stepのhighres.fixを実行して測定
power limit 実行時間 処理能力 最高温度
100% 193.27s 100% 76℃
90% 197.98s 97.6% 73℃
80% 206.20s 93.7% 71℃
70% 213.23s 90.6% 67℃
60% 227.78s 84.8% 64℃
55% 237.22s 81.5% 62℃
最大の55%にカットしても処理能力2割落ちないし、ファンの速度30%くらいなのですごい静かだし、全然ありだなって思いましたw
でもまあ、70%にしておきますかね…… >>586
(f222-sd1.5)で無い要素がマイナスになってもインスタモデルがSD1.5だからある程度吸収してくれる
F111とF222の違いがSD1.4と1.5っていう話は公開当時にテストした人たちの傾向がそれっぽいってだけだが
公開者自体が今はやめてるから元画像もわからんし、マイナスが少ないって事でみんな雰囲気で使ってる
汎用的なモデル作る時代はこの程度でもよかった
今はもっと特化したモデルがたくさん出ているが、ベースがHassanみたいなすでに奇形化する重みが狂ったマージで
実写寄りになる意外に構図が絞られたり奇形化しやすかったりするから、ガチャしてとか奇形は許容できる人とかマージしてねっていう注意書きが多い
重複要素が奇形化断片化肉体切断するのはわかってるし、階層マージ使わない時代の苦肉の策でもある
まぁ試せばわかることなので一度通過儀礼だと思って引くモデルをめちゃくちゃなもの使ってみるのも動作が理解できると思うよ >>590を実行するので同一seed・同一プロンプトで回したのだけど、xformersが有効だとマジで毎回微妙に絵が変わるのなw
同じ絵を何度も出すとかそうないので今まで実感できんかった。 >>293
これ見せられるとVRAMケチれねえ・・・ でも12GBだってうっかりでかい絵でinpaintしたら最後の最後でメモリ足りずにエラー出すことあるぜ…… >>597
VRAMにゴミが残ってメモリエラーは結構ある
拡張機能バリバリ使ってたりするとモノによってはメモリ解放が出来てないのもあるよ
定期的に再起動するのが一番良さそう 個人的にinsta+f222の加重マージモデル重用してたから
試しにinsta+(f222-sd1.5)の差分モデル作ったら加重モデルよりも奇計率高い気がしたので
気になって思わず書き込んでしまった
確かに階層マージが出てきた今では深く考えても仕方がない事かもしれん
ありがと>>588>>591 1つ質問させてください。
NMKDでVAEフォルダにanthingv3改良版のVAEのckptファイルを入れたのですが、
settings画面のvae選択欄に表示されません。
Refresh list を押しても変わらずです。
どなたか解決方法を教えていただけると幸いです。 >>600
モデルのファイル名+.vae.ptにしたら?
拡張子ptにするだけでいけそうな気はする。 >>600
AnythingV3 better vaeのことならvaeではなく
旧AnythingV3(pruned-fp32)に旧来のvaeを内蔵しただけのモデルファイルぽい
試したら両者の出力はメタデータの分かハッシュ値こそ異なるものの
ファイルサイズまで一致してた(xformersオフ)
改良版がAnythingV4を指しているのであればvaeはV3のものと同一
結果としてV3vae=NAIのvaeを指定してるのと変わらないと思うよ Anything v3.0 better vaeは別途vaeを指定しなくてもいいAnything v3.0だよね。
ONNX用とかに変換する場合は便利そう。
V4はそもそも全然違う人が関係ないマージモデルに紛らわしい名前をつけただけ。
使う価値があるかどうかもうたがわしいわ。 通常使用モデルとして癖が少なく
コントラストが低いというAny3の特徴がなくなってるし
使う価値はある cool japan 2.1.1を触ってみた。相変わらず寒い方向でマジcoolなんだけど
これはいったいどこを目指しているのだ? AbyssOrangeMix2を入れてみたので俺もHighres.fixの様子を試してみた。
highres.fixのfirstpassの出力(1024x512)をExtrasの003_realSR_BSRGAN_DFOWMFC_s64w8_SwinIR-L_x4_PSNRで2倍に拡大
https://i.imgur.com/AY2lg6u.png
https://i.imgur.com/wQUx3E0.png
https://i.imgur.com/HcaCcto.png
highres.fixのupscale 2で出力
https://i.imgur.com/G8vuDFQ.png
https://i.imgur.com/SuT6ItN.png
https://i.imgur.com/TDxhnwH.png
3枚目とか、ディテールの追加具合が半端ねぇっすな
ところでAbyssOrangeMix2って横長画像を出力すると高確率で同じような絵を横に並べたのが出力されますなw
こんな風になるのは初めて見た。
https://i.imgur.com/RHGh5fJ.png Abyss以降というか階層マージしてるとMultiview系のネガティブ入れてても出ることはよくある ローカル環境でDAAMが動かないんだけど、これ前提なにか要る? pythonは3.10.8
TypeError: FrozenCLIPEmbedderWithCustomWordsBase.tokenize_line() takes 2 positional arguments but 4 were given
今日は階層マージもエラー吐くようになったけど、web-ui側の更新のせいかな
一応マージはできてる模様。 >>611
丁寧にありがとう、ローカルに取り込んで無事動かせたわ anythingだっけ
ああいうmodelって良し悪しどう見分けるんだろ >>602
>>603
ありがとうございます!
vaeを内蔵したanything v3だったんですね。
無事使うことができました。ありがとうございました! Anything V4についてはV3の方で「V4が後継だよ」的なアナウンスが出たね。 みてきたら(非公式だけど)後継ってもう実質後継みたいなもんよねリンク張ってるし すいません、また質問させてください。
LonganMix(https://huggingface.co/Hemlok/LonganMix)を1111で使ってみたのですが、サンプルとはかけ離れたものになってしまいます。
http://iup.2ch-library.com/i/i022660899815874911289.jpg
サンプルと同じサンプラー、スケール、プロンプトにしたのですが、何か設定がおかしいのでしょうか?
vaeはAnything v3のものを使っています。(使わないとコントラストの低い絵になってしまいました。)
よろしければご回答よろしくお願いします。 >>619
ネガティブプロンプトに7thの推奨のヤツ入れるんやで >>619
ネガティブに入ってる bad_prompt_v2 はダウンロードしてきてembeddingに入れないとだめだぞ。 >>622
better vaeの方は続けるとか書いてなかった? >>619
あ、bad_prompt_v2は画像のネガティブの方に入ってるけどテキストで書いてある方にはないから、別になくてもいいのか。 >>620
>>621
それっぽい感じになりました!
ありがとうございます!
badpromptはネガティブプロンプト欄で(bad_prompt_v2:0.8)みたいに
影響度を決めないと効果が出ない感じでしょうか? >>625
いや、そのままだと悪影響があるから弱め(0.8)にかけるのがいいって話だったと思う。 Any4がAny3の後継かどうかなんてそもそもどうでもいいこと
使えるモデルなんだから使えば良い https://i.imgur.com/uFORyzr.jpg
上から餅つき、餅つき、マイクロビキニダブルピース、母乳ダブルピース
個人的にV4.0が好き >>631
親指とあと1本まともなのが出たら
変形切り貼りするだけだよ anyももう落ち目だな
マージモデルに比べて手がフニャフニャすぎる モデルはなんでもいいからドチャシコ絵を出力してくれ >>634
何がそうなのかっていうのも
プロンプトかいてくれないと
AI だって神様じゃないんだから 死ぬほど協調してレイプとフェラチオ!って書いてるのに一切対応しないAI君も悪い >>633
マージモデルの方がふにゃったり変形したりしやすくないか?
どのみちHypernetwork使うとどのモデルでも破綻して地獄だよ・・・(ノД`)シクシク >>637
そういう言葉って無視されるんじゃないの? r●peは普通に出るけどなぁsexとかもプロンプトに入れて入るけど
nsfwに弱いモデル使ってたりしない?
後者はプロンプトに入れたことないけどgangbang入れてると時々出たりする Elysiumv1でエロ出してみたいんだけどなんかマージとかしないといけないのかな? >>629
思ったのだけどキャラの資料ってこう言う画像にして用意した方が良いのかな? >>641
おてぃくびやすじまでなら
おせっせはむりぽ >>641
構図は少ないけど出るよ
他の学習系の追加の影響や中華ネガティブみたいなの入れ始めるとどんどん出にくくなる
出にくいモデルで試行錯誤するのも一興だけど、せっかくローカルあるんだから一つのモデルに縛られるより
他のモデルでエロ構図出してi2iでElysium_V1を使って再描画するのが手っ取り早い
(それなりのSSDがないと切り替え大変だとは思うけど) もうこのスレ高価グラボ積むローカル勢のスレになってきたな… スライム姦や機械姦のプロンプト、なんかいいのないじゃろか?
うまくいかんぜ 高価つっても出力ならvram4GBでもいいし学習も3060 12GBで最低限は出来る
最先端エロ技術がたかだか50kのバイト代以下で堪能出来るってお得だよ ■ このスレッドは過去ログ倉庫に格納されています