【NovelAI】AIエロ画像情報交換 11【Waifu】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可
児ポはダメゼッタイ
前スレ
【NovelAI】AIエロ画像情報交換 10【Waifu】
https://mercury.bbspink.com/test/read.cgi/erocg/1671543900/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1669278997/
AI画像生成の是非や、イラストレーターの権利、法的な解釈、漠然とした未来像に対する討論はこちらで
【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1668016418/
次スレは>>980が立ててください >>520
SATA HDD = 4倍速 => SATA SSD = 10倍速 => NVMe SSD
ざっくりこれくらいなので、お金があればNVMeがお薦め (Cドライブが)HDDパソコン、まだ存在したのか……!!! >SATA SSD = 10倍速 => NVMe SSD
正直ここの速度差なんて日常生活ではいらんやろって思っていたけど
実際使う領域になってくると差が出てくるね >>529
指やら手足がいろんなところから出てくるんだよな 個人的に好きな絵柄を生成する人のネガティブプロンプトを255ギリギリまで突っ込んでるけど
抱き合わせって試したこと無いな 新境地って程でもないけど他でお目にかかった事のないシチュを試してる
webなんで画質がどうしてもアレやが
このシチュに名前が無いんで宝石縛りとでも呼んでおこうか
肌に食い込むほど締め付ける指定をしてるんやが安定しない
https://i.imgur.com/NNmhkFx.png
https://i.imgur.com/c1i2sVa.png
https://i.imgur.com/YULrcTd.png
手錠も出そうとしてこんな感じに
特に指定しなくても宝石盛り盛りな雰囲気のせいで勝手にこうなる
鉄とか鉛とかヘビーとかトゲトゲとか色々指定してみたが勝手にアクセサリーっぽくしてくれる(個人的には悪くない)
https://i.imgur.com/D1aHxQA.png
https://i.imgur.com/ksTIAm0.png
普通の?縛りっぽいのも山ほど出るが モデルや学習データの読み書きにしろ殆どシーケンシャルなんだから
別にHDDでも磁気テープでもそんなに問題ない
どうしても気になるんならそれこそNVMeよりも何倍も早いRAMディスクに
要るデータをキャッシュするようにしたらいい >>512
実写系くぱあってSNSアプリで即BAN系の馬鹿と中国系のアウロリレイヤー以外居なくね?
少なくともAIが得意なJYJSくぱあは実写では見たことないが もしかして最近のモデルってダンボールのタグを意識した単語の羅列より
きちんとした文章の方がいい画像が生成されやすい? >>535
普通の SNS だら BAN されるけど
Twitter BAN されない >>537
素の画力が高いモデルなら適当でも良い絵が出る
そうじゃないならどう学習させたかによる
Clip interrogator使ったって書いてるのは文章が通りやすい
つまりモデル次第 anything 4.0来たけど、
手とかエロ具合どうなんだろ >>537
本来StableDiffusionは全て英文形式での記述が基本になってるのでどのモデルもある程度英文で記述してあげたほうが詳細に描いてくれる傾向にあるよ
NovelAIだけはちょい特殊でdannbooruタグの羅列だけでもそれなりに絵が出せるように学習されてる(ただしCLIP2)
けどやっぱり中身はSDなので英文で記述してあげたほうが実は詳細な描画が出やすい
よって、NAIの配合率によってはdanbooruタグの効きが変わるって感じかな
最近の新モデルは大抵NAIが混ざってるので、英文+danbooruタグで記述していればだいたいOKかも >>540
水彩感減って陰影が顔以外により強くかかる感じだね
マスピ感がさらに減ったというか、Any感が減ったというか
顔以外が3Dによったので陰影調整しないといけないから
i2i通さない雑コラがやりにくくなる部分はあるかもね 4.5は何でフル版無いんだろうな。
自動翻訳だと4.5の方が良さげな
説明あるけど。
3d寄りなのか試せてないのでサンクス。 https://i.imgur.com/47Xr8Mc.png
こういう前に2本垂らす三つ編みに限定する良い方法ないだろうか?
twin_braids, hair_over_shoulderだとかなりの確率で後ろにも髪が出てしまう >>546
masterpiece, bestquality, bust up portrait of girl with braid tied with a ribbon and puted it on her chest
モデルはany-v3-fp32-better-vae
https://i.imgur.com/S2AIREv.jpg
まあまあいいんじゃナイカ? >>545
もちろんマージで薄くなってないというか、マスピも出しやすいよ
継ぎ接ぎ感は増してる(笑)
https://i.imgur.com/vOgGEWZ.jpg >>547
素晴らしい!ありがとう
英文で描写したらかなり限定して描いてくれるものなんだね >>550
CLIP1になってたとか、ぽちぽち綴り間違いがあったのでついでにtwin_braidsでやり直してみたけど大勢は変わらなかったのでまあヨシ!
masterpiece, best quality, bust up portrait of girl with twin_braids tied with a ribbon and putted it on her chest
https://i.imgur.com/S2AIREv.jpg >>554
単語はそれなりに覚えるけど文法はむしろダメになっていくかと・・・ >>555
十分やろ‥
AI触ってなかったらその単語力もゼロや
より良いエロを効率的に求める気持ちが英語力を上げていくんだろ
興味を持って勉強することが一番効率ええと思うで >>555
astride、fellatio、Cowgirl position、naked、open clothes
とりあえず最近暗記した英単語書いてみたがやっぱりダメやな
使える場面がないやろ‥ loli,10yo,camisole,plated mini skirt,lift skirt,white panty,tooth smirk,cameltoe(迫真) covered nipple,huge breasts,spread legs
いきなりネイティブに話しかけられても安心だね >>558
たぶん pleated mini skirt やろな >>556
まあ英語に嫌悪感や苦手意識が薄らいだってのは確かにあるしデカいわな
intricateとかexquisiteやmassとmassive、excessとexcessiveなんて英単語はAIがなかったら一生使わんかった可能性が高いしな
卓上ゲーマーだったんでAIでは今のところ使い道のない「スリッパリィネス」slipperynessなんてワードは知ってて、
ry付けた後にness付けるとかそういう変化の仕方をさせられるってのはAIでは学べんかったかもしれんけど
TIでまれに効果が出たりするので知っててちょっと得した Anything-V4の情報追っててパチモンさ加減にワロタ
59 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ea38-PB+X) ▼
anyV4を上手く鮮やかにするvaeって無いんか?
標準のNAIのは何か暗いんやが
2023/01/14(土) 14:04:17.16 ID:0FpvE/AO0 [1回目]
60 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワンミングク MMe1-DweG) ▼
anyの作者ってvae不要の組み込み版V3出してたけどV4にはそういうのないんかな
2023/01/14(土) 14:06:35.57 ID:/LPc3CutM [2回目]
61 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b57b-NFgX) sage ▼
v4はcocoaとabyssorangemix2をweightsum 0.5でマージしただけのモデルでanythingv3とは無関係やで
2023/01/14(土) 14:08:08.97 ID:1KiBU/5J0 [2回目] any v4で一緒に配布してるvae使っても薄暗いし意味わからんよな
大したモデルでもなさそうだし捨てるか 通りでインスタマージ系の黒マスクによる顔破壊が頻繁に起きるわけだ
anyV4に特徴的な要素もなさそうだしスルーしておこう とりあえず、V3、V4、V4.5、Cinnamonを均等に混ぜて使っていくことにした novelAI更にクオリティ上がった?
何か絵の安定性とクオリティ上がった気がする オリオスペックで未開封のNVIDIA Tesla P100が39,800円らしいですよ
果たしてAIだと今のGeforceとどの程度まで戦えるのか... 16GBなら試してみるかと思うけど12GBならさすがに3060でいいな そんな型番あったっけと思ったら8年前の機種か... Pascal/Voltaはさすがにメモリどうこう以前に戦力外でいいと思うわ
タダでもらえるなら試してみるのもいいと思うけど未来が無さすぎる 12GBか、16Gなら確実にお買い得だけど
いずれにせよ秋葉原まで行かなきゃならん時点でグラボ買える 英単語がなかなか覚えられないが
diaper 女児ぱんつ
これだけは覚えた なんかバグ?が起きるんだけど解決方法知ってる人います?
例:Aモデル使って作成したPNGを読み込んでt2iに送るとなぜかBモデルがロードされる。 >>579
どっちかというとオムツっすよその単語…… ロードするモデルはハッシュ値で判定してて同じハッシュ値のモデルが複数あると一番上のやつが毎回読まれる
dreamboothとか使ってると同じハッシュ値のモデルが何個もできるから実際に使ったモデルとずれる事になる
邪魔なら設定のページの右側にあるwhen reading〜のチェック外せば勝手にモデル読まなくなる 女児パンってcotton pantiesとかそっちじゃない?
嫌やわこんな単語すぐにでてくるの... AIはエロスラング英単語を暗記するのにもってこいだな 差分マージの意味が分からん
例えばabyss1のベースモデルが
insta+(f222-sd1.5)らしいが
f222に含まれているのかどうかすらわからないsd1.5成分を何故わざわざ除外する必要があるのか意味が分からん
誰か分かりやすく教えてくれ 内部的にはベクトル計算なんだろなぁと思いつつニュアンスでマージしてるから俺も詳しく知りたいな 理屈上はf222からsd1.5を除外すればf222にしかない純粋な追加要素だけを抽出できるってやつだけど
成り立ちの知らんモデル見て なぜわざわざ を考えるのは無意味じゃね?
どっちにしろsd1.5はsd1.4+αだからSD成分が含まれてないことはないけど
1.4引くよりも1.5引いた方が結果が良かったか sd1.5の後に出たf222は普通に1.5ベースなんじゃねとか
なんでそうしたのかは想像しかできん
引かずに試してみりゃいいんじゃない
投稿者が試したのかも分からんし そのモデルが唯一の正解ってわけでもじゃないし NAI_NSFW - NAI_SFW とかどんな重みになってるんだろ グラボ買ったの夏なのに、今更afterburnerインストールしてみた。
RTX3060 (12GB) で640x1024 upscale 2 50stepのhighres.fixを実行して測定
power limit 実行時間 処理能力 最高温度
100% 193.27s 100% 76℃
90% 197.98s 97.6% 73℃
80% 206.20s 93.7% 71℃
70% 213.23s 90.6% 67℃
60% 227.78s 84.8% 64℃
55% 237.22s 81.5% 62℃
最大の55%にカットしても処理能力2割落ちないし、ファンの速度30%くらいなのですごい静かだし、全然ありだなって思いましたw
でもまあ、70%にしておきますかね…… >>586
(f222-sd1.5)で無い要素がマイナスになってもインスタモデルがSD1.5だからある程度吸収してくれる
F111とF222の違いがSD1.4と1.5っていう話は公開当時にテストした人たちの傾向がそれっぽいってだけだが
公開者自体が今はやめてるから元画像もわからんし、マイナスが少ないって事でみんな雰囲気で使ってる
汎用的なモデル作る時代はこの程度でもよかった
今はもっと特化したモデルがたくさん出ているが、ベースがHassanみたいなすでに奇形化する重みが狂ったマージで
実写寄りになる意外に構図が絞られたり奇形化しやすかったりするから、ガチャしてとか奇形は許容できる人とかマージしてねっていう注意書きが多い
重複要素が奇形化断片化肉体切断するのはわかってるし、階層マージ使わない時代の苦肉の策でもある
まぁ試せばわかることなので一度通過儀礼だと思って引くモデルをめちゃくちゃなもの使ってみるのも動作が理解できると思うよ >>590を実行するので同一seed・同一プロンプトで回したのだけど、xformersが有効だとマジで毎回微妙に絵が変わるのなw
同じ絵を何度も出すとかそうないので今まで実感できんかった。 >>293
これ見せられるとVRAMケチれねえ・・・ でも12GBだってうっかりでかい絵でinpaintしたら最後の最後でメモリ足りずにエラー出すことあるぜ…… >>597
VRAMにゴミが残ってメモリエラーは結構ある
拡張機能バリバリ使ってたりするとモノによってはメモリ解放が出来てないのもあるよ
定期的に再起動するのが一番良さそう 個人的にinsta+f222の加重マージモデル重用してたから
試しにinsta+(f222-sd1.5)の差分モデル作ったら加重モデルよりも奇計率高い気がしたので
気になって思わず書き込んでしまった
確かに階層マージが出てきた今では深く考えても仕方がない事かもしれん
ありがと>>588>>591 1つ質問させてください。
NMKDでVAEフォルダにanthingv3改良版のVAEのckptファイルを入れたのですが、
settings画面のvae選択欄に表示されません。
Refresh list を押しても変わらずです。
どなたか解決方法を教えていただけると幸いです。 >>600
モデルのファイル名+.vae.ptにしたら?
拡張子ptにするだけでいけそうな気はする。 >>600
AnythingV3 better vaeのことならvaeではなく
旧AnythingV3(pruned-fp32)に旧来のvaeを内蔵しただけのモデルファイルぽい
試したら両者の出力はメタデータの分かハッシュ値こそ異なるものの
ファイルサイズまで一致してた(xformersオフ)
改良版がAnythingV4を指しているのであればvaeはV3のものと同一
結果としてV3vae=NAIのvaeを指定してるのと変わらないと思うよ Anything v3.0 better vaeは別途vaeを指定しなくてもいいAnything v3.0だよね。
ONNX用とかに変換する場合は便利そう。
V4はそもそも全然違う人が関係ないマージモデルに紛らわしい名前をつけただけ。
使う価値があるかどうかもうたがわしいわ。 通常使用モデルとして癖が少なく
コントラストが低いというAny3の特徴がなくなってるし
使う価値はある cool japan 2.1.1を触ってみた。相変わらず寒い方向でマジcoolなんだけど
これはいったいどこを目指しているのだ? AbyssOrangeMix2を入れてみたので俺もHighres.fixの様子を試してみた。
highres.fixのfirstpassの出力(1024x512)をExtrasの003_realSR_BSRGAN_DFOWMFC_s64w8_SwinIR-L_x4_PSNRで2倍に拡大
https://i.imgur.com/AY2lg6u.png
https://i.imgur.com/wQUx3E0.png
https://i.imgur.com/HcaCcto.png
highres.fixのupscale 2で出力
https://i.imgur.com/G8vuDFQ.png
https://i.imgur.com/SuT6ItN.png
https://i.imgur.com/TDxhnwH.png
3枚目とか、ディテールの追加具合が半端ねぇっすな
ところでAbyssOrangeMix2って横長画像を出力すると高確率で同じような絵を横に並べたのが出力されますなw
こんな風になるのは初めて見た。
https://i.imgur.com/RHGh5fJ.png Abyss以降というか階層マージしてるとMultiview系のネガティブ入れてても出ることはよくある ローカル環境でDAAMが動かないんだけど、これ前提なにか要る? pythonは3.10.8
TypeError: FrozenCLIPEmbedderWithCustomWordsBase.tokenize_line() takes 2 positional arguments but 4 were given
今日は階層マージもエラー吐くようになったけど、web-ui側の更新のせいかな
一応マージはできてる模様。 >>611
丁寧にありがとう、ローカルに取り込んで無事動かせたわ anythingだっけ
ああいうmodelって良し悪しどう見分けるんだろ >>602
>>603
ありがとうございます!
vaeを内蔵したanything v3だったんですね。
無事使うことができました。ありがとうございました! Anything V4についてはV3の方で「V4が後継だよ」的なアナウンスが出たね。 みてきたら(非公式だけど)後継ってもう実質後継みたいなもんよねリンク張ってるし すいません、また質問させてください。
LonganMix(https://huggingface.co/Hemlok/LonganMix)を1111で使ってみたのですが、サンプルとはかけ離れたものになってしまいます。
http://iup.2ch-library.com/i/i022660899815874911289.jpg
サンプルと同じサンプラー、スケール、プロンプトにしたのですが、何か設定がおかしいのでしょうか?
vaeはAnything v3のものを使っています。(使わないとコントラストの低い絵になってしまいました。)
よろしければご回答よろしくお願いします。 >>619
ネガティブプロンプトに7thの推奨のヤツ入れるんやで ■ このスレッドは過去ログ倉庫に格納されています