【NovelAI】AIエロ画像情報交換 3【Waifu Diffusion】
レス数が900を超えています。1000を超えると表示できなくなるよ。
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可
児ポはダメゼッタイ
前スレ
【Waifu Diffusion】AIエロ画像情報交換 2
https://mercury.bbspink.com/test/read.cgi/erocg/1664246635/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
AI画像生成の是非や、イラストレーターの権利、法的な解釈に対する討論はこちらで
【Midjourney】AI関連総合6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1664642254/
次スレは>>980が立ててください 俺は1060(3GB)だったからさっさと諦めて3060(12GB)にした
エロやるならクラウドはほぼ無理だし買う金があるなら買ったほうがいいと思う
今のこのブームに乗れるのは今だけ
http://ero-gazou-uploader.x0.com/image.php?id=22301 >>808
そんな早くないだろうって持ってる3060で試したら5秒だったw
>>800の速度情報(3090Tiで4秒)は最適化された1111から見ると相当古いね >>819
サンプラーは分からないけど、そのグラフ50Stepsだよ >>820
ああそうか、euler_aの32でやってたわ
lmsの512x512の50STEPでやったら9秒だった、3割増しは途中のboostの範疇かなぁ >>808
おめでとう!
オレもたまたま買っていたゲーミングPCが3060だったおかげで快適に楽しめてる
ゲームしてる時はVRAM12はオーバースペックだったのにまさかこんな使い道が! これ 走らせまくってるとVRAMがアチアチになるから
気を付けないとね 2060使ってる俺は3060買ってもそこまで変わらなそうやなあ
もっと上でコスパ良いの出たら買えばええんかな WD1.2はある程度追い込んでガチャれば100枚に1枚くらいは奇跡の1枚出たけど
WD1.3その他のアニメ特化型はHRはマジで出ねぇわ
極論何千枚も出してやっとって感じ 10分35秒 (CPU i7-4790S)
貧乏自慢(涙 DDIM(8step)でまず気に入った構図が出るまで回す。シードガチャ
↓
img2imgでシード固定して納得いくまで好きに調整する。Euler a(イラスト向け)、DPM2 a(リアル向け)がおすすめ
↓
Extraでアップスケールをして高解像度にしたら完成
いろいろ調べてこんな感じでWDやってるけどいいんかな あんまり早くなっても休ませる時間が増えるだけだから3060くらいでいいと思う >>829
グラボないと流石に無理だよ。RTX1070でも150step80秒で作れるよ 2060 12GB
512x512 50step Euler aで9秒くらい 3060は省エネなほうだし2連ファンでもいいかなって思ってたけど
意外と熱くなるんですかね・・・?
3連入るケース使ってるなら3連買っとけって感じ?
https://imgur.com/Hz8DK1C 70Tiでもめっちゃ回るから、出来るだけ冷えるやつ買っといた方がいい。
ゲームと違って、抑制無しでガンガン回しにかかるから。 寝る部屋で回すならシングルファンはやめといた方がいい。3060だけどそこそこの騒音の中眠ることになった(1敗) AI推論や学習の負荷ってマイニングとほぼ同じ性質だから
バッチで数百枚回すとかTIやるとかならずっと負荷100%で最大で発熱しっぱなしになる
変なスリムモデルとかはやめといた方がいい マイニングみたいに管理ソフト入れて消費電力やファン回転数制限するといいかもね
温度もヤバいけど長時間ぶん回しすぎると制限なしだとケーブル焼ける可能性ある そのうち100枚生成するごとにアイドリングタイム入れるようなオプションが付いたりするのかな ん?1111に最大トークン数の設定が増えて75(+2=77)を越えたって噂が・・・ GPUが焼き付くまで回し続ける事を強いられているんだ! >>836
980Ti(ファン3つ)から3060(ファン2つ)に移行して
afterburnerの同じファン回転設定で同じことやってるのに温度が10℃くらい低くてびっくりしたよ >>807
そうそう>呪文の力がすごい
このツイ主の方は毎日いろいろ研究していて、しかもプロンプトを気前よく公開してくれるのでありかたいです >>842
readme.mdに書いてるこれか
> No token limit for prompts (original stable diffusion lets you use up to 75 tokens) >>842
素晴らしい。けどヘルプに書かれているこれが心配なところですね。再利用性というか再現性というかで。
> Setting this to a different value will result in different pictures for same seed. Hypernetwork入れると同じポーズばかり出て無しにしたらweb版に近い出力が出るんだけどどういうことだこれ?
特定のポーズ指定があった時だけオンにするもんなのか? みなさん参考になる情報ありがたい
重いのがちょっとだけ嫌だが3連入るケースだし3連買っとくかな danbooruのキャラ名タグwaifu1.3に入れたら反映される? Web UI更新してみたらカウンターが撤去されてるし、トークン数無制限はマジなんだな
ただ動かそうとするとエラー出ちゃうわ、更新するのはちょっと待った方が・・・とか書いてる間に修正来たわ。マジで無制限で通るようになってる(160トークンまでは確認)
ほんとどうなってんだこのスピード感。開発してる人達凄すぎる・・・ >>847
その設定は削除されて自動で無限になるようになったっぽい。5分前のcommitで >>850
やっぱり?
にしても顔の精度違いすぎるからまだ隠し味があるのかな >>847
max_prompt_tokensを設定で持つと再現性の問題があるから、
トークンが75以下なら75、76以上なら10で割った値を切り上げて10かけた値を自動設定することで再現性を維持するようになったっぽい そろそろ公式とハッカーのやつ近くなった?どうもハッカーのやつ公式よりうまくいかん トークン数制限撤廃で同じシードでもやっぱり少し違う出力になるね
とはいえ、今回は微妙な違いが出るだけでそんな大きく変わることはない感じ
Waifu 1.3で左が75(77)トークン制限時、右が撤廃後
https://i.imgur.com/5iNFrju.png
ついでにエッチなバージョンの比較も
http://up.mugitya.com/img/Lv.1_up169722.png 今日使い始めてみたんですが乳首の突起部分が白にされちゃうことがちまちまとあります
原因わかる方いらっしゃいますかね? >>830
教えていただいてありがとうございます。
colabでstable diffusion本家のデモコードでwdで画像生成が17秒ぐらい(512x512 50回)。素晴らしい。
そして本家はNSFW判定がとても厳しいことを知りました。ささっと判定をFalseに(苦笑
ですが、機械的にNSFW判定されるものがドライブに保存されるのは恐ろしくもあり。 最新版はHyperNetworkのパスが models/hypernetworks に変わってるので注意
>>850
そうなのかー...
一通り遊んだら戻してみよう >>858
まずは使用環境をよろしく
・ローカルPCで生成の場合
webui Automatic1111版
NMKDスタンドアローン
など
・オンライン生成の場合
NovelAIなどの課金サービス
colab
など
・使用モデル
StableDiffusion 本家
Waifudiffusion
Trinart
など 今は絵と呪文でああだこうだやってるけど、そのうち画像中のオブジェクトに直接ラベリング出来るようにならないかな
赤い丸を指してこれはトマトである、棒人間を指してこれは〇〇ちゃんである〇〇.ptを参照し描画せよ
ってな感じ https://i.imgur.com/zTtR19O.jpg
https://i.imgur.com/lEjmdCg.jpg
皆が二次美少女を作ってる間一人三次元を頑張る
russian混ぜたらだいぶ良くなってきた気がする
なんかwebuiアプデしたら512x768でout of memory出るようになったわ >>857
幽霊ちゃんのジーンズのディテールの差がすごい目立つ気がする
左に比べて右はボタンが歪んだり色んなとこが省略されてる気がする
high detailedの位置とかそういうのなのかな >>864
おっぱいのリアルな垂れっぷりからするとfemalenude単体でやってんのかな
ぱねぇな >>866
マージも微妙だったので単体だねえ
very huge breastは外せない WD1.3でもNAIっぽい画風は出せるね
https://imgur.com/a/OVCnZh3
masterpiece, best quality,megumin,1boy,nsfw,1girl,fellatio,solo_focus
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality,
jpeg artifacts, signature, watermark, username, blurry, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits
Steps: 31, Sampler: Euler a, CFG scale: 12, Seed: 710692654, Size: 512x512, Model hash: 84692140 トークン数気にせずプロンプト書けるの凄い違和感だ
- とか _ はトークン消費するから極力使わないように・・・とかそういう節約が必要なくなったの凄い楽
複数形も受動態も使いたい放題だけど、果たして使っていいのか、やっぱり節約した方がいい画が出るんじゃないか・・・とか、色々不安になってしまう
>>865
プロンプトは全く同じなんですけど微妙に違うんですよねぇ
エラーが出てたとき、今まで75トークンで通ってたプロンプトが「82トークンなのでダメです」って怒られたりしたし
内部でトークンの区切りや位置が変わっちゃってる感じがします
とにかく、光源とかカメラの指定とか好き放題に指定できるようになったの凄い便利!
今まではdepth of focusとかトークン数制限で泣く泣く削ってた部分も無制限に入れられる トークン増えたのはいいけど後半は殆ど効かない感じ(´・ω・`)
あとanime系のHyperNetworkを比較して何となく特性が解って来た
None
https://i.imgur.com/TkJ7Yex.png
anime
https://i.imgur.com/549zoMf.png
anime_2
https://i.imgur.com/x0ajMGF.png
anime_3
https://i.imgur.com/z7VQQh8.png
物凄く乱暴なことをやってる気がするけど、自分の用途には合ってるんで気にならなかった >>872
RTX3000シリーズでしか使えないらしいね。うちの2070だとエラーになる xformers試してみた。確かに33%以上高速化してるわ(RTX 3060 Euler a 35steps 512x704 Waifu1.3の例)
一日に何回革新すれば気が済むんですかね・・・
https://i.imgur.com/lQSVHWO.png
でもやっぱり過去と同じシードやプロンプトでも出力画像が変わってくる
https://i.imgur.com/9WIyfIY.png
試してみた範囲だとザラっとした質感になって彩度が下がる感じ
彩度きつめのWaifu1.3にはちょうど良いけど悩みどこだね
https://i.imgur.com/08S1yTr.png
ちなみに今のところpng infoにはxformersの使用の有無は記載されないので注意が必要。もしかすると数分後には追加されてるかもしれないけど >>878
xformersの使い方
1. webui-user.batを編集。 COMMANDLINE_ARGS=--xformers にする
2. webui-user.batから起動する モデルを持ってくるURLを指定できるんだからあとはweb上に上げればできるんじゃない
リスクの重ねがけでオススメできないけど >>878
びっくり爆速
同じく3060環境だけど初期設定のstep20だと3秒だね
これぐらいなら通常50固定でもいいかな さっきのコミットで仮想環境のpythonバージョンが3.10になってosがwindowsならかってに
xformersをいれてくれるみたいね >>884
わかりやすい比較さんくす
うーん、そこまで違うんじゃste >>884
途中でかきこんでしまった
そこまで違うなら、step数増やしたり減らしたりと変わらないね。。。うーん意味あるのかな >>878
> ザラっとした質感になって彩度が下がる感じ
まさにこれだね
ただとりあえず3割高速で大量に作って
いいのができたら--xformer外して作り直せばいいだけでは?という考え方も 強調したい範囲選択してCtrl+↑↓も地味に便利になったね
Generateボタン右クリのForeverは試してないけどずっと回したい人には需要あるんかな 1111に hypernetwork training ってブランチが追加されてるがこれは? >>889
Ctrなしで文字列選択後に↑↓だけでいけるっぽい hypernetworkのトレーニングもう出てきてるのか
あれが効果がいまいちよくわからないのについてけないな
https://i.imgur.com/ZSEFOro.png やっとWaifu 1.3の環境に化けて出ることができるようになったけど、思いのほか透け過ぎて焦ってる幽霊ちゃん
https://i.imgur.com/vquNbCz.png
こっちは幽霊ちゃんと友達になりたいらしい、大きな鎌を携えた女の子
https://i.imgur.com/TnlgIJJ.png 1.3のノートみた
・長い文章みたいなプロンプトは入れないでいい
・タグはしっかり『,』で区切ってつける
・より多くのタグを入れる。特に構成タグ
・高品質な著作権タグを入れる
・ランダムタグを除去したので、目的にそってはっきりタグをつけをしなければモデルは望んだものにならない
・タグつけでアンダーラインは使わないように。スペースでOK
・タグはdanbooru参考に RTX1070でやってたけど新しい1111入れたら倍くらい処理が早くなってる。150stepで80秒→37秒まで下がっててめっちゃ捗るわ
RTX3000番台持ってる人は爆速だろうなこれw >>894
1.3そうなってたんだな。アンダーラインいらないのか NAIに近づいてきたような気がする?
https://pastebin.com/q56HVjsk
以前の比較
https://i.imgur.com/VqKtGsH.jpg
ローカル出力(full)
1girl, masterpiece, portrait, short skirt, small smile, looking at viewer, detailed, natural light, surrounded by flowers, garden
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 28, Sampler: Euler a, CFG scale: 11, Seed: 3953621049, Size: 512x768, Denoising strength: 0.6
https://i.imgur.com/mRDLdHc.png
natural lightは光が柔らかくていいかも
https://i.imgur.com/EB5W8Nm.png 1111はgtx1650ではだめか、lowvramでやってみたけど真っ黒画像しか出ないわ
まぁnmkdの方で特段困ってるわけでもないんだけど、楽しすぎてこれのためにグラボ買い替えるか迷うレベルだなぁ
今だと何がコスパいいんだ >>898
set COMMANDLINE_ARGS=--precision full --no-half --lowvram
でどう? >>899
動いたわ、ありがとう
けどそこまでやるとうちの環境だとnmkdの方が若干早かったわ…… >>898
RTX1070の1111ローカルで普通にやれてるけどそれってWEBでやってない?WEBだとえっちな画像は真っ黒にされるよ 10,20系でのxformersって自分でビルドしなくても良くなったの?
普通に動いて同じ条件で3秒速くなった >>897
wd1.3は完全にNAIと同じ術式でいけるのかな
だとしたら使い勝手も変わりそうだし再評価来そうだね https://imgur.com/RNmxVr2
danbooruタグDDIMのがよく効く気がするんよなぁ xformers速いけど仕上がりにムラが多くて辛い 1.3にしてから作りたいの(極薄透けボディースーツ)が出るようになった
https://i.imgur.com/iNtxXjl.png >>897
えっそれローカルで出してそんなに本家に近いの? >>894
_使うなって単にトークン数が無駄になるだけ? それともタグのノイズになって明らかに画像の出来に影響する?
英語苦手で原文読めないから聞きたい small breasts
https://i.imgur.com/obJAt8U.png
small_breasts
https://i.imgur.com/05vXk6V.png
_があると言葉通り取ってくれないっぽい?
deep danbooruするとアンダースコア付きだから外すのが面倒 1.3の文法に従ってみたら確かに構図はよく伝わるようになったけど、調整しても1.2の顔が出なくなってしまった。 >>897
えっそれローカルで出してそんなに本家に近いの? >>907
プロンプトの変化について書かれているのはリリースノートのプロンプトの項です。
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1#prompting
見ての通り詳細に書いてあり、口伝にまかせず、ぜひ読むべきと思います。
912様のガイドのとおりdeepLはとても役に立ちます。
あなたの質問の直接の回答はありませんが、まとめてある部分はこう書いてあります。
最後の項目が回答に相当するかと思います。「使うな」です。
Overall, to get better outputs you have to:
* Add more tags to your prompt, especially compositional tags. A full list can be found here.
* Include a copyright tag that is associated with high quality art like genshin impact or arknights.
* Be specific. Use specific tags. The model cannot assume what you want, so you have to be specific.
* Do not use underscores. They're deprecated since Waifu Diffusion 1.2. 今はChromeの翻訳機能のおかげで英語なんてあってないような環境になってるじゃん >>908 >>912 >>913
翻訳してみたら、使わないでください
廃止 となっていたので使わないほうがよさそうですね
deepLで_抜いてから使うことにします waifu1.3は「,」多様でトークン圧迫しまくって細かい指定を省かなきゃならなくなりがちだから、
1.4のトークン数拡張楽しみだね レス数が900を超えています。1000を超えると表示できなくなるよ。