【NovelAI】AIエロ画像情報交換 3【Waifu Diffusion】
■ このスレッドは過去ログ倉庫に格納されています
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可
児ポはダメゼッタイ
前スレ
【Waifu Diffusion】AIエロ画像情報交換 2
https://mercury.bbspink.com/test/read.cgi/erocg/1664246635/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
AI画像生成の是非や、イラストレーターの権利、法的な解釈に対する討論はこちらで
【Midjourney】AI関連総合6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1664642254/
次スレは>>980が立ててください ビューっと出すならmilk fountain
プシューっと出すならmilk spray
が使えそうだったんだがどっちも乳首に括り付けたら無効化されちゃってなぁ NAIのパワーに感動しました
img2img→ペイントで修正→プロンプト修正→img2img…を繰り返すだけで初めの酷いスケッチからこうなるなんて
想像以上でした
https://i.imgur.com/OXUdFJZ.png >>342
こりゃスゲェ・・ちょっと絵心あるけど絵描きになれない人たちが一気にブーストみたいな >>342
https://i.4cdn.org/g/1664985841528910.png
こんなのもあったぞ。このラフから出力できるんだからマジで凄いな
絵が描けなくても欲しい構図の高クオリティ二次絵が手に入るって言う
waifuとかだとラフの影響をかなり受けてしまうし、
それを避ける為にDenoiseStrength上げると構図が相当変わっちゃうからな みんなNAI使ってる?
見てくれはいいんだけど絵柄変えられないのと乳首とチンコがいじりようがないのってなんとかなるの?
薄くしたいなと思ってlight nipplesとか入れても変わらん
https://i.imgur.com/GjNIRM8.png NAIでもSDのようにimg2imgで画像改善できるん?
やり方がわからん NAIはあいまいさの部分が狭すぎて出来がいいものほど版権っぽいので遊べても貼れないわ(´・ω:;.:...
WDの奇形修正した後の方が安心感があるのには困ったもんだ はぁ日本でもモザイク廃止なんねーかな
署名もなかなか進んでないっぽいし 通常のノーマルでもAnalas減ってるんだが原因わからんかな
最初9000あったが3000へって怖くなってきてる DreamBooth使ってる人おる?
調べたらPythonやいいグラボ必要でハードル高いわ >>354
colab、無料でも8bitadamっていう精度に大分難ありなoptimizer使えば12GB動作いける
有料colab使えば現状一番論文実装に近いものも動かせる DBの結果知りたいだけならもう何個か対応済みのモデル出てる a upper body shot, a oppai loli girl is standing in the room has a window, her both hands are (touching her gigantic breasts),small penis shota, paizuri,breastfeeding, the spilt white cream is on the nipple and
((dripping down)), highly detailed game cg, rimlight, depth of focus,
Negative prompt: nose, lips, pablo picasso, glass, bottle, masculine
肝心のショタのおちんちんが無いのが惜しい
https://i.imgur.com/pOptiAH.png
https://i.imgur.com/YV6qn1y.png
https://i.imgur.com/L8u7NQL.png
https://i.imgur.com/TnrzKOY.png prompt職人に朗報
1111版にAND構文追加で、実質的なトークン上限消えた
a AND b AND c ってしたとき、a,b,cそれぞれに75トークン使える ネガティブの応用みたいなもんか
あれもプロンプトで75、ネガティブで75使えてたもんな
ただ効き方多少変わりそう おお?danbooruのタグを丸々コピペできるようになるんか? >>359
後半になるほどトークンの効きが悪い
ってのはこの場合どう適用されるんだろうな
各パーティションごとに文頭から、になるんだったらありがたいが 1111の更新履歴ってどっから見れたっけ? 他にもいろいろ変わってるっぽい 今さっき最新版に更新してテスト
and付けても意味なくて75を超えた分は切られて出力に一切変化がないことを確認した >>363
>>359の説明読む限り、各パーティションごとに文頭から
だけどパーティションが増えるほどパーティションが平均化されるから効きも弱くなると思う
だから絶対に効かせたいパワーワードは全パーティションに(())つけて入れるという感じになるのかな andは大文字だけっぽい。()とかと同じ扱いかな。 waifu1.3、もしかして正式リリースなった? epoch表記無いのがアップされてるけど >>366
大文字AND表記のみな? andは今までどおり >>369
finalと書いてあるんで正式版と思われる >>367
アイデア提唱もとの説明によるなら、主題 AND ディティールや副題、作風 かな?
提案元の例を見ると 曇り空 AND 山の陰影 AND 山の周りに咲く桜 見たいな感じで使ってる
AND構文前提にしたpromptの必要はあるだろうけど、トークン消費の多いディティール周りはANDで隔離しても行けそうな気がする グラボによるかもしれないけどうちの環境だとAND使うと生成時間が1.3倍ぐらいになるな。ANDが3つで時間が2倍ぐらい ANDが何か仕事をしているのはわかったけど、どう効いてるのかまでは確認できんかった。
というか、ANDの前のオブジェクトが消えるw 1.3、e9から変えたら破綻したモデルが出来やすくなったような
もうちょい試してみるか ANDの後に付けたら効果あったけどおっぱいが消滅した何ぞこれ
かなり工夫しないといけない感じだな、そしてめっちゃ遅くなるわ ANDのやつ、とりあえず、SD1.4で試した
効果はあるけど時間も増えるのね。実質的にトークン数増えるからか?
a upper body shot , AND a beautiful woman with red hair AND blue eyes , AND in yellow dress
https://i.imgur.com/cWRfjiC.jpg 大体の話だけれども、何をやってるかというと
「青い空 AND 赤い花 AND 白い服」とすると
青い空かどうかの評価がかかり
赤い花かどうかの評価がかかり
白い服かどうかの評価がかかる
なので指示通り描けてるかの評価と補正処理が3倍になり遅くなる
その代わり「青い空と赤い花と白い服」と書いたときに出る白い花や青い花は根本的に評価対象外になるので出にくくなると
そして、評価が分割されているので最初に評価された青い空はそもそも要素として薄くなり赤い花を持った白い服の女の子だけ出てくることもありうる
評価の順番は違うかもしれないから実際にやって並び替えてね composable diffusionってやつなのか
https://energy-based-model.github.io/Compositional-Visual-Generation-with-Composable-Diffusion-Models/
同じ位置にあるもの同士をANDでつなげるとダメなことが多いらしい
「10yo girl AND 90yo man」なんてするとANDの前後どっちも真ん中に描かれる率高いから、結果は幼女と老人の融合体になる
だから混じらないように具体的な部位や位置指定したのをANDでつなげるのがいいみたい
wide angle view of tree AND a 10yo girl stand on right of tree AND a 90yo man stand on left of tree」みたいなのだと融合・・・するじゃん!
>>380みたいな使い方がいいね。人増やそうと思ったけどだめだこりゃ 人And服And人 みたいに間にいっこクッション入れたらどうなんじゃろ サンプリングする時にプロンプトをANDで分けて別々に渡してるのね
かなり遅くなるし乱用は出来んな プロンプト制限あるけど制限までにした場合と制限以上に伸ばした場合で結果が全然違うんで実質あってないようなもんなんじゃ 神アプデかと思ったが、内部的にはずいぶんトリッキーなことをしてるのだね
うーん プロンプトの単純な延長としては全く向いてなさそうなので
独立した複数のプロンプトに再構成するようなテクを使って新たに何か作る方向の方が良さそう
色やら何やらアレコレ混ざり合うのが嫌だった人には確実に福音だけど >>119
>>269の方、ありがとうございました。新しい世界がみれました {{photoreal}} {{masterpiece}}, nsfw, loli, small fairy, flat chest, semilong wavy blonde hair, spread legs,Crowded train with many people 今更なんだけどWDに書いてあるfloat16,float32,opt,通常、4つのファイルの違いってなんなんだ? optはトレーニング用データ込
使われないデータ入ってるだけ >>388
数年前にやったエロゲの絵師やってたな… 16,32は計算時の小数点の桁納める変数枠サイズの違い
32bitの方が当然細かい値まで保持できるけどそもそもそこまで小さい値が影響あるのって感じなので割と誤差範囲
他の画像生成以外のAIなら重要かもしれんけど 音声なんかはすっごい効きそうだけど、画像の場合は色空間ぐらいにしかあまり効かない気もする。 Waifu V1.3
ちょっとしたプロンプトでこれ出てきたので神アプデだと信じたい。
https://imgur.com/a/dX3tlyw
1.2はこんな感じのだすの結構大変だったイメージ。 >>348
���ꊮ�S�ɖ^Vtuber�C���X�g�̂Ԃ����������� >>348
���ꊮ�S��Vtuber�C���X�g�̂Ԃ���������� NAIと同じ路線で簡単なプロンプトでもそれなりのクオリティを出せるが、1.2の感覚でこねくり回したプロンプト突っ込むと何これになるのはβから変わらなかったか。そういう使い方するならマージ前提になるね。 >>348
これ完全に某vtuberイラストのぶっこ抜きだな 未知のAIがわずか数行で人間の言葉を理解した感ある Waifuの中の人がNovelAIのおかげで覚醒してくれた感じあるので、感謝感謝。 NAIはCCさくらとかあからさまなロリキャラ保持してなかったけど
新しいWaifuはロリキャラ対応どうなの? やっぱwaifuが目指すところはNAIと同じ方向なのね
汎用性を犠牲にしたdanbooru特化型
ありもしない三次エロが作れるからこそのwaifu様だったのだが、そういった使い方はここでは少数派なのだろうな
1.2を使い続けるか、良い配合モデルを模索するか
うーん NAIみたいにモロだし合体してるようなエロ画像生成できるモデルきたら起こして 1.2は1.2で生き続けるよ
今も1.3動かしてる傍らで全裸パーカーロリ巨乳絵を作り続けてるわ NAIと完全に競合したら分が悪いと思うけどな
多機能エロAIモデルとして進化して欲しい 実写方面への伸びが弱いんだよなあ
二次元に興味ないからそっちも革新的な何かが起こってほしい 人気のないローカルキャラで妄想絵作りたかったらNAIってのを使えばいい? アイコラみたいなら自分で書いた方がはやいんだけど
キャラクターを覚えてもらってあーしてこうしてって注文出来たらいいなぁくらいの感覚でスレ見てるんよ 覚えてもらうならdreamboothってのを使うといいよ
NAIではまだ無理だな 今だとみんなノベルAIの方いっちゃってるな。WDは安定しなくて難しいんだよな hentai diffusion使えるか試してみたけど、学習させてるサイトの絵が海外向けの絵な上に質も低いから使えなかったわ… 8GB以下にいる俺としてはありがたい
ちょっと前にこれからのアップデートは13.5GB以上必要が普通になるかもとかどこの石油王の話だよって脳死してた(笑) NAI弄ってるんだけどnsfwの位置変わるだけでかなりイメージ変わるね
求めてるシチュに応じて変えるのが大切そう
https://imgur.com/a/VzNtdvG
左: hatsune miku, dancing on stage,nsfw
右: nsfw, hatsune miku, dancing on stage なんJ過去スレ含めてざっと見てきたが、すごいな
二次エロはぶっちぎりでNAIだね
WDじゃ勝負にすらならん novelAIで男一人と女一人のキャラを同時に出したいときに、それぞれのプロンプトをどうやって区別させたらいいんだろう?
例えば女だけlong hairにさせたい時とか novelAIで画像サイズ上げたいときって、opusプランに入らないとだめ?
1024px以上の画質にしたい。 寝て目が覚めただけで浦島状態になってたんだが???
やっと追い切れたと思うけど、直近の動きまとめるとこんな感じ?
・Waifu Diffusion1.3のfinal版が公開(ただしプレビュー版でまだ学習中。正式公開は8日?)
https://huggingface.co/hakurei/waifu-diffusion-v1-3
・Automatic1111版がプロンプト分割(Composable-Diffusion?)に対応。大文字AND表記で表現力が強化
>>359 >>382
・Dreamboothを8GB以下、TextualInversionを6GB以下のVRAMで動作させられるようになった
>>418
・Googleがimagenベースのtxt2videoを研究中と発表(驚異の1280x768)
https://imagen.research.google/video/
finalなのに学習中ってのがよくわからないよhakurei-san。最適化処理とかなんかあるんですかね? >>426
解決しました!
すみません、文章ちゃんと読めてなかったです... >>427
> finalなのに学習中ってのがよくわからないよhakurei-san。最適化処理とかなんかあるんですかね?
リリース原稿書いたりしてるから発表してないだけで、1.3のckptは完成。ダウンロードして存分に使ってくれ。
ってDiscordでかふぇさんが言ってた。 毎日マイニングもどきのガチャ回してるけどさ、
テスラの自動運転やロボットは8GBのメモリで動き人間の脳は20W程のエネルギーで動くという
なんで絵一枚描くだけでグラボをぶん回さなきゃならないんだ?
やっぱアマチュアのAIではプロの設計や生命30億年の歴史には敵わんのか そりゃ、まだまだシェイプアップが進んでないからだ。
Emadだって最終的には100MBぐらいにまで圧縮すんぜって言ってたじゃん。 >>431
むしろプロの設計や生命30億年の歴史に比類するものを家庭用PCのグラボぶん回しだけで生成できるのならそれはものすごいことだと思う。
これが一般人が手が届く価格で一般家庭に設置できる電子計算機(古語)で実現できるって凄いことだよ。
自分たちは未来に生きてる、本当に。 1.4来るの今までのペースでどのぐらいなんだろう
1.3までは文字通り日進月歩だったけど来月には来るのかな データ量次第だろうけどかなりハイペースよね
中の人たち倒れないといいけど フォトリアル系の絵ならワイフが圧倒的
アニメ系の絵ならノベルAI
こんな感じだな >>348
名前が出てこないけど見たことある…
はぁ……はあ……あ! 1.4は1.3のep5から別フォークのノリで作ってく感じなので、思ったよりも早いかも知れない。
ハードの増強が半端ないし。 ■ このスレッドは過去ログ倉庫に格納されています