【StableDiffusion】AIエロ画像情報交換20【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換18【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679322640/
【StableDiffusion】AIエロ画像情報交換19【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679987880/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ5【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1679654631/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured launch.py
の256行目あたりが怪しい気がするけど
怪しいぐらいしかわからない
今日はエッチな絵を出力して寝よう… LoRAの仕組みさっぱり知らんけど、後から他のLoRA入れても全く影響を与えられない、
オーバーレイ的に上に重なる物もあるんだな torch2.0にあげて早くなったぜと思ってたんだけどブラウザ下は1.13のままだった。プラッシー!チクセウ >>568
ちょっと前にローカルでやった時に
確認では2.0.0+cu118なのにwebuiの下がtorch: 1.13.1+cu117になるって全く同じ症例で悩んだけど
一旦venv削除してwebui-user.batのset COMMANDLINE_ARGSの下に
set TORCH_COMMAND=pip install torch==2.0.0 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
の一行入れて動かしたら全部新たに入れ直してくれて治った
colabはよくわからないけど、単に場所と機器借りてるってだけで、同じ考え方でいいんだっけ >>581-582
何が嬉しいって同プロンプト同seedで完全無欠で同じ画像が出るのよね、ビューワでファイル切り替えてもわからない
--xformersって速度のためになんか犠牲にしてるのか毎回微妙に変わるので細かいところまで求めてると当てにならない torch2.0は3060だとwsl2でも速度落ちるしで40系専用みたいだな 小学校の時の女子の制服を思い返しながらプロンプトに入れてガチャしたら性癖の思いで箱を開けてしまった 3060のtorch2.0.0で速度2割上がったよ >>590
アスカベンチ何s?
落ちたって人しか居ないから貴重なサンプルじゃん
環境をnovel wikiに書き足しとくべき >>591
wikiみたら普通に3060+2.0.0で結果貼ってる人が4人いるけど・・過去なんかあったの?
秒数も自分とだいたい同じ42秒
ただ1.13で40秒とか載せてる人もいるから、まぁ・・自分の環境では2割アップは間違いない >>558
一応かき分けできてると思う
https://majinai.art/i/PiK8xeY
https://majinai.art/i/PiK8xeY.webp
だめ押しで設定画面
https://i.imgur.com/JiX7siS.jpg
extensions>check for updates後でも再現できんかったら更新失敗かものしれんので入れ直してみて
宣伝ぽくなってるのはすまん、すぐ用意できるのこのキャラのしかなかった >>592
それ遅い
古い環境のxformersなら40s台
tomeでちょい早くなるけど書き込み甘くなるのがなあ なるほど
なんか遅かったのを2.0.0に上げる際にあれこれ弄ってるうちにミスってたのを直してたまたま早くなったように見えたのか
まぁでもxformersは嫌いなんでトントンだから丁度いいわ torch2.0 sdpで速くなるのって40x0系の話なんでそ
現状でも速すぎて人の処理が追いつかないから適用する気にならん
学習始めたらたぶん試すけど tomeっての試したら2割早くなったけど、生成画像が許容できないレベルなので却下w
劣化じゃなく完全に悪い方向に変化してる sd_scriptsの学習もtorch2にしたら速くなるんかな
元環境がxformersでメモリ抑えてるみたいだからバッチサイズの関係で逆効果になったりすんのかな torch: 2.0.0+cu118、python: 3.10.9にしたんだけど
launch.py: error: unrecognized arguments: --opt-sdp-attention
ってエラーが出て--opt-sdp-attentionが使えない
--opt-sdp-attention無しなら起動できるし最下部で2.0.0+cu118になってるのも確認した
webui-uder.batの6行目は
set COMMANDLINE_ARGS=--opt-sdp-attention --opt-channelslast
だから記述は合ってると思うんだけど、これ何が原因なのか分かる人いたら助けてヘルプ いくつかのオプションが使えなくなってる報告はあるね
必要なくなってるものもあるし >>600
肝心のweb-uiそのものがそのオプションに対応してない時代のめっちゃ古いやつのままなんてことはないかな? >>586
導入の1回目だけ記載すればいいのですか? 顔の前で両手で精液を受ける構図に使われてるLoraが見つからん…
プロンプトでcum on handsとかで他と組み合わせれば良いんだろうけど、指がどうしても奇形になるからLoraで大分マシになるなら使いたかったんだが >>605
はい
でもそのままにしといても勝手にチェックして無視するから、別になにも変わらないよ 7歳の息子にローカルを触らせたら、みるみる内に英語が上達していくんだがw
「arm behind backは?」って聞いたら「腕は背中!」って即答できるし
「脚を拡げるは?」って聞いたら「スプレンディングレッグズ」って言える。
ありがとうAI学習 >>582
情報ありがとう
うちの4070Tiでも2.0.0入れて--opt-sdp-attention を試してみました
512x512 1girl生成で
1枚
Time taken: 1.69s
10枚
Time taken: 12.97s
前はxformers で15秒くらいだったから体感できるくらい速くなりました >>608
愛液の量に不満があるんだけど増やす呪文を聞いておいて下さい >>606
Civitaiにあるcupping hands conceptじゃだめ? MetaのMake a videoあたりが一番動画技術進んでる感じなのかな?
https://makeavideo.studio/ OpenAIも画像生成のベータ版やってるんだね
DALL-Eっていうモデルかな?
> DALL・Eベータ
> DALL・Eは、自然言語の説明からリアルな画像やアートを作成できるAIシステムです。 現在、与えられたプロンプトを使用して、特定のサイズの新しい画像を作成したり、既存の画像を編集したり、ユーザーが提供した画像のバリエーションを作成したりする機能をサポートしています。
> 現在API経由で利用できるDALL・Eモデルは、2回目のDALL・Eで、オリジナルモデルよりもリアルで正確で、解像度が4倍高い画像が生成されます。弊社のLabsインターフェイスまたはAPIを通じてお試しください。 >>614
あ、これならイケそうかも。ありがとう、後で試してみるわ >>613
ネタか知らんが、saliva、唾液を強調したら下が増量された >>586
寝てて気がつかなかった
サンクス
Python3.10+Pytorch2.0でA1111使うとダウングレードされる問題って海外でも指摘されてた
colabはデフォルト環境がPython3.9+ytorch2.0に更新されたので(3月初め頃?
このあたりから問題が指摘されだしてる
yuuyuublogのひとがPytorch2.0用の最新xformers導入をブログに書いてる BatchSizeって増やせば早くなるってわけじゃないんだな
1で55秒
2で90秒
4で360秒だったわ
2くらいがいいのかしら そらvramとかによるんじゃないか
自分はプラセボかもしれんがbatchサイズ増やすと質が下がる気がするので偶に試す程度で大量に回すときは使わんけどな 素人目では全部VRAMオンメモリなら極端に効率落ちることなさそうに思うんだけど
VRAM不足分をメインメモリに逃がしてどうこうみたいな処理でも働いたりしてるんかしらね MultiDiffusionって
MultiDiffusion with Tiled VAE って拡張子のことでいいの? >582
4070tiでアスカベンチが50sだったのが20sに。PCIe3.0だからあきらめてたけど、thanks クソデカ下半身3分の2にする方法プロンプト教えてくれ
縮小してi2i毎回はしんどい >>622
メモリもそうだけど計算の方も並列に処理できる限界があるんじゃない? 流れブッチですまんけど
以前にここか技術スレのほうで話題になったLoRAの最適Weightとかの
追加情報をA1111上で確認する方法について
以前はサムネイルの画像に直接テキストで書くという方法を
紹介したが、もっと簡単便利な方法を見つけた
Civitai Helperで追加される「〜.civitai.info」というファイルを
テキストエディタで開いて7行目辺りにある
"trainedWords": ["〜", "〜", …]
の「〜」の部分に必要な情報を書き込んでおけば、サムネイルにある
電球アイコンをクリックしてプロンプトのところに書き出しできる
例えば、
"trainedWords": ["<lora:loraname:0.6~0.8> "trigger", "#option trigger"]
と書いておけば、電球クリックでプロンプトに
<lora:loraname:0.6~0.8>, trigger, #option trigger
と追加されるので、不要な文字や#等を消せばいい
この方法の最大のデメリットは、Checkpointでこれが使いないことだが
数が増えやすいLoRAで使えるからきっと役に立つはず weightはMultiplierの設定をVAE選択みたいにUIにTOPに出した方がいいと思うわ
軽く8000超えてるcivitai.infoは弄る気はしないしな〜 >>582
これってcudnnのバージョンアップとは別なの?
https://i.imgur.com/blCaGPj.jpg
これはやったしPythonのインストールもしたしgitもやったしNVIDIAのドライバも最新にしたしCUDAツールキットもインストールしたがまだやることあるのか >>628
8000って!
そりゃ8000個のファイル全部は無理だ
たまに使うけど「あれ?これって最適値どのくらいだっけ?」とか
「確かオプションのトリガーあったけどよく覚えとらん」というような
LoRAにやっとけば便利でっせというお話なんで >>586
>>568
だけど
py3.10+pt2.0がcolabで実現できたので生成してたんだけど
依然とほとんど変わりないかも
解像度768x768
0% 0/20 [00:00<?, ?it/s]
5% 1/20 [00:06<02:11, 6.92s/it]
10% 2/20 [00:07<00:59, 3.30s/it]
15% 3/20 [00:08<00:36, 2.15s/it]
20% 4/20 [00:09<00:25, 1.62s/it]
(略)
95% 19/20 [00:21<00:00, 1.20it/s]
100% 20/20 [00:22<00:00, 1.11s/it]
Total progress: 100% 20/20 [00:32<00:00, 1.64s/it] クソ情弱おじさんだから、LoRAの自分好みのWeightとか、好きなpromptの組み合わせを書いたテキストファイルがデスクトップに置いてある >>632
クソ古いソフトだけど紙copiはいいぞメモったり張り付けたテキストまんま一行目をファイル名にして自動保存してくれる
大量の試作プロンプトとかLoRaのウエイトとかため込んでるわ >>629
別だよ
4000系の場合対応のcudnnライブラリを上書きすると倍くらい速くなるけどtorchをデフォルトの1.13.1から2.0.0にすると更に2割位速くなるって話 >>629
cudnn更新とは別、torch2導入で更に一回り高速化できる >>632
でもあれどれだっけ?
になっちゃうから、image gallery だかなんだかで管理したほうが使いやすいよ VSでフォルダーぶち込んだら
画像ファイルからプロンプト抜き出すツールでも作ってみるか >>638
1ファイルだけなら、それこそメモ帳にD&Dするだけでも見れるけど
フォルダ内全部一括で全部抜きたいとかあるの? loraのトリガーとweightは必要な範囲をスクショしといて忘れたら見るに落ち着いたわ
loraはあまりにも多すぎていちいち編集するの面倒 >>562
良いプロンプトで嫌いじゃないけど妊娠しているようになる
こんな感じで常識の範囲での控えめがいいんやが
フォト系のリアルにすると腹筋が普通な感じなって困る
あとAIが遠慮しているのかフォト系だと挿入率が下がる
https://i.imgur.com/kKnZ5ek.png
https://i.imgur.com/DgR1Eln.png MultiDiffusionで拡大したら色んな場所に顔が現れるなんだコレ >>641
こんな性癖持ってる人死刑になればいいのに(´・ω・`) >>521
このページの日本語訳とかwikiとか読んで色々ダウンロードしたんだけど、もしかしてWebUIで拡張機能ダウンロードするだけで行けたのかな…?
がんばって色々ダウンロードしたけど使ってないかも…
何はともあれ、うまく行きましたありがとう!
でも目と鼻の間が異様に空いた女の子が生成されちゃった…学習用画像選びからやり直さなきゃ… >>642
VRAM少なくてタイルサイズ小さいとなりやすい & ある程度設定煮詰めないとあちこち小人が出る
MultiDiffusionで小人が出る人が見たら、まずTileサイズ疑うなぁ
今はデフォで1536になってたきはする >>645
Encoder Tile Size 1536
Decoder Tile Size 96
デフォルトのままにしてる >>643
これわりと昔からある古典的ジャンルなんだぜ まじで タイルサイズってそっちなんか
TiledDiffusionの方のLatent tile width/Overlapと描画サイズの兼ね合いが重要なのかと思ってた 手のひらサイズの妖精に挿入して、妖精の口から亀頭がはみ出てる二次絵見たことあるわ 自作loraが明らかに脱ぎたがらない。無理に脱がすと乳首が崩壊している。
おそらく乳首を見せなかったせいで忘れてしまっている。
もちろん乳首アリの本物画像などないんだ。
皆さんどうしてます? 性癖丸出しでガンガン好みの画像生み出しまくってたけどまさか性癖による妄想のほうが尽きる日が来るとは思わなかった
結局AIさんSUGEEEEEEEEEEEだけど人間には限界があるんだな >>643
どんなヤバい画像かと思ったらただのオナホ妖精やんけ いろんな性癖と世界最新の集合知を学んでリビドー満たすコンテンツだぞ
今この瞬間を楽しもうぞ >>652
全身が出るなら服ごとイチオシの10枚くらい出力して教師画像とする(タグにwearを入れる)
生首とi2iで好みの体位で頑張って剥いた用意すると良いかも(タグにnudeとでもいれる)
正則化フォルダ1_wearに服だけ切り抜いた画像をぶち込む
LORAで煮込む
多分この手順である程度は剥けると思う >>656
あなたが神か
i2iで脱がせて教師画像生成しちゃえばいいのか
なんで閃かなかった。。
アドバイス取り入れて週末やってみます 脱がないからsee-throughでスケを楽しんでたけど
これはこれで叡智を感じたね 概念的に服を透けさせるんじゃなく、服の上に乳を半透明で描く感じなんだろうか 透けと言えば
『Prompt Editingの[cloth:naked:0.5]で透けを表現できる』
って書いてあるの見たことあるけど、コレ効かないよね? モデルやサンプラー、ステップ数に寄るんじゃない?
Prompt Editingはあくまでプロンプトを入れ替えるだけの機能でattentionの位置を共有できるわけじゃないから扱いは難しいよ そろそろ部屋30度のやついるんじゃない?
今気づいたら28度だったわw 100W65度設定で使ってるけど、夏になったら温度が即引っかかって糞遅くなるのかな エアコンは必須だと思う。
あとケースファンは積み増し。
グラボ用のエアフローファンもいる cupping hands concept、ある程度良い感じになったけど絵柄が少し好みから逸れ気味だから難しい… >>653
あきらめないで!
性癖が枯渇したら新しい性癖を開発すればいいわ! 俺も3090買ったばかりなのに完全に手が止まったわ
巷に少ないローレグパンツを見られるだけで満足してしまって、性欲も明らかに尽きかけてる 買い急ぎすぎたのかなw
50xxのニュースとか出てるけどこの先どうなるんだろう >>665
これはどうですか
Bukkake LoRA・https://civitai.com/models/16722/bukkake-lora
トリガーの重み1ではあまり効果がなく、1.3ぐらいにすると精液が表現されます 久しぶりにXYZpromptでモデル一覧的な物出してるけど、独自性あるの少ないなぁ
調合レシピが書かれてる代わり映えの無いマージモデルはDLしてないんだけど 自分のやりたいことだけやってると
単調になるから人からお題とかもらってる
いろんな変態がいるんだなぁと ColabでStablediffusionを動かすとき、同じCivitaiからのモデルのダウンロードなのに
早いのと遅いのがあるのはなんでなんだろう
50kb/sとかで全然ダウンロードできないモデルがあるんだけど >>635
torch2.0導入できた!
けど導入前のxformers有効化と比べるとほぼ変わらん速度なんだがこんなもんか?
4070ti程度じゃ恩恵少ないとか? >>672
Civitai自体が割りと不安定ってのもあるし、GB単位のファイルをダウンロードするなら
wgetの代わりにaria2cの「分割ダウンロード」使うとか、よく使うモデルは Google Driveに置いといて
Colab環境からマウントするとか。 制服でセックスさせようとすると高確率でスカートの高さが10〜20cmくらいになってしかも腰から上にしかなかったりする
かと思えば前側にだけあったり左右に分かれていたりとまともに描かれているの少ないんだけどど
うすればちゃんとしたスカート履いてくれてスカートの上からチンチン当てるんじゃなくまくってまんこにチンチン突っ込んでくれるというのか
ロンクスカート指定してようやくミニスカートになるのが増えたけど
いちおうモデルはAOM2_nsfwにしてる medium hairだと短くてlong hairだとながいからshoulder-length hairってすると肩口くらいのいい感じになるんだけど打ち込むの長い上に打率が低いんだよな🥺 >>669
手で受けるのをやりたいから微妙に違うけど教えてくれてありがとう
試してみるよ >>673の書き込みを見て、全てが理解出来てないけどtorch2.0でSDPA有効化したらアスカベンチ20%早くなったわ
3090でも早くなって嬉しい controlnetのopenpose棒人間を編集したいんだけど
棒人間のpngファイルだと編集ツールに読み込めないっぽい
jsonファイルで保存させるかファイルを変換する方法はないでしょうか よく分からん
弄ったPNGはEditorじゃなくControlNetにD&Dするもんじゃないか >>673
まぁ劇的に速くなるわけでは無いけどうちの4070Ti環境ではxformersよりは速くなったよ
sdpの起動オプション付けてないとかじゃ無いよね? ■ このスレッドは過去ログ倉庫に格納されています