【StableDiffusion】AIエロ画像情報交換20【NovelAI】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換18【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679322640/
【StableDiffusion】AIエロ画像情報交換19【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1679987880/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ5【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1679654631/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured >>520
まず実行周りが怪しい気がするけど、他人のlora入れて色々試したことあるなら問題ないかな
自分も同じ経験したけどコマンドプロンプトの方見たら画像作成時にエラー吐いてて、Locon/lohaでやるときは拡張機能入れないとダメってオチだった
https://github.com/KohakuBlueleaf/LyCORIS#for-kohya-script loraの一連の操作が面倒になってきたのでヤケクソで呪文の中にloraとかchilloutmixとかをぶっこんでみたら意外と好結果だった >>519
Regional PrompterがほぼLatentcouple+ComposableLORAのように使えそうな感触があるよ うんこはうんこlora使うよりi2iスケッチで茶色を書いて呪文にうんこ、うんこselfを入れた方が打率自体は良かった。loraのが枚数作るのは楽だけどね。しっこも同じ 自分で好きなアイドルLoRA作ったら精子が枯れた
これはいかんですよ ずっとちんぽが出難いと思ってたら、ベースにしたNGに亀頭を指す単語が入ってる事に気付いた
これのせいだったのか? >>521
Lohaでやってた!拡張機能知らなかった…ありがとうございます。
仰る通り、他人のloraは問題なく機能しているので、帰ったら拡張機能入れてやってみます。 >>525
https://i.imgur.com/j5xwNDh.jpg ポーズ
https://i.imgur.com/UQneUVu.jpg LoRA無しベース+5等分線
https://i.imgur.com/wjkR6w8.jpg LatentCouple+ComposableLora 一発
https://i.imgur.com/0Bm53n1.jpg Region キャラLoRA1.0、Feather0.2
https://i.imgur.com/dcR7spf.jpg LoRA1.0、Feather0.1
https://i.imgur.com/vDhj6Dj.jpg LoRA2.0 Feather0.2
https://i.imgur.com/9Ty9DIC.jpg LoRA2.5 Feather0.2
https://i.imgur.com/SOQxpW6.jpg LoRA2.2 Feather0.2
その後タイル設定やプロンプト自体を弄ってみたりしたけど、TiledDiffusionの習性は別にしても
リージョン毎のまとまりと言うか堺がどうにもならなくて弄れば弄るほど無理なんじゃないかと言う気になってくる steam統計で3060のシェアが一気にトップに躍り出たみたいね
今はAIお絵描きの後押しも大きいだろうけど
このまま12Gがデファクトスタンダード化すれば革ジャンも今後の下位モデル考え直さないかな SDも第一人者の学者を真っ先に高給で囲った革ジャンの掌の上の事だろうから、
元から計画の内で考え直すとか言う事は無いんじゃないのか civitaiで日本語のモデレータ募集してるで。フルタイムで無くても良いらしい。
https://forms.clickup.com/8459928/f/825mr-5788/A7BKCXXPVDOT3DR420
暇な奴行って「あっ、日本だとアレもコレも全部オッケーなんで!」とかやってくれ。 アニメのキャラLoRA通すと、損害賠償被せられたりしないの civitaiにポイズンのLoRAが来てるけど、ちんぽ込み画像学習してるのかな! >>532
一説によると今まで統計で入ってなかった中国勢が入ってきたらしい
中国人個人とネカフェ分ね >>531
どの構図でもホムラちゃんは真面目だなw
面白そうだから俺もやってみたいな
プロンプト教えてください >>537
やだ恥ずかしい!て事で試してみたけど、どうもLatentにしてもLoRAが全体に掛けられてる様で
原因が分からない 最新版じゃないと駄目なのかな
>>539
openposeから使ってるからプロンプトだけじゃそのまま再現出来ないけど何がしたいの もっさりけつ毛でうんこ出してる結果が欲しいのになかなか出ない
黙々とやってるうちに性欲なのか探究心なのかわからなくなってくるわ >>542
でも抜いたあとだと探求もしないのでやはり性欲が原動力 ここの紳士の方々なら当然VR機器も持ってて
Virt-A-MateやコイカツやCM3D2などプレイ済みですよね ステレオ画像は好きで3DデジカメやEPSONのMoverioて透過型両眼HMD、LumePadって言うわりと新しめの3D液晶タブレットは
持ってるんだけど、VRは初期投資のハードルが高くてノータッチだわ
3060で一式組んだから、ゴーグルさえ買えばそこそこの画質で出来るのかな? >>534
いやいやエロニート達はお断りされるかも >>545
1080無印でVR遊んでたこともあるから行けると思いますよー
VRエロゲーは世界が変わるヤバイ
ヘッドセットはQuest2がオススメ >>545
3060でAlyxやったけどさすがに若干重くて画質ちょい下げたわ
でもまぁ普通に楽しめる
VRカノジョとかイリュージョン系も問題なくいける MetaQuestは今年の後半(秋頃かな)にQuest3が出るとの噂なので待てる人は待つが吉かと
俺は発売日にQuest2を買った口なのでQuest3も発売日に買うつもり
…QuestPro?知らない子ですね。あれは技術デモ機の意味合いが強い上に為替の影響がなぁ depth生成が出来るんだからそれ利用してVR立体視生成とか出来そうよな
実写系モデルでクリーチャー出た時にガッツリ精神削られそうだが >>550
プロンプトに立体視入れると出るって聞いた >>550
既存の2D画像を解析して後から作るのと変わらない感じでイマイチだった >>552
あらまそれは残念
VRAIメタバースが出来るのは何年後になるやら そういやブラウン管モニタにアナログRGBと組み合わせた3Dメガネ使ってたな >>541
openposeは画像から取れるからプロンプトが見たかった >>555
特に何もしてないぞ
(masterpiece:1.4),(best quality:1.2), (5girls:1.0), (young age), (side by side), (tight rubber rainbow color body suits),
(mining site), (cliff), (sun light), (from below)
AND
(masterpiece:1.4),(best quality:1.2), (5girls:1.0), (young age), (side by side), (tight rubber rainbow color body suits),
(mining site), (cliff), (sun light), (from below),
<lora:mamiTomoePuellaMagi_v10:1.0> mami tomoe
AND〜4人分
ベース画像の時にラバースーツ着せたけど、LoRA被せる時は外した方が良かったかも >>541
Updates
New generation method "Latent" added. Generation is slower, but LoRA can be separated to some extent.
なので最新じゃなかったら更新してみて https://i.imgur.com/A0OHrWF.jpg
RegionalPrompterはLatent側にしてもLoRAが全体にかかってしまってAttentionとの違いが無く
LoRA0.35迄下げてなんとか破綻しない位になったけど、何か既視感を覚える衣装だね!
>>557
Latentの項目はあるんですよね…
WebUIを最新版にしたら有効になるのかな
ちゃんと機能すればLatentCouple+ComposableLoRAより楽そう 直径30センチぐらいの少し大きい目のものを挿入してお腹の形をぼこってさせたいんだけど
イラストだと理想的にできる。フォト系だと全然ダメなんだ うまい方法なんかないかな? 立体視ではないけど360度パノラマできるやつがありますね。
360-diffusion-lora-for-sd-15
latentlabs360 (こっちはあまり使いこなせてない)
キャラクタを狙った感じに出すのは至難の業だけど、crowd of girlsに囲まれたりする遊びはできる。
※asymmetric-tiling で切れ目なし
※sd-webui-panorama-viewer でVR不要のプレビュー >>558
今から仕事なんで後で自分の成功例majinaiに貼ってみるよ >>559
お腹ぼこは hyper-penetration-stomach-bulge とか?
理想が何かはわからないけれど。 洋ショタ美少年をサイドテールにしてふんどし履かせてポーズ決めさせるの最高に捗る 腹ボテは小学生入ったくらいのサイズのX-RAYまで結構な数あるから
とりあえずLoRAいろいろ試すのがいいと思う 紐をほどいたビキニを手で押さえてるやつって、ズバリそのもののタグあったりする?
microbikiniにhalf undressedとhand on breastでガチャればたまーーーーに出るけど、もっと欲しい >>559
civitaiのビール腹LORAはどうよ AOM2_nsfwでHires. fix有効にすると明かりの無い暗い部屋の窓から
直射日光で照らされて影が濃い感じがものすごく強調されるな
ネガティブに(shadow:1.6), (sunlight:1.6), (backlight:1.4)と入れてみたけど
あまり効果が感じられないからポジティブの方に(light:0.2)と入れてみたら
ちょっとマシにはなった気がする
あと偶に女の子がケツを上げてる時に頭の方から見てるのに
尾てい骨より上に坂本勇人が見えるんだよな 誤爆したのでこっちにもう一度
Python3.10+Pytorch2.0+cu118の環境でAutomatic1111(git最新版)を起動すると
PyTorch 1.13+cu117をダウンロードしてインストールしてるようなんだけど
この状態で起動した1111ってPytorch1.13を使用してる?
(Python3.9の環境で実行するとダウンロードはしない)
print(torch.__version__)
で確認すると
2.0.0+cu118
とは出るんだけど
実際の実行時はどっちなのかが気になる webuiの最下段に使ってるtorchのバージョン出てなかったっけか >>569
サンクス
やっぱダウングレードされてた
python: 3.10.6 ??? torch: 1.13.1+cu117
おそらく見に行ってる先が古いバージョンなんだろうけど
実行時にダウンロードさせなくする方法はないものだろうか >>568
Automatic1111は仮想環境(venv)上にインストールしているので
その環境では torch 1.13+cu117 が入っているってだけでは Automatic1111のv1.0.0-preで入れるとpython: 3.10.10が入っていてもpython: 3.10.6をダウンロードしてくる
よく言えば使う人間のポカミスを防いで安定利用できる環境ともいえるけどね
最新環境使おうとするなら別フォルダに1からgit cloneして最新版はgit pull origin masterとかして追いかけたほうが管理しやすい >>571-573
サンクス
情報が一つ少なかった
これcolab上でやってるんだけど
Python3.9を3.10にアップグレードした上で1111動かすとこうなる
自分がPythonの仕組み理解し切れてないのが問題なんだけど
もう少し試行錯誤して駄目そうならまた聞きます >>568
webuiのブラウザ画面の一番下に使用中のが出てるよ
んでxformersはダウングレードしようとするから使用禁止だったはず
wiki参照してみてくれ 無理にバージョン上げなくても問題なく動くよね。
そのまま使えばいいじゃないか。 少し前にTorch2.0に上げたけど正直違いがわからん
以前の記憶が飛んでるだけかな うーんここしばらくi2iレタッチでしこしこ作った素材で学習させてみたら
パンツの形状はともかくrealisticでもillustrationでも質感が糞みたいになってしまった
リアル系素材に混ぜるにはイラスト系512*768で再生産した画像はそもそもの精細感が足りないのか PyTorchのバージョンが画像のクオリティに関係あるの?
機械学習の機能や性能の違いかと思ったけど。 PyTorch2.0だとxFormersの代わりにSDPが使えて、
環境や条件によってはSDPの方がより高速に生成できる事もあるらしい Geforce4090環境でPyTorch2.0を入れたら2割ぐらい速くなったかと。 4070Tiでもtorch2.0で15%くらい速くなったよ
手元のメモだと同一条件で14.7it/s,10枚18sec→17.0it/s,10枚16secくらいに変化してた launch.py
の256行目あたりが怪しい気がするけど
怪しいぐらいしかわからない
今日はエッチな絵を出力して寝よう… LoRAの仕組みさっぱり知らんけど、後から他のLoRA入れても全く影響を与えられない、
オーバーレイ的に上に重なる物もあるんだな torch2.0にあげて早くなったぜと思ってたんだけどブラウザ下は1.13のままだった。プラッシー!チクセウ >>568
ちょっと前にローカルでやった時に
確認では2.0.0+cu118なのにwebuiの下がtorch: 1.13.1+cu117になるって全く同じ症例で悩んだけど
一旦venv削除してwebui-user.batのset COMMANDLINE_ARGSの下に
set TORCH_COMMAND=pip install torch==2.0.0 torchvision --extra-index-url https://download.pytorch.org/whl/cu118
の一行入れて動かしたら全部新たに入れ直してくれて治った
colabはよくわからないけど、単に場所と機器借りてるってだけで、同じ考え方でいいんだっけ >>581-582
何が嬉しいって同プロンプト同seedで完全無欠で同じ画像が出るのよね、ビューワでファイル切り替えてもわからない
--xformersって速度のためになんか犠牲にしてるのか毎回微妙に変わるので細かいところまで求めてると当てにならない torch2.0は3060だとwsl2でも速度落ちるしで40系専用みたいだな 小学校の時の女子の制服を思い返しながらプロンプトに入れてガチャしたら性癖の思いで箱を開けてしまった 3060のtorch2.0.0で速度2割上がったよ >>590
アスカベンチ何s?
落ちたって人しか居ないから貴重なサンプルじゃん
環境をnovel wikiに書き足しとくべき >>591
wikiみたら普通に3060+2.0.0で結果貼ってる人が4人いるけど・・過去なんかあったの?
秒数も自分とだいたい同じ42秒
ただ1.13で40秒とか載せてる人もいるから、まぁ・・自分の環境では2割アップは間違いない >>558
一応かき分けできてると思う
https://majinai.art/i/PiK8xeY
https://majinai.art/i/PiK8xeY.webp
だめ押しで設定画面
https://i.imgur.com/JiX7siS.jpg
extensions>check for updates後でも再現できんかったら更新失敗かものしれんので入れ直してみて
宣伝ぽくなってるのはすまん、すぐ用意できるのこのキャラのしかなかった >>592
それ遅い
古い環境のxformersなら40s台
tomeでちょい早くなるけど書き込み甘くなるのがなあ なるほど
なんか遅かったのを2.0.0に上げる際にあれこれ弄ってるうちにミスってたのを直してたまたま早くなったように見えたのか
まぁでもxformersは嫌いなんでトントンだから丁度いいわ torch2.0 sdpで速くなるのって40x0系の話なんでそ
現状でも速すぎて人の処理が追いつかないから適用する気にならん
学習始めたらたぶん試すけど tomeっての試したら2割早くなったけど、生成画像が許容できないレベルなので却下w
劣化じゃなく完全に悪い方向に変化してる sd_scriptsの学習もtorch2にしたら速くなるんかな
元環境がxformersでメモリ抑えてるみたいだからバッチサイズの関係で逆効果になったりすんのかな torch: 2.0.0+cu118、python: 3.10.9にしたんだけど
launch.py: error: unrecognized arguments: --opt-sdp-attention
ってエラーが出て--opt-sdp-attentionが使えない
--opt-sdp-attention無しなら起動できるし最下部で2.0.0+cu118になってるのも確認した
webui-uder.batの6行目は
set COMMANDLINE_ARGS=--opt-sdp-attention --opt-channelslast
だから記述は合ってると思うんだけど、これ何が原因なのか分かる人いたら助けてヘルプ いくつかのオプションが使えなくなってる報告はあるね
必要なくなってるものもあるし >>600
肝心のweb-uiそのものがそのオプションに対応してない時代のめっちゃ古いやつのままなんてことはないかな? >>586
導入の1回目だけ記載すればいいのですか? 顔の前で両手で精液を受ける構図に使われてるLoraが見つからん…
プロンプトでcum on handsとかで他と組み合わせれば良いんだろうけど、指がどうしても奇形になるからLoraで大分マシになるなら使いたかったんだが >>605
はい
でもそのままにしといても勝手にチェックして無視するから、別になにも変わらないよ 7歳の息子にローカルを触らせたら、みるみる内に英語が上達していくんだがw
「arm behind backは?」って聞いたら「腕は背中!」って即答できるし
「脚を拡げるは?」って聞いたら「スプレンディングレッグズ」って言える。
ありがとうAI学習 >>582
情報ありがとう
うちの4070Tiでも2.0.0入れて--opt-sdp-attention を試してみました
512x512 1girl生成で
1枚
Time taken: 1.69s
10枚
Time taken: 12.97s
前はxformers で15秒くらいだったから体感できるくらい速くなりました >>608
愛液の量に不満があるんだけど増やす呪文を聞いておいて下さい >>606
Civitaiにあるcupping hands conceptじゃだめ? MetaのMake a videoあたりが一番動画技術進んでる感じなのかな?
https://makeavideo.studio/ OpenAIも画像生成のベータ版やってるんだね
DALL-Eっていうモデルかな?
> DALL・Eベータ
> DALL・Eは、自然言語の説明からリアルな画像やアートを作成できるAIシステムです。 現在、与えられたプロンプトを使用して、特定のサイズの新しい画像を作成したり、既存の画像を編集したり、ユーザーが提供した画像のバリエーションを作成したりする機能をサポートしています。
> 現在API経由で利用できるDALL・Eモデルは、2回目のDALL・Eで、オリジナルモデルよりもリアルで正確で、解像度が4倍高い画像が生成されます。弊社のLabsインターフェイスまたはAPIを通じてお試しください。 >>614
あ、これならイケそうかも。ありがとう、後で試してみるわ >>613
ネタか知らんが、saliva、唾液を強調したら下が増量された >>586
寝てて気がつかなかった
サンクス
Python3.10+Pytorch2.0でA1111使うとダウングレードされる問題って海外でも指摘されてた
colabはデフォルト環境がPython3.9+ytorch2.0に更新されたので(3月初め頃?
このあたりから問題が指摘されだしてる
yuuyuublogのひとがPytorch2.0用の最新xformers導入をブログに書いてる BatchSizeって増やせば早くなるってわけじゃないんだな
1で55秒
2で90秒
4で360秒だったわ
2くらいがいいのかしら そらvramとかによるんじゃないか
自分はプラセボかもしれんがbatchサイズ増やすと質が下がる気がするので偶に試す程度で大量に回すときは使わんけどな ■ このスレッドは過去ログ倉庫に格納されています