【StableDiffusion】AIエロ画像情報交換25
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換23【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682840437/
【StableDiffusion】AIエロ画像情報交換24【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured まぁ、手探りで触ってたりすると機能の詳細知らずに使ってることもあるよね
一つ便利な機能?をご紹介
落としたLoRAを長らく放置してるとCIVITAIの配布ページが消えたり、
そもそもどこから落としたかもわからないLoRAが多くなる事、よくあると思います
そんなLoRAのトリガーワードが分からなくなった際には
花札ボタン押下→対象のLoRAにカーソルを合わせると右肩に出てくる丸で囲んだ i のボタンを押下
で、そのLoRAが学習に使用したタグを確認することができます
基本的にはトリガーワードになるようなタグは比較的多く学習に使用している筈なので、
タグの横の数字が大きいものをプロンプトに使えばLoRAを活用できるようになると思います >>169
VRAMが足りないんだわ・・・
3060 12GBと、12世代のi7、DDR5 32GBメモリ、1TB NVMe 2枚(OS用、SD用)買ったけど
SD以外の環境移行が時間がかかるし、当分先になりそう。 Lora選ぶ時にトリガーワードも一緒に確認できたらいいんだが
そういうのメモ出来たりする拡張ないんかな 自転車パンツ途中経過
https://i.imgur.com/cCSReDj.jpg
下着の立ち絵を生成して制服を着せるのは割とすんなり出来た
が
自転車をワードに入れるとスパッツをはくようになる
ネガティブにスパッツを入れて回避(回避できないこともある)
乗れそうな自転車を生成するのは難しい
もう5時か… >>171
だから RTX 3060は12gb しかないんだから
少ないと分かったら RTX 4090を帰って
このスレでも散々言われてるでしょ
あなたの使い方だと12じゃ足りないんだから
RTX 3060は ソフマップでも jample でも
持っていけばいいじゃないか >>175
いや、俺 GTX 1650 Superの4GBしか無いんだが。
で、新しいPCのパーツ一式を用意したが移行の時間が無いというところ
モニタ切り替えで一時的にSD専用で使うというのもありか >>167
i2iのbatchタブから一括処理できるよ >>177
人力でやるとこだった。ありがとう!
ちなみにもと画像の解像度が低かったんで、
次回から50枚とか1092*1536で大量に出力したく、
効率よくやるにはどうすればいい? >>175
お前みたいなのがいるから4090は叩かれたんだよ >>176
とりあえず3060だけ入れりゃええやん
同じ環境だったけどcpuなんか使わんぞ >>180
スマホからすまん
8ピン対応してないメーカー製PCなんよ・・・
しかも電源独自で交換もできねぇ >>181
うちも4080入れるとき足んなくて変換したけど
CPU用8ピンやペリフェラル電源コネクタをPCI-EX用の8ピン(6+2ピン)に変換するやつが尼とか有るけどな
そんだけパーツそろってるなら新しく組んだ方が良さそうだけど >>181
ドンマイw
ワイもDELL使ってたから同じ罠にはまってな
グラボと電源買えば何とかなるだろ!
→電源が独自規格で入らない
→筐体買う
→マザボの電源ピンまで独自規格であることが判明
→マザボ買う
→ここまで買ったらもう一個組み立てられるやん
→CPU・ファン・M.2SSD買う
パソコン2台になったわw
いつか自作してみたいと思ってたし、サブマシン欲しかったからいいきっかけになったよ
やはりエロ目的は全てを解決する グラボって変えたら結局パソコン一式総とっかえなんだよなあ エッチ始まりから終わりまでのプロンプト例がいくつか欲しいんだけど、どこかにおすすめサイトやプロンプト集ないだろうか?
とりあえず、パンティやブラを微妙な感じにずらそうとしたけど1日ハマったけど無理やった
GPUが立派なら何度もすぐにトライできるんやろうけど、想像以上に難易度高い >>184
いや別にそんなこたないが
6700k/GTX1080からグラボだけRTX3060に交換してしばらく使ってたよ 新しい冷蔵庫買ったら玄関の入り口が狭くて
入りませんでしたとか言われても知らんよ >>184
ほんの2年くらい前に購入したPCが4080や4090を乗せるには非力すぎるという悲惨な状況ですわ
10年は使うつもりで割高なパーツ選んだからとても買い替えられない… >14で7世代のCPU環境で4090使ってる人がいるのに、割高パーツ買って付けられないとか余程変なもん買ったとしか… >>189
AIで使う分にはCPUボトルネックとかあんま気にしないでいいから80なり90なり載せればええんちゃうの
電源も850ありゃ4090十分動くよ 少数派の実写系なんだが、どうしてもベッドに仰向けに横たわらない・・・
Loraがダメなのか・・・おすすめモデルやLoraあったら参考までにお教えくだされ。 >>190
ワイのことか、まったく問題なく動くよ。
ただ、遅延対策のやつやったが、速度改善しない。
asukaのやつ28秒かかるよw >>190-191
10700kに4090はもったいないよな、と思って先月中古のA4500買ったよ(2070sからの乗り換え) >>192
うつ伏せで寝そべって顔をこっち向けてるグラビア系でよくあるポーズ(以下"例のポーズ")から抜け出せない感じかな
あれの通称みたいなのがわかればネガティブで弾けるんだが
とりあえず自分も昔ハマった時に試してたことは
・prone(うつ伏せ)および背中側要素(back,ass等)をネガティブで強調
・stomachとかnavelとか正面側の要素を強調
・from aboveとかで視点調整を試みる
・arms at sidesとかarms upとかで「例のポーズ」の手・腕ポジションと合致しないように強調
・lyingに「例のポーズ」が強力に紐づいてるかもしらんので強調弱める
あたり ハローアスカで28秒はさすがに遅いし一度全部消して入れ直したほうが良いと思う
PL60+クロック2000MHz制限で二重に制限してハローアスカを1枚×10回で出力しても15秒以下くらいだよ >>196
cuDNN入替はやった。
やっぱ、CPUが原因だと思っているんだが。
SD導入で複雑な手順もなかったんで、
ミスっているとは考えづらい >>194
またレアな…wikiにアスカベンチ載ってないからよかったら書いて欲しいな >>173
civitai helperでよくね? >>197
Pythonのバージョンを間違えてるとか(3.10.6が正しい)
https://i.imgur.com/qHqUjzi.png
webui-user.batに「--xformers」を追加していないとか 最新にしてたりエクステやTI多いと遅くなったりするのかね
動作してなくても重くなるとかありえるのかね >>198
RTX A4500、10700k、torch: 2.0.1+cu118、パワーリミット70%で26.57sでした
wikiにはそのうち書いておきます >>202
サンクス
A系は要求電力低いからあんまPLかけない方がよくね?
まあ元が200Wとかだから75WのA2000とは訳が違うけど >>203
ちょっとでも長持ちさせたくてリミットかけてるけどあまり意味ないのかな?
前モデルのA4000は熱で壊れやすいみたいな情報も見たのでフルパワーで使うのが怖くて。 自分は5年間に買ったDellのBTOに3060付けられて何の問題もなく使えてるけど運が良かったのかなぁ >>204
気持ちは分かる。A4000はオイルブリードが多いって聞くし
うちのA2000も小さい分すぐ熱くなる
ただ3090や3080(350W)に匹敵する仕様なのに200Wで動かしててそれからさらに3割削るのってそれはそれで不安になる >>206
逆効果ってこともあるんですかねぇ…むずかしいな
ちなみにリミット外してやったら23.28sでした。 ゲーム用のグラボは数字のハッタリ利かすために定格上限がOC状態みたいなもんで
PL70くらいに絞ると電力効率良くなるケースが多いけど
A系はどういう設定になってるかはわからんな
PL10%刻みくらいで回してPLと所用時間のグラフ書いてみるといいかもしらんね Aシリーズは実質パッシブ冷却で使うものだから
普通のグラボと同じような設置してると寿命早い AI美女のアカウントに本物と思って群がるおっさんみてると
オープンソースなのはクリエイターより情弱性欲チンコやな
AI生成側全員でやつらという資源を吸い上げとりあうんや >>207
RTX系だと3割でもそんな差出ないからやっぱ下げすぎな面もあるかもね
うちはA2000はPL95%でファンの回転数の方を上げてる(ファンの故障が怖いけど)
それでもすぐ70℃越すし油断すると80℃になるから3月には筐体に扇風機で風当ててた
今は別に組んだから補欠になってるけど 自分のPC(i512400F、メモリ32GB、RTX3060、12GB)はハローアスカベンチ、54秒でした。Pythonは3.10.6なのですが、起動時のコマンド見てると3.10.11ってなってます。
はじめて間もないのですがもしかして遅いですか? >>192
うちの仰向けを見ると on bed が入ってるっぽい >>195
>>213
トン
むしろ仰向けにならずにlying on backでもひたすら上体が起きているか、よくてうつ伏せ。
仰向けじゃないとゴニョゴニョいじれないじゃないか(憤怒 視点と視線はどうなってるかな
カメラ目線にするために上体起こしている可能性 案外、何にのせるって指示は素直に聞いてくれる感
おっ○いをテーブルののせているとやったときは、案外テーブルにどたぷんとやってくれました
客観的に見ると、ベッドに背中をののせているとも >>214
a girl lying on bed, on back
くらいのシンプルなプロンプトで出力確認してモデル種類やLoRAの有無・強弱でどうなるか確認
それで問題ないなら他要素のプロンプト足していって何が悪さしてるか確認
くらいしてみるといいかもね 1週間前までは生成できてた画像がVRAM足りないって言われて作れなくなった
ExternsionとかLoRAとか増やすとVRAM使うのかな >>214
モデルがわからないけど
dakimakura
と入れてみると出るかも
512x512だと二人出るかもしれない >>218はデバッグのためにwebui-user.batに--no-half-vae --skip-torch-cuda-test --no-half --disable-nan-check加えて
SettingのUpcast cross attention layer to float32を有効にしてたせいだった
そりゃメモリ足りなくなるよな
Upcastで生成もクッソ遅いのも当然だわ >>192
ワイはアニメ派なんやけど
モデルによって本当に得手不得手あるから出したいポーズのプロンプトでxyzプロットでcheckpoint 調べたらいいと思うわ >>200
お、ありがとう!
Pythonは間違っていない
webui-user.batに「--xformers」
やってなかった。。
asuka 21秒になったわ〜
これが限界ですかね・・・ >>222
コンソール(ターミナル)で各画像生成の速度どのくらい出てる?
某ブログのベンチだとtorch1で28it/sec、torch2で35it/secくらい出るみたいだけど
あとは速度落ちる原因としては生成途中のプレビューONにしてるとか
生成処理自体はCPUスペックそんなに関係しないとは思うんだけどな >>223
16it/sec 前後ですね。。
プレビューONになってた・・・
3回やって、いずれも20秒ですね。。 うちだとライブプレビューONでもOFFでもほぼ変わらない
ON: 8.99s
OFF: 8.97s
くらいのもん
PLを70%(315W)にすると9.04s
ちな37.9it/s
WebUI 1.2.1, PyTorch 2.0.1, cuDNN 8.9.1
4090 + 12100F
Ubuntu >>199
入れてみたけど便利だなこれ
ありがとう >>225
はや!
4090+7700k 20秒って妥当なんかわからん >>151
返信ありがとうございますm(_ _)m
ちなみにどのような方法で高画質(美肌)化出来ますか? 12600k/4070Ti/PL70で16.7sec(約21it/sec)な感じだった
wikiの結果一覧見た感じそれなりにcpu差出るんかしらね 引っ越し先のクラウドで新環境整えてんだけど
パイトーチ?が2になったら
xフォーマーがなんか干渉して動かなくなったんで--opt-sdp-no-mem-attentionを動かす方向で頑張ってたけど
なんか早くなった気がする 変な指、知らない人の手が出てくるとかを抑えたり、画質上げるネガティブプロンプトって今は何が鉄板なんですかね。私はEasyNegativeくらいしか入れてないんですが… easynegativeはいらんとこまで補正するから
dynamic promptsのワイルドカード機能を使って自分用のネガティブセットを1語に圧縮してる
(BREAKも入れておけば圧縮分の75区切りを気にしなくて良い) >>197
俺の4790K(2014発売)と4090でアスカベンチ13.86s
キミの環境は何かが絶対おかしい… 500秒の俺からすれば「10秒も20秒も同じだろ」という感想しか湧かない >>234
えっ、はや。6秒も・・・
次はやったんだが、SD導入しくってるのか?
・cuDNN入替
・webui-user.batに「--xformers」を追加
SD導入でおすすめサイトあれば教えて
もうまっさらにしていれなおすしか・・・ アスカベンチ10秒とかの人ってライブプレビューでちょっとずつできていく過程を見て一喜一憂したりできないわけでしょ?
「いいぞ!そのままマンコおっ広げろ!」
「おいどこにチンポ生やそうとしてんだ!」
「そこ腕にするんかーい」
みたいな
俺の「勝ち」じゃね? >>236
--opt-sdp-attention
これはもう試したんだっけ?
俺は3060時代に導入して--xformersから1.4倍速になったよ
Pytorch2.0はインスコした?
ttps://yuuyuublog.org/opt-sdp-attention/
↑ここが詳しいよ 絵の質は置いといてblack pantiesをNegativeすればいろんな色の陰毛が出やすくなったのだ
https://majinai.art/ja/i/xNyHfWo
↓いろいろ違うけど比較用
https://majinai.art/ja/i/oEqEInT
ねる >>236
うちの4070ti+5700X環境で22秒弱だからな
CPUはある程度差が出る要因だと思うけど、4090ならもうちょっと早くも良いと思う
インストールで一番確実なのは公式じゃない?
1か月ほど前に環境入れ替えた時はこれみてやった
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
実行時に何かエラーが出てたから、都度BingのAIに聞いてアドバイスに従ってコマンド追加で打ち込んだら解決したし
あとCUDAのライブラリは今は4000番対応のものに置き換わってるから特に何もしなくてもいいと聞いたことがある
まあ、今の環境バックアップしておいて色々と試してみるが吉 うちの環境は xformersから torch2+cu118にしたらたしかに10%ぐらい早くなったけど
代わりにi2iの画像アップロード領域を画面に表示してたら生成が進まないようになっちゃったわ >>238
ありがとう〜助かりますわ!
どっちも、やってない・・・ >>240
ありがとう!
youtubeで紹介しているやつみながらやったんだが、
なんらエラーなく動いてワイルんだよな
それがまた厄介だ 3060だけどcudnnを最新にしたら若干早くなった気がする
気がするだけかもしれない cudnnって勝手にアップデートされていってない?
GPUのドライバってnVidiaのを入れてもwindowsが勝手にあげてるような感じがするけどどうしたら良いの? アスカベンチPyTorch更新前は16秒だったけど14秒になった。ライブプレビューはオフにしても変わらない
Core i9 9900K + RTX4090
PyTorch 2.0.1+cu118
cuDNN入れ替えた
--xformersなし
opt-sdp-attentionあり んほっー!助けて!キャラLora作ってるんだけど、素材少ないキャラで顔アップ+同じ服でいろんなアングルの画像突っ込んでkeep_token2でキャラ名+faceとキャラ名+dressで分けて顔要素と服要素(服のほうだけ)抜いて学習するとどうしても体に服がまとわりついてきて困ってる。
プロンプトでキャラ名+nudeとかschool swimsuitで服の一部が合成されてしまう。これどうにかして素材に裸体とか入れないとダメ? プロンプトの相談させてください
時折シコリながらめっちゃ頑張ったんだけど
仰向けに寝てるキャラの足側からスカート覗く構図がむずかしい…
なかなかいい出力しなくてチンポきついのでアドバイスお願いします >>248
こんな感じであればプロンプトを練るよりControlNetを使った方が確実だと思う
https://files.catbox.moe/r2g58t.jpg 怖い・・・controlNetってよく聞くけど
マウス操作とかで手足をドラッグしたりしてグラフィカルにこういう絵が描けるの? >>253
なんか勘違いしてそうw
元となる絵(なんでもいい)を取り込んでポーズや構図などをコピーする拡張だよ
ポーズはそのままに絵柄を変えられる
元絵ではケバい顔でもポーズさえ取り込めれば顔なんていくらでも弄れるから自分で生成する絵も意味合いが変わってくる >>254
柔道黒帯の女生徒が練習に疲れて簡易ベッドで爆睡しているシチュエーションよね
>>256
いや、参照させてポーズを一致させるというところまでは知っていたんだけど
このレントゲン写真ってどうやって書いたのかなって >>258
なるほど、素晴らしい。
イリュージョンかなと思ったらやっぱりかw
controlSet使ったSDと相性よいよね
俺はソフト持って無いから、俺がこのポーズをしているのを
嫁さんにカメラ撮ってもらってそれを読み込ませれば、controlSetを利用することができるんだろうね こういうポーズ絶対ぐちゃると思ってたけど
depthとopenposeのマルチ適用でいけるのか? >>252
はえーすごい
controlnet使ったことなかったけどやってみます
ありがとうございます >>260
こういう横向いてる顔はめっっっっっっっっっっっっっっちゃ崩れるね
ポーズよりも顔の方がきびしい
https://files.catbox.moe/dso5gj.png sdは単純にタグ等の文字列と素材画像のピクセル構成を紐付けて覚えてるから
画面に対してまっすぐ以外の顔は超苦手(素材不足)
上下逆とか真横とかなら回転すりゃええやんって思うけどそういう気のきいたことはできない模様 仰向け出ない件、いろいろトンクスでした。
xyzでモデルを回してみる発想はなかったのでやってみます。 >>258
クレクレで申し訳ないがシーンデータを配布してくれないだろうか? >>259
いや、嫁さんにこのポーズさせて、あなたが写真撮れば新しい世界が広がるかもよ。 ■ このスレッドは過去ログ倉庫に格納されています