【StableDiffusion】AIエロ画像情報交換38
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換36
https://mercury.bbspink.com/test/read.cgi/erocg/1708774858/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ有)
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ無)
https://mevius.5ch.net/test/read.cgi/cg/1703250505/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 1週間に1回位Civitai見て気になるLoraやモデルをCivitaiHelperで落としてるけど1つずつだと数が多いと結構手間
URLだけ分かればあとはcivitaiから連続的にダウンロードする良いツール無いだろうか? >>636
urlをブラウザの別タブに張り付けてDL。 >>634
VaMはともかく、
daz程度の簡単なモデラーでポーズ組ませて
i2iならよくやる。
controlNET噛ませるとかえって崩れるから。 ワイルドカードってフォルダで階層管理できるけど、使うときはフォルダ部分を省略しても大丈夫なんだな。
aa\bb\cc.txt っていう階層だとすると、正しくは __aa/bb/cc__ になるけど __bb/cc__ でも認識してくれる。なんなら __cc__ でもいける。
dd\bb\cc.txt みたいなパス違いの同名のファイルがあった場合に、フォルダの指定を省略するとどんな動きをするのかは試してないからわからないけど。 >>638
> daz程度の簡単なモデラーでポーズ組ませて
> i2iならよくやる。
それが無難だよね……ControlNetはむしろ無理なポージングで構造という点では破綻しがちだし
ただ、いまの生成画像にそこまで求めるかってのもあるけど(エロければいいw) CivitaiHelperってレジュームダウンロードできる? https://majinai.art/i/bO_R6t6.png
バストショットで生成された絵ですが、可能な限り顔はこのままで、全身像にする方法はありますでしょうか?
もちろん、こちらで質問するのですから、nsfw,(naked:1.3)の方向でお願いします。 その画像1枚からLoRAを作る
CNのreference onlを使う
NAI3のバイブストランスファーを使う >>642
絵の見切れた部分(下方向)の続きを書く…という意味なら
アウトペインティングという機能が実装されてるはず(A1111)
調べてみて AI学習にも使われてるってさ
↓
【毎日新聞調べ】園児の画像、海外ポルノサイトへの転載多数 ネット画像調査で判明 [おっさん友の会★]
https://asahi.5ch.net/test/read.cgi/newsplus/1711504371/ >>644
見切れた部分って見えてる場合にも使うし
紛らわしいね 見切れたの正しい使い方はスタッフが見切れてるで!など見えてはいけない物が見えている写っている時に使うのが本来の使い方
ただ関西の芸人が使い始めた業界用語でそもそも正しい日本語ではなくて辞書にも載っていないし使い方がどうのこうの言えないところがある
俺は本来の使われ方していないの見ると気になる方ではあるけどね >>642
その絵にPNGinfo残ってるから絵の改変を続けて行けばいいんだけど
プロンプトが簡潔だから全身指定したら別の顔になって極太ディルドぶち込んだら完全に別人になるパターンだよなぁ
VAE内蔵モデル使ったことないんだけどHimawariMix_V8.0の使い心地はどう? >>645
子供の動画とかツベに高画質で大量にあるから
そのうち使われそうだな https://news.yahoo.co.jp/articles/8e91120144d2ae19da5cbe6f205f9d7abe814ae4
見てると、MidjourneyにはCreative ReferencがあってLoRAなしでキャラ再現できるみたいにあるけど
Stable Diffusionではいつ頃から出来るようになるだろ? >>643
先月からはじめたばっかですが、LORAは作ってみたいですね〜
いんぴおさせるには、男のコのデータ入りますし…
>>644
アウトペインティングですか。調べて試してみます。
>>648
まだ使い心地がどうとか…
たまたま、欲しいキャラのLORA見つけて、サンプル絵がHIMAWARI指定だったので入れてみただけです。
他も試してみたいです >>650
Stable Diffusionも「Reference Only」という機能を導入すれば
とりあえずできるというか… 微妙なので>>642に紹介するか迷ったんだ
「同じキャラ」の意味は人によって変わるから難しいよな >>642
ペイントでキャンバスサイズを全身像が入るくらい下に伸ばして
超雑に肌色で胴体書いてから胴体だけi2iでいけるんじゃね >>650
IP-Adapterならかなり前から使えてるけど、そういうことじゃなく?
ただFaceIDの方は、InsightFace がリアル系の顔しか認識しないかも
>>636
curlは? >>642をSDで見ると256x256で出してHires. fixで512x512にしてる
こうすると512x512で出すのとまったく異なる絵が出るんだね
こんなテクがあったのか、また一つ勉強になったよ 数分で雑に済ませたからモデルすら違うけどこんな感じかねぇ
https://images2.imgbox.com/58/53/AG9EqIXA_o.jpg
作業内容としては首から下を「outpainting」で生成してから
なじませるために顔以外をさらに「img2img」かな
こういうのなら「Generative AI fo Krita」が直感的に出来ていいと思うけどね
これはこれで覚えなくちゃいけないから初回は大変だけど
https://github.com/Acly/krita-ai-diffusion
https://www.youtube.com/watch?v=S2K_D_RlDCY さわったばっかだけどkiritaプラグインxlの機能少なくて残念 プロンプトの話だけど
アシンメトリー(左右非対称)というか
片側の手足にだけ衣服や装飾を指定する表現無いかな
right hand ●●
left ●●
とか頭につけても左右両方に反映されちゃう プロンプト的に言うと
右手 という概念が入ってない可能性がある あぁ、仕様上
左右片方に任意でって設定はできないのか
『右手だけ義手』とか
『右足にだけニーソックス』みたいな娘を作りたかったのに asymmetrical hair等、asymmetrical ○○というタグはいくらかdanbooruにあるからそれを試すくらいだな
SDはアルゴリズム的な問題で基本的に左右を表す語は効果が薄いと思ったほうがいい
「右手」が画面上のxyどの位置に配置するかが画角や体位等でバラバラなので
タグ分類が足りなくて学習内容が定まらない
指がグチャるのと同じような問題 そういうときのインペイントちゃうんか
おれは使いこなせてないけど 「右」ってなんですか?
って聞かれて誰にでも分かりやすく説明するのはとても困難
ましてやそれを機械にとなればほぼ不可能な領域 >>664
「この時計ひっくり返ってるから3時って下の方向でいいんだよね」
「俺の時計デジタルなんだが3時の方向って何?」 >>665
ひっくり返ってることがわかってるなら正位置に戻せばおk
「デジタル」言ってるならアナログも知ってるはずなのでおk >>667
機械相手にはそれが通用しないんですよ
正位置に戻すとかアナログとか「3時の方向」の補足として全部教える必要がある
それができてないのでSDは左右がわからないし指がグチャる >>668
ごめん機械の解釈か
単に664は多分茶化してたからレスの665もかと思った 人体の左右を考えるには人物ごとに基準となる中心線(背骨?)と正面を認識する必要が……
後ろ姿だったら画面上は左右逆になるとかあるし 学習水増しのために左右反転させるのも割とあるから更にカオスや まんまんも後ろからだと上下逆になったりしてたしな
ponyで普通にちゃんと描画された時は感動した >>668
> 全部教える必要がある
う〜ん……むしろ>>667 がそれなりに正しいんだけど
CLIPがゼロショット学習できてるから、SDもこれだけ多様な画像を生成できるわけだし
(もちろんデジタルを知ってるならアナログを知ってるとは必ずしもいえないけど)
>>663
不可能って……オズマ問題じゃないんだからw(モデルにはヒトの言語も画像も学習させるしね) >>674
SDが多用な画像を生成できてるのはCLIPのおかげというより
stability aiがたくさんのリソース注ぎ込んでCLIPの学習情報に耐えうるSD公式モデル作ってるからっていうのが大きいのでは
lora等でユーザーが後付け学習する時なんかは画角・角度・サイズ等殆ど応用が効かないから
結局「全部教える」必要があるよ >>652
ありがとうございます。
>>655
え? どこかでこれが正しいやり方って読んで、疑問持たずに実行してたんですが、確かにチェック入れなくても出力できますね。
こちらこそ勉強になりました。
>>656
おおう、こんな感じです。
こちらでもやってみました。
絵がかけないので、まずは素材の女の子を作らせー
https://majinai.art/i/jC-kevq
超絶、雑に組み合わせてー
https://files.catbox.moe/khu2zc.png
出力!
https://majinai.art/i/7H8S4cE
だめだ…違和感がありすぎる…やっぱり身体と顔の絵があってないですかねぇ。
とりあえず、ボディラインの繋がりなんかは問題ないんですが、どうにも違和感が… A1111のautolaunch切る方法なくなったんですか? >>678
デフォルトでautolaunchする設定になったんよ
どっかの設定の「Local」を「none」にするんよ >>679つづき
Systemの「Automatically open webui in browser on startup」を「Local」から「Disable」にするんだった >>679、680
サンクス
あんなわかりやすいの見落としていたとは
webui-user.batでどうにかするもんだとばっかり思ってました。 前はそうだったんだけど、いつの間に起動オプションでは無くなってたね 痺に上がってたモデルの作者が紹介してたBMABというのを使ってみたら、Ultimate SD upsclaeみたいに見た目そのまんまでt2i出来るのね pony用のLoRAを作るにはどうすれば良いんだろ?
なにか参考になるサイトとかないものだろうか?
1.5用のはたくさんあるけどpony用が見つけられない civitaiにはpony向けのLoRAいっぱい転がってるし
作るのも別に大した難しさはないよ
再現度を高めるために覚えた方がいいことはあるけど
そこ突き詰めていくのは経験と先人の知恵が大事
見て覚えるタイプのものじゃないからとにかく最低限の使い方覚えて
手を動かして経験積むかLoRA作っている人から直接アドバイスもらうようにしたほうがいいかも
サイトみても疑問に対する答えがすぐに得られないという点で見る価値が全然ない >>685
ベースモデルにpony使って学習すればいいだけだぞ
厳密には細かいところが何か色々あるかもしらんけど、とりあえず作るならこれで特に問題はない ありがとう
pony特殊だから単にベース使えば良いわけじゃないと思いこんでた
やってみる >>688
civitai にpony loraこう作れみたいな解説とプリセットあるよ
linkは忘れた
誰か知ってるはずだ ちちぷいで「'タグ名'は使用できないタグ名です。」それで強姦とか使えなくなった とりあえず、kohyaでLoRA作ってるけどVRAM16GBも使ってる VRAMこんなに使うものなの?
20回
Train batch size 1
Epoch 8
Max resolution 512,512
時間も1時間位かかるらしい ざぁ〜こ♡ひよこ閉じ込め下僕しつけ超ひどい回しモブおじさん秘密さわさわすやすやえっち XL(Pony)の初LoRAやっとできた
テキストは一切作らず更に1.5で使った元画像を何もせずそのまま使ったけど
再現は段違いに高く破綻もない
XLとLoRAの相性ビビるほど良い
微調整できる人は1.5使うのもありだと思うけど、何も考えずサクサクエロい画像を作りたい人はXL使う方が良さそう
調整一切無しで良いLoRAと画像ができてしまった、もう1.5に戻れないわ >>677
ありがとうございます。
早速、画像を用意して、Train Tools をインストールし、LORA試作してみようとしたのですが……
ImportError: No xformers / xformersがインストールされていないようです
というエラーが出てしまいました。
実は、StableDiffusionを動かしているのは、12年も前のノートPCですww
NVIDIA なんて載っていません。
AMD® Caicos / Mesa Intel® HD Graphics 3000 ですので、AI制作には使えず、
--use-cpu all --skip-torch-cuda-test --lowvram --no-half --precision full --autolaunch
を起動コマンドに使用しています。
1枚制作に1時間くらいかかるので、寝る前にセットして、朝確認するようなスタイルです。
とりあえず、cpu allの環境で動かせないか、調べたり伺ったりしてみます。 >>692
省メモリ用の設定いろいろあるから調べてみるといいよ
物理メモリ16GBあるならバッチサイズ上げてもっと時間短縮できるはず
参考までにXL用lora512サイズで70枚*10回*20epochの学習が24分くらい(4070Ti/12GB)
あと学習やるなら共有メモリ使わないように設定変えとくのおすすめ
VRAM溢れたらちゃんとエラーで止まるようにしないと時間がものすごく無駄になる
https://wikiwiki.jp/sd_toshiaki/GeForce%E3%83%89%E3%83%A9%E3%82%A4%E3%83%90#z59768fd >>698
それはなんというか……
pc買い替えるか課金でもっと手軽にできるやつもあるんじゃないか?
自分はもともとローカル環境作ったからわかんないけど… multidiffusion-upscaler-for-automatic1111で
AttributeError: 'StableDiffusionProcessingTxt2Img' object has no attribute 'scale_factor'
これ
tileglobal.pyでエラー出てたから少し前のtileglobal.pyと交換したらとりあえず直ったw >>698
> 12年も前のノートPC
すごい……自分もノート(mac )だけど、けっきょくクラウド使ってるし
ただ推論(生成)じゃなく訓練だと、
その推論を何度も繰り返して、モデルを目的のかたちに近づけていくものだからーーかなり時間かかるよ
(LoRAは低ランクだけど、推論を繰り返すって点では変わらないから)
この記事はなにをどこまでやったのかよく分からないけど、生成より時間がかかりそうって感じは伝わるかも
http://blog.syo-ko.com/?eid=3100
>>675
そういう論点ずらしはよくない >>699
凄く早いな
4080(24GB)だけど以下の設定で27分くらいになってる。なにか設定間違えてるんだろうか?
あと、フォルダーにキャラ別で分けて入れておけば、自動的にそれぞれのLoRAを作る方法とか無いだろうか?
寝る前にしかけおきたい
use 8-bit AdamW optimizer | {}
running training / 学習開始
num train images * repeats / 学習画像の数×繰り返し回数: 640
num reg images / 正則化画像の数: 0
num batches per epoch / 1epochのバッチ数: 320
num epochs / epoch数: 5
batch size per device / バッチサイズ: 2
gradient accumulation steps / 勾配を合計するステップ数 = 1
total optimization steps / 学習ステップ数: 1600 >>703
バッチサイズ1なのが主な原因じゃないかな
fp8学習有効にしたりnetwork_dim下げたりで大分省VRAMになってバッチ稼げるよ
ちなみにこちらの手元で試した感じだと、dim64/alpha32のfp8_baseとgradient_checkpointing有効で
学習サイズ512の場合バッチ10〜、1024ならバッチ4までは動作確認した(4070Ti/12GB)
sdxl_train_network.py1回で複数のlora出す方法については知らんので
設定複数用意して順にsdxl_train_network.py呼び出すようにバッチ書くくらいしか思いつかないな 同じプロンプトでもエバラだとちゃんと描画されるのに
Ponyだと一面ノイズになってしまうって事多いなあ
強調全部無くしても治らないし これでは?
https://note.com/hakomikan/n/nb6dd68a1bd9e
ってすでに知ってるから強調なくすって言ってるのか・・
forgeでNo normでもなるときがたまにある、位置変えると治ったり Emphasis modeをNo normにしてもノイズ出るか確認してくれ 同じプロンプトのつもりでも小数点が抜けてたりとかのチェックも A1111でリアルを生成しているんだが、マムコの形が変だ。きれいに生成するには、どういうプロンプト入れればいいんだろうか? >>707
それだったありがとう!
てか1111で入れてたせいでForgeでもてっきり入れたもんだと思いこんでた
>>711
detailed vaginaとかでどう? モデルによって形が違うので
子猫ちゃんでモデル決めてもいいぐらい 原住民の腰蓑ってどうやったら出るんだろ
いろいろ試したけど大体普通のスカート履いちゃう おっぱいの大きさなんだけどSmall Middle Largeの3種類だけじゃなくて、スモールとミドルの間とかミドルとラージの間くらいにしたい時ってどんなプロンプト使ってます?
個人的にラージは大きすぎてミドルは気持ち小さいからミドル寄りのラージを出したいのに上手くいかない…
モデルはebara使っています。 >>715
bustyってのがあるけどpony系で効くかはしらない >>714
原住民って言うから(´・ω・`)こいつの事かと思った
藁っぽいのはちょっと分からんけどハワイっぽいのなら
nude,raffia hula skirt,でどうやろう
https://files.catbox.moe/wxvwqy.png
https://files.catbox.moe/n2q4i1.png >>715
[middle breasts:large breasts:0.5]とか >>716
>>718
おお、ありがとう!
両方ともPonyで効きました、これで生成する幅が広がったよ。
おっぱいの大きさが3種類だけだと少なすぎるから皆どうしてるかと思ってたけどやり方有ったのね。 AnimateDiffの使い方とGitHubを見た俺、うわあ大変そう...そっ閉じ
他の事もそうだけど、新しい物に飛び込んでモノにしてる人の対応力って凄い 実写系はPC画面で見るよりタブレットに転送して見たほうが生々しさを感じる >>720
1.5の時によく使ってたけど、設定項目も少なくて難しくなかったと思う
好きなモジュール選んで動画の時間と枚数を決めてスタート押すだけだったかと animetediffをサクサク動かすためにcomfyuiに手出したけど
肝心のanimatediffはほとんど触らずじまいだ >>722
今また色々見てるんだけど、深い部分まであれこれと見過ぎたのかも知れない
そんな中で見つけた、設定>Optimizationsにある
Pad prompt/negative prompt(improves performance when prompt and negative prompt have different lengths; changes seeds)
これをonにして数回生成してみたら専用GPUメモリが上振れで〜1Gほど増えるけど生成時間はマイナス2秒前後
画像は若干変化するけど綺麗さは増した気がするw >>717
ありがとう、まさにこんなのが出したかったんだ
でもebaraで試したけどやっぱり普通のスカートになっちゃうな… AVとかであるような立ちバックを真下から撮るようなアングルで生成したいです
修飾関係を抜いたプロンプトはこんな感じなんですがうまくいかないです
添削おねがいできませんか?
ちなebaraponyです
1girl, standing, bend forward, put hands against wall, spread legs, vaginal penis, belly, focus navel,
(((from below))), >>726
from below で視点を指定してみては? comfyuiでanimatediffは組めたけど
一括の流れで、コマごとにcontrolnet/tileを用いたアップスケールさせてmp4まで生成するにはどう組んだら良いでしょう? >>726
ceiling,ceiling light,stomachやら、真下から見た時に見えるものを入れてみては >>727,728
アドバイスありがとうございます
色々足したりして作ってみました
https://ul.h3z.jp/Cmx9CME4.jpeg
うーーーーんまあまあまあまあ•••って感じです
ブラッシュアップしていきます 重要ではないかもしれないけどspread legsはアップされた画像のような開脚の意味合いが強いから
脚を開いた状態で立つって意味のlegs apartを使うとか
standing and spread legsで一括りにして"立った状態で開脚する"って意味にするとかはどうだろう > 脚を開いた状態で立つ
よく使われるのは cowgirl position かな
ただし男性との絡みだと騎乗位になるよ >>731
ありがとうございます
spread legsで誰かに拡げられる要素があったのか消してlegs apartにしたらだいぶ理想系に近づきました!
https://ul.h3z.jp/LGJW21Ua.jpeg
https://ul.h3z.jp/Qx9QXmvu.jpeg >>733
2枚目いいねw
このアングルで両手を机に付いてるのは後ろからパンパン激しく打ち付けられてるぽい雰囲気がある この雲形定規で引いたボディラインはSDXLか
シーリングライトでけえw そんで照明機器の細い直線がまっすぐなのな
こういう「月刊エロ魔人Comicの巻頭カラー」みたいな画には最適だね ■ このスレッドは過去ログ倉庫に格納されています