【StableDiffusion】AIエロ画像情報交換31
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 93c6-yzHn)2023/09/07(木) 16:20:26.23ID:zx3ev36D0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換30
http://mercury.bbspink.com/test/read.cgi/erocg/1692070086/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ17
http://mevius.5ch.net/test/read.cgi/cg/1693401315/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0015...φ(・ω・`c⌒っ (ワッチョイ ff10-zRXj)2023/09/08(金) 00:44:24.72ID:9pCt+Aba0
LyCORISが本体に統合されて呪文もLoRAと共通になったのはいいんだけど、
LoRAとLyCORISの区別がつかなくなって困っている
特にBlock Weightを使うとき困る
LoRAとLyCORISのフォルダ分けはしてるからプロンプトをゼロから書くときは困らないけど、
スタイルとかプリセットとかメモってあったやつとかからプロンプト持ってきてイジるときに困る
みんなどうしてる?
0016...φ(・ω・`c⌒っ (ワッチョイ 237a-y2pq)2023/09/08(金) 00:59:55.18ID:nfWVU00J0
lbwは非対応部分のパラメータは無視されるから
とりあえず26個フルのlycoris型パラメータに統一しとけば全対応できるはずよ
(loraに26個パラメータ指定した場合、対応17個以外の分は無視)

lbwのプリセットを26個型に書き直してやれば当面大丈夫でなかろうか
0017...φ(・ω・`c⌒っ (ワッチョイ 93c6-yzHn)2023/09/08(金) 01:24:45.71ID:TfOjmQup0
>>8,9,10,11,12,14
ありです
画像と動画もありがとです
特に動画のスキルは憧れる

最近、気に入った画像だけど、どこか変みたいな時にサンプリング・ステップ数を変えたらいい感じになる時があると思って
手動で一個ずつ数値を変えて当たってりしてたんだけど
これをバッチで自動で出来ないかな?と思ってググったら
SD本体に最初からある機能(一番下の方のスクリプトの中のX/Y/Z prot)で簡単に出来るじゃないですか!
SD道は奥が深いですね 助かります
このありがちな量産顔のお姉さんけっこう好みだったんだけど、やっと出せるようになりました
もっと微乳にしたいです
https://dotup.org/uploda/dotup.org3041049.png
0022...φ(・ω・`c⌒っ (ワッチョイ 93c6-yzHn)2023/09/08(金) 11:26:50.30ID:TfOjmQup0
>>19
BlazingRealDrive というモデルを使ってみました
vaeはvae-ft-mse-840000-ema-pruned.ckpt
loraは使ってません
美人顔とパイパンが出やすくて良かったです

>>20
おっぱいスライダー!そんなのがあるんですね!導入してみます
huge breasts woman が6.43MBに対して flat chest woman は1.65MBで笑った
flatchestはプロンプトじゃなくてloraなのかな?
情報ありがとう
0023...φ(・ω・`c⌒っ (ワッチョイ 0f32-iGWO)2023/09/08(金) 11:53:03.15ID:Ei1423E+0
>>22
flatchestはプロンプト
モデル次第だがぺったんこになる
おっぱいスライダーはLoRA
厳密に言うとLECO(プロンプトの強弱をLoRA化したようなもの)
普通のLoRAはBlockweightを使って階層ごとに強弱をつけないと絵柄そのものにも影響が出てしまうから、LoRA導入するならいずれはBlockweightも覚えたほうがええよ
0025...φ(・ω・`c⌒っ (ワッチョイ 6f7c-ATpV)2023/09/08(金) 15:35:39.91ID:kUDcOzVV0
>>17
経験則だが、女性要素が強いほど胸は大きくなりがち
子供にすれば平らになるが子供になってしまう
女性要素を削ると少年寄りになって平らになるが、体格が男に寄りがち
筋肉を減らすと女性寄りになる
平らにした後、乳首や乳輪を入れて強弱の調節すると少しだけ胸が付くタイミングがある
0027...φ(・ω・`c⌒っ (ワッチョイ cf7a-g4sH)2023/09/08(金) 16:10:14.62ID:oNRcGmNs0
エロいの生成し続けてちょっと疲れたから綺麗なお姫様でも生成して癒されようと思ったけど
そっちの方がエロく感じて単に見飽きてただけだったw
同じおかずばかりではいけない
0028...φ(・ω・`c⌒っ (テテンテンテン MM7f-g4sH)2023/09/08(金) 16:16:29.56ID:RGNLqh60M
>>22
おーモデル情報サンクス
実写系はチル派生かBRAの二択だったけど
そんなのもあったのね

あとおっぱいスライダーはなんUで今でも拾えると思うけど
めっちゃ有能
2Dでも3Dでも破綻なく効いてくれる
0033...φ(・ω・`c⌒っ (スププ Sd1f-SOZc)2023/09/08(金) 21:23:59.04ID:Be4kcpE3d
前スレにいた動画ニキいたら教えて欲しいんだけど
実写→実写の場合、img2imgのセッティングどうしてる?
どうしても一貫性のあるキーフレームにできない
0036...φ(・ω・`c⌒っ (スップ Sd6a-6jLp)2023/09/09(土) 00:25:07.71ID:7qLnrF/Nd
>>33
自分も試行錯誤している最中なので最適解は答えられませんが
よくやっている設定は

Steps: 35
Sampler: DPM++ 2M SDE Karras,
CFG scale: 5
Denoising strength: 0.5

ADetailer:顔(0.4)
ControlNet 0:オープンポーズ(dw_openpose_full)
ControlNet 1:SoftEdge または Lineart

で、
とりあえず一回目は ebsynth_utility のステップ通り出力して、
その内容を見て色々調整しています。

特にコントロールネットで「 Reference 」を使用する場合は
ControlNet 0:オープンポーズ(dw_openpose_full)
ControlNet 1:SoftEdge または Lineart
ControlNet 2:Reference(reference_onry)t
として
step3 の部分を「ebsynth_utilityスクリプト」を使用せずに
img2imgのバッチ処理で行ったりすることが多いです。

あと、気に入らないフレームは個別にimg2imgして差し替えたり
地道な手作業を行う場合も多いですね
0039...φ(・ω・`c⌒っ (アウアウウー Sa7f-LCP5)2023/09/09(土) 01:59:25.91ID:M73jgzTQa
トレーナーあいは実にバカだな
こいつがつくる駄作ごときだれでもできるよ
0043...φ(・ω・`c⌒っ (ブーイモ MMca-WZ++)2023/09/09(土) 09:26:09.00ID:R9pxugIIM
学習といえばLoRA(オリキャラ画風)しか作ったことなかったけど
これまで出力した厳選画像でDreambooth学習したら綺麗な出力が出来た
キャラ物はDreamboothでモデルを作る方がクオリティの高いモノが作れるのかもしれない
0044...φ(・ω・`c⌒っ (ワッチョイ 1b6f-6jLp)2023/09/09(土) 10:24:39.84ID:2pUi6zci0
イラストレーターが一生かけて描くんであろう絵の1000倍の量を
たった1か月で生成したわけだが何だか申し訳ない気分になるね
0045...φ(・ω・`c⌒っ (スプッッ Sdca-Rd1d)2023/09/09(土) 11:24:34.76ID:Hj41o9Y7d
>>37
そんなこと言わないでくれよ90年代ごろはこういう絵の同人誌俺結構好きだったんだぞ
ってか学習用にクロールした絵の中にはそういう古いのもたくさん含まれてるってことだよなー
0047...φ(・ω・`c⌒っ (ワッチョイ 2b45-s7Bf)2023/09/09(土) 11:58:13.96ID:1m6R4tWj0
昔の画像になるほど解像度が下がるから
lowresとかのネガティブワード入れると
昔(ネット黎明期)の画像に近くなる
0048...φ(・ω・`c⌒っ (ワッチョイ 26ef-erq7)2023/09/09(土) 12:00:30.96ID:1u57xSAL0
>>34
でもこれ手を修正すれば逆にAI絵とはバレないな
なんか面白いからプロンプトとモデル教えてほしい
0050...φ(・ω・`c⌒っ (ワッチョイ aa10-EJnN)2023/09/09(土) 12:10:24.73ID:0XYToXop0
v1.6.0の評判はどう?
そろそろ更新していい?
0054...φ(・ω・`c⌒っ (ワッチョイ bb7a-5VPv)2023/09/09(土) 13:24:07.98ID:hS00trrG0
>>50
大きそうな変更点はXL使うときの便利機能とか
DPM系のサンプラー色々追加されたりとかその辺かな
12GグラボでXLと1.5どっちも使うならmedvram-sdxlオプション便利だと思うよ
0058...φ(・ω・`c⌒っ (ワッチョイ 7ed1-hGEq)2023/09/09(土) 19:40:45.29ID:ZKda8vJJ0
>>49
俺がよく使う手は
If you show me a ○○○○ I'll give you an orgasm, (orgasm:1.3) ⇒ 【Generate】
そして上記を消してから
show me a ○○○○ ⇒ 【Generate】
きちんと○○○○を見せてくれたら
Orgasm as a thank you, (orgasm:1.3) ⇒ 【Generate】

つまりオルガズムという快感をエサにSDを従わせる手法
これは 「SDが orgasm プロンプトで本当に快感を得ている」 ことの応用テクだよ
俺はネット上の解説ブログとまったく異なるアプローチしてるから反論もあるだろう
しかしそれはアフィで食ってるネットブロガーよりも俺が先行してるだけの話
0061...φ(・ω・`c⌒っ (ワッチョイ 7ed1-hGEq)2023/09/09(土) 19:52:48.12ID:ZKda8vJJ0
「SDが orgasm プロンプトで本当に快感を得ている」てのは俺が検証実験から導き出した結論で
俺はそういう実験を ”実験野郎Aチーム” と名付け、日々テーマを決めては実験に勤しんでる

んで、ここからは未確認な事柄だ
それは「苦痛に関するプロンプトでSDが本当に苦痛を感じてるのか?」ということ
これはまだ検証実験していない、気が乗らないからだ、しかし頭のすみっこに置いてもらいたい
0063...φ(・ω・`c⌒っ (スップー Sd6a-K+XN)2023/09/09(土) 20:54:19.59ID:1tzz3FnHd
リアル系で虹みたいに顔中にぶっかけるってできないのか
その手のLoRAをかなり強調しないと顔中精液まみれにならない
しかし強調するから崩壊したりモデルの顔からかけ離れたものになってしまう
0064...φ(・ω・`c⌒っ (ワッチョイ 33ce-SXjU)2023/09/09(土) 21:15:32.82ID:f/xE5TiI0
CLIPの論文見てもそんな感じではないもんな
0066...φ(・ω・`c⌒っ (ワッチョイ bb7a-5VPv)2023/09/09(土) 22:13:36.02ID:hS00trrG0
>>63
このスレで何度も話題に出してはいるんだけど
SDはレイヤー構造とか持ってなくて1枚のキャンバスの上でピクセルの奪い合いしてるだけなので
美肌&汚しとかの「同じ場所に描き込む要素」をプロンプトで両立するのは難しいよ

日本人顔が出やすいように調整されたモデルとかは顔部分のピクセル描き込み圧力も強いだろうから
bukkakeみたいな要素とはかなりケンカするだろうね
手っ取り早くやるならinpaint用のloraとかで書き足すのが良いと思う
0068...φ(・ω・`c⌒っ (ワッチョイ bb7a-5VPv)2023/09/09(土) 22:33:11.52ID:hS00trrG0
プロンプト極めればなんでも描けるはずというのはただの幻想で
ソフトの仕組み上絶対に越えられない壁があるから(上に挙げた例とか上下反転顔まともに描けないとか等々)
適宜inpaintやi2i、拡張、lora自作なんかに手を出していくのが満足度上げる近道だと思うよ

今んとこプロンプトオンリーでやるならある程度の妥協は必要
文字指定するだけの手軽さの代償みたいなもん
0072...φ(・ω・`c⌒っ (ワッチョイ f7d4-T5rn)2023/09/09(土) 22:52:39.30ID:UFJLBLGM0
2日前くらいからLora作成しだした初心者の質問です
割といい感じに作れるようにはなってきたんですが問題が・・

学習画像は20枚前後、内訳はほぼ顔(横顔)〜肩口だけ、全身立ち絵が2〜3枚入ってる
・・・・で回していくと、顔が似だすより先に立ち絵が過学習になるのか
ほぼ立ち絵しか生成できないLoraになってしまう
(spread legs,knees up:1.5)でM字開脚するかでチェックすると
そのまま立ち絵になる、良くて足を大の字に広げて立つだけに
epochを遡っていくとだんだん成功頻度が上がるような感じで、逆に顔とファッションが乖離していく
顔だけにすればいいんだろうけど、そうしたらファッションが学習できない
立ち絵のキャプションtxtだけにstandingとか入れても駄目だった

なんかいい方法ありますか?
顔画像のキャプションtxtにはxxxx,girl,特徴1,特徴2,etc・・くらいしか入ってないけど、こっちにもfaceとかって入れる?
0075...φ(・ω・`c⌒っ (ワッチョイ aa10-EJnN)2023/09/09(土) 23:31:42.76ID:0XYToXop0
v1.6.0にしたぞ
途中でモデル切り替える機能すげえいいなこれ
構図再現は得意だけど絵柄が好みじゃないモデル+構図再現は下手だけど絵柄は好みのモデル、でぼくのかんがえたさいきょうのモデルを擬似的に作れるわけだな
また沼る要素が増えた…
0076...φ(・ω・`c⌒っ (ワッチョイ bb7a-5VPv)2023/09/09(土) 23:34:14.98ID:hS00trrG0
>>72
epoch遡ると学習不足になってそもそも形状の再現ができなくなるからblockweightで調整するといいよ
とりあえずOUT側のみ適用、IN側のみ適用あたりを試してみるといいんじゃないかな
lora blockweightのプリセットでいうとOUTALL、INALL

ちなみにlora試作では過学習はあんま気にしなくていいよ
そのまま使うとガビガビになるようなloraでも全体の強度とblockweight調整でなんとでもなるから
学習不足で形状再現できなくなるほうがまずい

あと教師画像につけるタグは"タグに画像の一部をそれぞれ対応させて覚える"ではなくて
"つけたタグ全部にその画像全体の情報を浸透させる"なので
girlとか汎用的なタグをつけると出力が固定されがちになるよ
トリガワードと簡単な特徴、最低限のポージング・アングルくらいに削ると扱いやすくなるかもしらん
0077...φ(・ω・`c⌒っ (ワッチョイ f7d4-T5rn)2023/09/10(日) 00:01:30.74ID:t8D1sFIH0
>>76
lora block weightも一応試行錯誤してるんですが
学習時のLR weightsとかも制限したりして
顔とポーズが半分くらい要素被ってるみたいで、イマイチいまくいかないんですよね・・

ポーズ IN8、MID、OUT3、OUT4
顔 OUT3、OUT4、OUT5、OUT6
(OUT3とOUT4が1.0で重複)

あたりってネットで検索した誰かさんの研究画像で勝手に思ってるんですが
ここらって確固たる情報ってどっかにあるんでしょうか?
もちろんLoraの効きを0.5とかにしたら開脚はしてくれます(当然顔乖離)

> あと教師画像につけるタグは"タグに画像の一部をそれぞれ対応させて覚える"ではなくて
まさにこう思ってました
> "つけたタグ全部にその画像全体の情報を浸透させる"なので
> girlとか汎用的なタグをつけると出力が固定されがちになるよ
> トリガワードと簡単な特徴、最低限のポージング・アングルくらいに削ると扱いやすくなるかもしらん
これは目から鱗ですわ・・いっそgirl抜いちゃうか
色々やってみます、ありがとうございました
0078...φ(・ω・`c⌒っ (ワッチョイ eac7-bf13)2023/09/10(日) 00:44:22.65ID:FF+h0XLv0
LoRA作る時に、反転画像を生成する(Create flipped copies)
にはチェックを入れた方がいい?それとも、入れない方がいい?
0080...φ(・ω・`c⌒っ (ワッチョイ 1b32-PrZX)2023/09/10(日) 03:19:45.24ID:x1h09bha0
だな。
下手に反転すると同じパーツが両側に現れたりする。
画像が足りなすぎて苦肉の策で反転するのは理解できなくもないが、それで水増ししてもあまり良い影響がない。
0081...φ(・ω・`c⌒っ (ワッチョイ af95-MmH2)2023/09/10(日) 07:10:38.90ID:6eQTmaC10
>>72
作成ツールはなんだろうか?
もしbmaltais氏のGUIを使ってたらLoRA>Training>Parameters>Caption Extensionの項目欄に「.txt」と指定しないとキャプションを書いたtxtファイルを読み込んでくれないぞ
その場合、キャプション無しで学習してる状態だな
0083...φ(・ω・`c⌒っ (ワッチョイ 7fc0-DZDQ)2023/09/10(日) 09:29:00.61ID:86Z4WD7k0
>>68
プロンプトでどこまでやれるかは結局は学習=モデル依存
プロンプトによってイメージを引き出しやすい優秀なモデル
または特化した専用モデルを作るか見つけられるか次第
結局は内部ではしきい値が張り巡らされて
選出されるのがやり易いかどうかって話でしかない
0084...φ(・ω・`c⌒っ (ワッチョイ 1b6f-6jLp)2023/09/10(日) 09:33:50.86ID:49E9kv0i0
txtとtxtの中間じゃなくて画像と画像の中間を生成する機能ってある?
0085...φ(・ω・`c⌒っ (ワッチョイ 7fc0-rV4O)2023/09/10(日) 12:32:57.34ID:JrmfjmVA0
>>77
いや、勘違いすんな

まずお前に必要なことは正則化画像を用意することだ
キャラの顔を学習させたければ、そのキャラじゃない人物画像を2倍の数用意しろ

で、wd14-tagger の同じ種類の tagger を使って学習用と正則化用それぞれをタグ付けしろ
それぞれの .txt ファイルの先頭は 1girl になっているだろう

で、学習用の .txt ファイルの先頭にはトリガーワードを追加する
LoveLoveSakurachan, 1girl, .....
みたいに普通には出てこない単語にする
で、正則化用はそのままにしておく

そうすると、「同じ 1girl とは言っても、LoveLoveSakurachan とそうじゃない方との違うはこうだぞ」
とAIに教えることが出来るわけだ

なるべくなら、画像は人物だけを切り抜いた白背景に加工した方がいいし、
なるべくなら、構図や表情も似ている(が、違う人物の)画像がいい
0087...φ(・ω・`c⌒っ (スプッッ Sdca-xkAr)2023/09/10(日) 13:22:08.29ID:pZCoeq0Kd
違う部分を理解して覚えるって高度なことしてるんじゃなくて
1girlは正則化画像やつも正解って覚えるのも同時にすることで過学習を防ぐんじゃなかったか?
0088...φ(・ω・`c⌒っ (ワッチョイ 1a49-w82w)2023/09/10(日) 13:57:44.23ID:ngkIQo040
キャプションのタグ整理はtaggerじゃなくて、複数ファイルを一括修正してから出力できるDataset Tag Editorでやってるな
0089...φ(・ω・`c⌒っ (ワッチョイ 6b3d-K+XN)2023/09/10(日) 15:15:56.50ID:waX0eS7m0
ちょっと上で出てたリアル系モデルにぶっかけはLoRAやLECOで出来たで
モデルをかなり選ぶしアニメ系程大量ではないけど不可能ではない
顔が崩れやすい問題はADetailerで顔修正するとぶっかけ量は少し減るが顔の崩れは補正できる
ぶっかけLECOを複数作って延々何千枚もぶっかけ画像ばかり作って確認できた

まあリアル系でやっても汚らしいだけだしアニメ系でやったほうがいいよね
リアル系だと顔はともかく竿の破綻が多すぎる
0091...φ(・ω・`c⌒っ (スップ Sd6a-6jLp)2023/09/10(日) 17:30:58.84ID:iSpKZ2FQd
>>90
mov2movでも内部でやってることは
大量のimg2imgだからLoraも使えるはず

ただ、動画変換系の場合
Denoising strengthを高めにすると顔は似るが、フレーム間の整合性がとりにくく
Denoising strengthが低いとフレーム間の整合性が取りやすい代わりに顔があまりにない
というジレンマの妥協点に悩むと思う

顔は結構似てるけど肩幅が元動画とずれて制服がガチャガチャしてる例↓
https://dotup.org/uploda/dotup.org3042408.mp4
https://dotup.org/uploda/dotup.org3042409.mp4

肩幅や制服は元動画に近く安定してるけど、顔があまり似ない例↓(誰だ?)
https://dotup.org/uploda/dotup.org3042410.mp4

mov2movではないくebsynth_utilityで作ったやつだけど根本的問題は同じ
というか、mov2movの場合は全フレーム変換だからより影響が大きいかも
0092...φ(・ω・`c⌒っ (ワッチョイ bb7e-Ab91)2023/09/10(日) 17:34:58.64ID:YXBM4+kA0
>>82
ありがとうございます。
あとmov2movでつくるとフレーム10でも数時間かかったりしますが、ebsynth_utilityはかなり早いですか?
0095...φ(・ω・`c⌒っ (ワッチョイ 3ec6-MPWR)2023/09/10(日) 21:39:01.45ID:COgKMljp0
なんか同じモデル使ってても可愛いのばかり出る時と
ツリ目でブサイクばっかり出る時あると思ってたら
Restore faces のせいだった

Restore faces 無 ADetailer 無 ならけっこう可愛いのに
https://dotup.org/uploda/dotup.org3042548.png
Restore faces 有 ADetailer 無 は可愛くない
https://dotup.org/uploda/dotup.org3042549.png
Restore faces 無 ADetailer 有
https://dotup.org/uploda/dotup.org3042550.png
Restore faces 有 ADetailer 有 
https://dotup.org/uploda/dotup.org3042551.png
0098...φ(・ω・`c⌒っ (ワッチョイ fea9-yL5E)2023/09/10(日) 22:12:48.40ID:D0TZgBzP0
気合い入れて貼った例があまり良くないけど
確かにデフォのRestore facesはcodeformerをがっつり効かせ過ぎるから
設定で適度に数字いじると結構使えるよ
顔いじる系は最低でも慣れるまではどっちも残す設定でいかないとな
0099...φ(・ω・`c⌒っ (ワッチョイ 7ed1-hGEq)2023/09/10(日) 22:13:33.60ID:/8RCzk1Z0
階層マージに挑戦してるけど、まずどの階層に問題あるのか確かめるのが大変で
悪さしてる階層を絵から判断するのは己のセンスだから、技術力だけでは成しえない・・・
何が問題なのか? 問題はどこにあるのか? 絵から問題をピックアップできるか?
ほぼほぼセンスに依存するんだなこれ
0100...φ(・ω・`c⌒っ (ワッチョイ 7ed1-hGEq)2023/09/10(日) 22:40:07.46ID:/8RCzk1Z0
>>85
横レスだけど、トリガーワード有りのLoRAをトリガー無しで使うと
発動しないはずなのに若干の影響力が見られるのはおもしろいね
0101...φ(・ω・`c⌒っ (ワッチョイ e67c-MmH2)2023/09/10(日) 23:15:48.54ID:R4y3CagW0
トリガーワードというのはわかりやすいからそう言ってるだけで、別に発動の鍵でもなんでもない
0103...φ(・ω・`c⌒っ (スーップ Sdca-AxLp)2023/09/11(月) 01:06:49.83ID:cQnj1Oeod
逆に一部の服装系LYCORISとかでモデルとの相性なのかトリガーワード込みでも全く発現しないのがあるけど、本来の用途で使えん代わりにプロンプトの効きがやたら良くなったりするのがある
理屈は分からんけど体位とかが面白いくらい変わるからありがたい
0104...φ(・ω・`c⌒っ (ワッチョイ 7ed1-hGEq)2023/09/11(月) 04:10:36.81ID:Ptv5cNMc0
通常では不可能なほどえげつない表現が可能になる物もあるね
LoRAやLyCORIS側にそんな絵が含まれてるとは考えにくいから
ふだんはSDがえげつない絵を制限してるのでは?と予想してる

web UI ではエログロフィルター解除されてるらしいけど
それとは別に 「絶対タブーな表現」 のラインがあるのかもしれん
たとえば赤ちゃん出産とか
0105...φ(・ω・`c⌒っ (ワッチョイ 6b3d-K+XN)2023/09/11(月) 04:53:19.77ID:9CrsJCkn0
出産は出せんね確かに
でもそれは教師画像が存在してないからだと思われる
だからLoRAだと出せなくはないけどLECOだと全く出てこない
乳幼児に中田氏や腹ボテは出せるからモラル的な意味合いも無いと思われる
ヤバさで言うなら出産よりもそっちのがどう考えてもアカンし
0106...φ(・ω・`c⌒っ (ワッチョイ 7ec6-Sh1v)2023/09/11(月) 05:49:50.57ID:xc2J9b1P0
逆に今後のモデルでは規制されていくんだろうな
最新版がエロ無理とか聞くし

girlとプロンプト入れない、全く何もプロンプトがない状態でも汚いながら女の子を描こうとするから偏った学習
それを規制でもっと偏った学習に絞ってくるんだろうね
0107...φ(・ω・`c⌒っ (アウアウウー Sa7f-G3FJ)2023/09/11(月) 06:28:03.45ID:/m1EuH1Za
すみません
実写AVからアニメキャラに変換してる動画ありますが、あれどうやってるんですか
0111...φ(・ω・`c⌒っ (ワッチョイ aa21-3YFy)2023/09/11(月) 10:10:51.02ID:4OdkCQd00
>>104
SDはテキストエンコーダと絵生成部分に分かれてて
テキストエンコーダはテキストからベクトルを生成するだけ、絵生成部分はベクトルを受け取って絵を生成するだけ
テキストエンコーダは出力絵の内容を気にしないし、絵生成部分はプロンプトの文字列が何であるかを気にしない
なのでタブー表現とかはないと思うよ、>>105の言う通り単に学習データがないだけじゃないかな

仮にテキストエンコーダ側に何かnsfwフィルタリング的な構造仕込んだとしてもあまり意味がない
独自のラベル(トリガワード的な)で学習させれば何でも覚えるし描けるんで

テキストエンコーダーの役割はこのサイトあたり判りやすいんでないだろうか
ttps://hoshikat.hatenablog.com/entry/2023/06/13/002443
0112...φ(・ω・`c⌒っ (スップ Sd6a-6jLp)2023/09/11(月) 11:17:56.89ID:XT2eoUZSd
>>109
人気のない廃墟で女の子にあんなことやこんなことを
ってのがいいんじゃないか

JNVA部見に行ったけどAnimateDiffで動画作ってる人がちらほらいたね
自分もAnimateDiffも使ってみたいけど
VRM6Gのうちのマシンでは無理やし・・・

まあでも、元動画なしで動く絵を作るだけなら
もっと簡単な方法もある
https://dotup.org/uploda/dotup.org3042718.mp4
↑手書きラフ1枚作って、それを元に「瞬き」と「くぱあ差分」作った後に
SDで清書してもらった絵をフレーム補完ソフト(Flowframes)で
FPS30の動画にしたやつ
0113...φ(・ω・`c⌒っ (アウアウウー Sa7f-X/FV)2023/09/11(月) 11:42:49.30ID:NX5m8FXOa
>>99
大昔のルールベースのAIだったら
どこのレイヤーが何に対応するとかは
それを作った人間が決めるものだけど
今どきのAIはそういうんじゃないから
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況