【StableDiffusion】AIエロ画像情報交換38
■ このスレッドは過去ログ倉庫に格納されています
0001...φ(・ω・`c⌒っ 転載ダメ (ワッチョイ 729f-PERf)2024/03/13(水) 17:51:50.11ID:NfFOOaXt0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!

前スレ
【StableDiffusion】AIエロ画像情報交換36
https://mercury.bbspink.com/test/read.cgi/erocg/1708774858/

環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ有)
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
【StableDiffusion】画像生成AI質問スレ21(ワッチョイ無)
https://mevius.5ch.net/test/read.cgi/cg/1703250505/

【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero

次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0268...φ(・ω・`c⌒っ (ワッチョイ 4f21-WmUv)2024/03/19(火) 15:08:18.18ID:sFuVmxdv0
>>266
accelerate launchで呼び出すファイルがtrain_network.pyとsdxl_train_network.pyで分かれてるということ
これでわからんならおそらく何かしら補助ツール系使ってやってるんだろう
俺は直接sd-scriptsで設定toml手書きして直接実行してるんで補助ツール系のことはわからん

学習一瞬で終わるていうけどターミナルに何かしら情報出てないんか
起動オプションはこうだとか学習設定はこうだとか学習素材枚数・繰り返し回数・epochでトータルのstepはこのくらいとか
sd-scriptsを呼び出してるなら何かしら出てそうだけど
0269...φ(・ω・`c⌒っ (ワッチョイ afd8-lINt)2024/03/19(火) 15:30:19.72ID:ySmMMODR0
俺も起動したてで動かなかったりLora激重問題あったりしてたけど
違うバージョンで作成されたキャッシュ使い続けてると不具合出るとかあるんかね?
0270...φ(・ω・`c⌒っ (ワッチョイ afbd-lINt)2024/03/19(火) 16:12:45.25ID:iKFcgvDh0
>>268
steps: 0%
epoch 1/10
の後に

A matching Triton is not available, some optimizations will not be enabled.
Error caught was: No module named 'triton'

が8回ほど出る
っていう現象が起きてますね。
その後は
steps: 10%
epoch 2/10
.
.
.
.
.
と一瞬で終了

これが原因なのだろうか
0271...φ(・ω・`c⌒っ (ワッチョイ 4f21-WmUv)2024/03/19(火) 16:32:15.48ID:sFuVmxdv0
>>270
その警告は関係ないので無視でいいよ(tritonはwindowsじゃサポート外)

重要なのはそれよりもっと前のログ
オプティマイザとか学習率とか学習設定やら総ステップ数やら実行設定こうしましたってログが色々出てるじゃろ
素材何枚で繰り返しいくつで何epoch実行するつもりだったのか
その通りに実行設定がされているのか
ディレクトリの設定とか間違ってモデル読めてないとか学習データ読めてないとか疑ってみるといい
0272...φ(・ω・`c⌒っ (ワッチョイ 4f32-XarH)2024/03/19(火) 16:45:16.84ID:j3OKLRil0
>>259
タグが記述されてるファイルを置き忘れてるとかはさすがにないかな?
今試しに教師画像のpngだけおいてタグ.txtを置かずに動かしたら特にエラーも出ずに最後まであっという間に終わったから気になった
0273...φ(・ω・`c⌒っ (ワッチョイ afd8-lINt)2024/03/19(火) 16:52:31.07ID:ySmMMODR0
設定のタグファイルの形式をtxtに指定してなかったときうまく学習できなかった事があった気がする
0274...φ(・ω・`c⌒っ (ワッチョイ afbd-lINt)2024/03/19(火) 17:29:41.82ID:iKFcgvDh0
>>271
「その警告は関係ないので無視でいいよ(tritonはwindowsじゃサポート外)」
ありがとうございますまた一つ進みました。
>>272
普通に置いてますよ。
01.pngに対して01.txt,,02.png,02.txt
これを5セット。
以前は5セットでも学習できてたから大丈夫かと思いますが。
0275...φ(・ω・`c⌒っ (ワッチョイ 2f1f-R5Jb)2024/03/19(火) 19:18:35.62ID:1cGuDTm/0
>>192
イイ!呪文教えて!
0277...φ(・ω・`c⌒っ (ワッチョイ 3765-TKMN)2024/03/19(火) 20:00:16.01ID:WXjEGshh0
ずっと1.5やってたけど生成するの無くなってきたので魔人3.1触ってみようそうしよう
0278...φ(・ω・`c⌒っ (ワッチョイ 3765-TKMN)2024/03/19(火) 20:23:57.63ID:WXjEGshh0
魔人キャラ簡単に破綻無くエロ出せるねぇ
また沼ってしまうわ
0280250 (ワッチョイ afbd-lINt)2024/03/19(火) 20:39:10.32ID:iKFcgvDh0
まじでごめん
.tomlのnumrepatみたいなパラメータを10にしたら良くなったw
前時間かかってたのは推測で申し訳ないけどxformersが
有効じゃなかったからかもです。
これも推測だけど5枚程度じゃ繰り返し回数多くしないとだめかなと思いました。
0281...φ(・ω・`c⌒っ (ワッチョイ 4f98-N7Gq)2024/03/19(火) 22:03:28.84ID:4DP+3Z/M0
そら素材5枚で繰り返し1じゃ学習進まんだろう
5〜10枚*10回*10epochの500〜1000stepくらいをlora試作の目安にするといいよ
0282...φ(・ω・`c⌒っ (ワッチョイ 4f98-N7Gq)2024/03/19(火) 22:06:36.20ID:4DP+3Z/M0
でもってどんな設定で学習してるかってのは>>271の言う通り全部ターミナルにログ出力されてるはずだから
おかしいと思ったらログ確認するクセつけたほうがいいぞ
0283...φ(・ω・`c⌒っ (ワッチョイ 0f02-y//p)2024/03/19(火) 22:35:27.27ID:r7CtlXnj0
ここ数日ponyの神聖三文字リストを眺めてたんだけど
あんなクオリティタグ無しの状態でも誰だか分かる絵師ってすごいよな
め○ん22とかcuteなんとかさんとかうる○はらとか
ザンクロ○なんて縮小画像でもすぐ分かる
学習がいいのか特徴的な優れたクリエイターってことなのか•••
0287...φ(・ω・`c⌒っ (ワッチョイ 4f98-N7Gq)2024/03/20(水) 01:20:37.36ID:tJwEZr290
ponyも完璧にはまだ遠いけどdanbooru系よりは数段良い感じではあるな
広げた時の栗と大陰唇の間の溝と皮膚感をちゃんと描写できるのが良い
栗皮と小陰唇繋げてしまいがちなのが治れば大分良くなるんだが
0288...φ(・ω・`c⌒っ (ワッチョイ 4bb4-ACJr)2024/03/20(水) 01:43:40.58ID:7LQ1lFeJ0
panties asideのブラバージョンってなんか単語ある?ブラが半分くらい脱げて乳首出てるみたいな
nipple slipはあんまり効かない感じ
0292...φ(・ω・`c⌒っ (JP 0H6f-YDcU)2024/03/20(水) 03:02:33.21ID:nN5OTwtgH
状況がよく分からんが、ペイントソフトで描き足したやつをi2iしてるのだとしたらinpaintにしてネガにnipplesでよいのでは?
0293...φ(・ω・`c⌒っ (ワッチョイ 37e3-TKMN)2024/03/20(水) 10:52:26.84ID:VUXPFRtT0
魔人3.1のキャラ何が出るんだろうとテキストからExcelに貼り付けてデータ化して作品別にソートして見てるけどcivitaiに無いキャラもいて興味深い
てかどんだけキャラ学習させてんだよw
0294...φ(・ω・`c⌒っ (ワッチョイ 27ab-rKo5)2024/03/20(水) 10:55:31.33ID:Ac6uKbaF0
先日何気なくlambleだかrunbullだかを使ってみたら
ここには貼れないズリネタ作りに熱中してるんだけど
幼女、和物、陰部の描画に強いXLモデルってないんかな
0295...φ(・ω・`c⌒っ (ワッチョイ afd8-lINt)2024/03/20(水) 10:55:37.02ID:CbWhKS6p0
天龍ちゃんが入ってて龍田さんのデータが入ってないの見て毎度唸ってる
0296...φ(・ω・`c⌒っ (ワッチョイ 4b14-fMm2)2024/03/20(水) 11:44:41.63ID:KCA5k1yo0
ttps://civitai.com/models/351583?modelVersionId=393230
を参考にLoRAを使ってみると、キャラは表示されるのですが、
背景一面に無数の横線が表示されます。
上記サイトの動画で作成するとそのようなことが無かったので、
こちらで用意した画像の問題と思われます。
画像は、フォトショップでキャラだけを選んで背景削除してから、
一辺が1024になるように拡大したものです。
考えられる問題点と、学習のための素材画像への適切な処理方法を
教えてください。
0299...φ(・ω・`c⌒っ (ワッチョイ 4f98-N7Gq)2024/03/20(水) 13:56:02.44ID:tJwEZr290
>>296
必ず背景がおかしくなるということであれば、教師画像の背景部分の特徴を覚えているということなので
そこを何かしら手をいれてやる必要がある
「フォトショップでキャラだけを選んで背景削除」で背景透過色になってるのであれば白単色or黒単色に塗りなおすといいかもね

理屈の上では、「覚えさせたくない部分」はなるべく多様性を持たせたほうがいいので
背景をランダムに差し替えて水増しなりするほうが良いかもしらんのだけど
とりあえず白単色or黒単色統一でも機能はする
0300...φ(・ω・`c⌒っ (ワッチョイ bf60-NW3w)2024/03/20(水) 14:11:31.04ID:Uem/GR3u0
colab用のKohya LoRA Dreamboothが昨日から何度かやっても最初にエラーが出る
これってkohya側の対策待ちなのかおま環なのか?
https://imgur.com/YlyIY8z
0301...φ(・ω・`c⌒っ (ワッチョイ 4b14-fMm2)2024/03/20(水) 14:19:40.07ID:KCA5k1yo0
>>296
ありがとうございます。まずは、白単色に置き換えてやってみます。
0303...φ(・ω・`c⌒っ (ワッチョイ 4f98-N7Gq)2024/03/20(水) 14:28:48.84ID:tJwEZr290
>>301
>>299補足
おそらくだけど、横線まみれになったのは
1)学習時に背景部分の「透過色」を特徴として強く覚えてしまい
2)生成時に背景部分のピクセルを「透過色」で埋めてしまい他のものが描けず
3)「透過色」を描画しようとした結果謎の横線が出た
というような感じかと思われる

stable diffusionはアルゴリズム的にレイヤーみたいな階層構造の概念がないので
(背景を描いてからキャラ重ねるみたいなことをせず、単一キャンバスにピクセルを配置していくだけ)
おそらく「透過色」はあまり意味のあるデータにならない

元画像の透過色はRGBA=(0,0,0,0)になのか、Aだけ0でRGBは成分残ってるのか
学習時や生成時に透過色がどう扱われるのか
とか元データ側もプログラム側もわかりにくい部分が多いので、一旦透過色は排除しておいたほうが無難
0308...φ(・ω・`c⌒っ (ワッチョイ 4b14-fMm2)2024/03/20(水) 18:42:56.81ID:KCA5k1yo0
>>303
296です。透過処理した画像を、エクスプローラーのプレビューで見たら、透過部分が横線まみれになっていました。
背景透過時の処理がまずかったようです。
背景を白にするのは後でやろうと、まずはキャラをアップにして背景ありでLoRAを作成したら、今度は横線が
発生することはありませんでした。
どうもありがとうございます。
0310...φ(・ω・`c⌒っ (ワッチョイ dbb4-lINt)2024/03/20(水) 19:37:50.24ID:AzPra0AD0
話題になっているponyの3文字のプロンプトって
何か例えば有名なアニメキャラを普通のプロンプト以上にうまく出せるような話なんでしょうか?
例えば早坂愛をだしたいならhayasaka aiといれればいいだけですよね(でもなんか公式の画風と違う独自の調子になる) 。
何がそんなにこの話の特徴なのかよくわかりません。特定のプロンプトがきかないアーティストの画風も出せる事があるってことなんでしょうか。
0311...φ(・ω・`c⌒っ (ワッチョイ c3c0-1IJj)2024/03/20(水) 19:54:00.61ID:1tNd33Kh0
例の3文字をポジに入れたりネガに入れたりすることで画風の操作が容易になる
別にアーティスト風にしなくともその質感を加えたり取り除いたりしやすくなる
0312...φ(・ω・`c⌒っ (ワッチョイ 27ab-rKo5)2024/03/20(水) 20:03:56.69ID:Ac6uKbaF0
俺の勝手な想像だと作者名とか普通に入れたら被ったり長すぎたりするから
学習時の便宜上3文字とかに短縮しただけのような気がするが
これがなぜか作者だけにしか分からん情報入れてずるい、みたいな話になってるらしい
0313...φ(・ω・`c⌒っ (ワッチョイ 6b7f-6GLF)2024/03/20(水) 20:09:02.83ID:OJDG06A/0
作家を特定できるような学習はさせていないと作者が発言→実は三文字のワードに変換して学習してました、というだけ
何が登録されているのかを外野が総当たりで探索している最中じゃないかな
0314...φ(・ω・`c⌒っ (ワッチョイ 5b15-fMm2)2024/03/20(水) 20:28:05.45ID:C9FE9rEp0
autismmixSDXLってPonyと比べて何か特徴ある?
使ってみた感じ全然変わって見えない
0315...φ(・ω・`c⌒っ (ワッチョイ b37a-WmUv)2024/03/20(水) 20:39:45.87ID:/xFYlk0A0
Masterpieceに近い作風を見たことないけど
あれは複数の作家の作風を合成したものなのかな

てゆーか段ボールでMasterpieceというタグを見たことない
0317...φ(・ω・`c⌒っ (ワッチョイ 37ec-nDVv)2024/03/20(水) 20:52:17.83ID:l8OyxrJE0
立体視なら生成した絵から3Dデータを作って視差データを作れば飛び出る
さすがに動画は生成絵からは無理だろうけど
0321...φ(・ω・`c⌒っ (ワッチョイ e7c6-GGMQ)2024/03/20(水) 21:21:09.52ID:zKXIf+q+0
>>313
どっちかというと、画風とか便宜上タグ付けして学習させてただけだな
これを作者名に紐付けさせるには作者がわからないとできない
作者を知らないまま学習させるなら勝手なタグ付けて当たり前
0324...φ(・ω・`c⌒っ (ワッチョイ dbb4-lINt)2024/03/20(水) 21:28:05.81ID:AzPra0AD0
>>311-313
なるほど。ありがとうございます。
個人的にはやはりNAI3のアニメキャラのloraなしでの生成能力のすごさが際立つのでそれが改善されればなと思ったのですがそこはpony軍の方はやはりlora頼みというところですかね
0325...φ(・ω・`c⌒っ (ワッチョイ 2708-E5TU)2024/03/20(水) 22:58:34.35ID:mV8xJsAB0
たまたまトークナイズの関係でそれっぽく出るだけで、実はどのモデルでも総当たりすれば似たような感じで出てくるのでは説もある。
0327...φ(・ω・`c⌒っ (シャチーク 0Cff-lINt)2024/03/20(水) 23:51:45.09ID:XmiiS1ocC
pony独自タグの違いについてなんだけど
source_cartoonは「海外産の作品」風・source_animeは「日本産の作品」風
って認識で合ってるんかな…?
0330...φ(・ω・`c⌒っ (ワッチョイ 3b40-ACJr)2024/03/21(木) 01:08:46.35ID:tdFZ4pnV0
>>324
> NAI3のアニメキャラのloraなしでの生成能力のすごさが際立つ
でもNAIで出せるのってメジャーになってから割と時間のたった特定有名キャラだけでしょ?
ユーベルどころかフェルンすら出せないって聞いたけど
0335...φ(・ω・`c⌒っ (ワッチョイ 1fd7-XarH)2024/03/21(木) 07:37:35.77ID:uo6EhKDP0
デフォルトモデルの学習に膨大な金が掛かるから個人じゃ無理ってだけじゃなく、論文を元に実装するのも難しいもんなんかね
0336...φ(・ω・`c⌒っ (ワッチョイ d3f5-RNZQ)2024/03/21(木) 07:54:09.61ID:bQsQVQW10
非実在青少年じゃなかっただと?


【IT】生成AI 児童ポルノ画像を学習か 専門家「被害者の人権侵害恐れ」 [雑用縞工作★]

https://asahi.5ch.net/test/read.cgi/newsplus/1710974914/

画像生成AI(人工知能)の精度を上げるための学習に使われる膨大な画像データの中に、国立国会図書館が「違法な児童ポルノの恐れがある」として閲覧を禁じた写真集の一部が含まれていることがわかった
0338...φ(・ω・`c⌒っ (ワッチョイ afd8-lINt)2024/03/21(木) 08:48:49.90ID:z8AOyk9o0
ponyちゃんで作ったloraは3文字を必要分ネガティブに突っ込まないとかなり安定しないな
これ知らなかったら自作lora安定しなかったかもしれん
いや途中エポックの捨てたから過学習気味の使ってるせいもあるかも
逆に言うと3文字をネガティブに突っ込めば過学習だろうが品質が悪かろうが大概のloraは安定する…?
0340...φ(・ω・`c⌒っ (ワッチョイ 4f9b-WmUv)2024/03/21(木) 14:27:51.39ID:H65v+/Id0
>>327
カートゥーンは海外の「子供向け」アニメって理解でいいと思う
風刺漫画も含んでる可能性があるが
あの濃厚な塗りのコミカルな海外アニメ全般だと思われ


>>328
多分だけど無意味(または効果がほとんどない)
モデル作者の推奨プロンプトを守るのが基本
0342...φ(・ω・`c⌒っ (ワッチョイ 37f8-lINt)2024/03/21(木) 17:41:45.91ID:WcJDjQOC0
>>121 で looking pleasuredを共有してくれたの神、素晴らしい情報。
looking down, embarrassed, (orgasm:0.8) くらい捻っていたのがこれ一単語でいけるとは。
0346...φ(・ω・`c⌒っ (ワッチョイ fba2-F041)2024/03/21(木) 23:14:55.89ID:vm4qQqua0
Pony系とAnimagine系をrefinerで切り替える場合
スケジュール構文でプロンプト切り替えるの大事だったわ
Pony用のクオリティタグをAnimagineに適用しないようにすると良い感じ
0347...φ(・ω・`c⌒っ (ワッチョイ 2727-0q+N)2024/03/21(木) 23:52:35.50ID:bNxWSBp70
SD1.5で最近知ったこと

正常位 missionary pov では足や胴が長すぎるし顔が遠い
対面座位 upright straddle は丁度良いし顔が近付く

そこでupright straddle かつ (on back:1.4) を指定したら、理想的な主観の正常位になった
close-up で少し近付くと、さらに良い感じになる
0348...φ(・ω・`c⌒っ (ワッチョイ d3c8-Mfad)2024/03/22(金) 01:13:59.74ID:GleBrIoF0
とりあえず魔神3.1で2000人くらい絵柄出してみたけど3.0より断然反応あるな
本当にそいつの絵柄を再現できてるかどうかはともかく
0349...φ(・ω・`c⌒っ (ワッチョイ b391-WmUv)2024/03/22(金) 02:41:46.42ID:DhG92su10
モデルやプロンプトも重要だけど構図はSeed値で決まるから
Seed地図を作っておいて損はない、よく似た構図は連番で集まってる

最初は荒唐無稽だったけど何千枚も出力してるうちに傾向が見えてきた
ランダム設定でも本当にランダムではなく有意義な結果を出そうと選択してる
0350...φ(・ω・`c⌒っ (ワッチョイ 37e1-Bqv3)2024/03/22(金) 02:52:37.27ID:RCxqr3Lx0
-1で20枚位作ってちょっと好みの構図がでたらmoat tagger v2でプロンプト出し。
その画像を-1で出してまた好みのが出たら以下略。自分でプロンプト考えるの面倒だからね。
0351...φ(・ω・`c⌒っ (ワッチョイ b391-WmUv)2024/03/22(金) 03:01:31.77ID:DhG92su10
civitaiでプロンプト見てると「setting」とか使ってる人いるのな
日本国内のブログや生成機では見かけないけど有効な手段みたいだ
俺は9割がた平文で指示するけどプロンプトのトレンドはやはり気になる
0353...φ(・ω・`c⌒っ (ワッチョイ fb27-Bqv3)2024/03/22(金) 05:33:27.62ID:UQHV/aW50
すみません3つ質問です。
新しいキャラクターLoraを作りたいと思います。

アニメからキャプチャするキャラクターAの方はいいのですが
問題は漫画や画集からキャプチャする非常に古いキャラです。

キャラAの方はモノクロイラストは数百点あるんですが
カラーイラストは10点くらいしかありません。
このデータを学習させた場合、出力されるイラストは
やはりモノクロになるのでしょうか。

もう1つのキャラBの方は20年くらい前の
設定資料集めをスキャンしてデータを取り込んだのですが
印刷画質とスキャンの状態が悪くモアレだらけです。

AIでモアレをなるべく消して高画質化したのですが
やはりいまいちです。
こちらの場合もLoraを作って出力させた場合
画像が汚くなるのでしょうか。

3つ目、学習させる画像のサイズはどのくらいが適当でしょうか。
画像データはだいたい縦4320〜4500ピクセルほどにリサイズして保持しているのですが
Stable Diffusionは出力画像サイズの一辺が1024ピクセルを超えると
バグだらけになるので、それ以上の大きさのデータの読み込みは
もしかして無駄でしないかと疑念を抱きました。
0354...φ(・ω・`c⌒っ (ワッチョイ 873f-Mfo6)2024/03/22(金) 06:30:43.63ID:du5VZnIB0
>>353
モノクロ・ノイズ
→タグでmonochrome・noiseとか付けて学習させればある程度緩和するけど出力は白黒多めでノイズが乗ると思う
 なるべくきれいにするのが無難

学習サイズ
→多分長辺を学習サイズに合わせてリサイズする機能があるので大丈夫
0356...φ(・ω・`c⌒っ (アウアウウー Sacf-RNZQ)2024/03/22(金) 07:55:34.81ID:kklLCE74a
AI絵師さん、漫画家へのイヤガラセでLoRAを作成、他の絵師に成りすまし拡散、赤松議員「類似性を満たせば著作権侵害」相談窓口を設置

漫画家 樋口紀信の画風LoRAです。

学習に使用した画像は全て自作したものであり、イラストレーター本人の著作物は一切使用していません。

このモデルはどういう使い方をしてもらっても構いません。
0358...φ(・ω・`c⌒っ (ワッチョイ 278f-rKo5)2024/03/22(金) 09:46:39.18ID:GJW+WSBr0
イラストかリアル系でやり方が違う
イラストなら服とかを適当に肌色に塗ってi2i
リアル系なら顔すげ替えの方が早い
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況