【StableDiffusion】AIエロ画像情報交換27
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
(↑コピペで3行以上にして下さい
AIに理想のエロ画像を生成させるためのノウハウについて語り合うスレ
単なる娘自慢も可、だが児ポはダメゼッタイ!
前スレ
【StableDiffusion】AIエロ画像情報交換25【NovelAI】 (実質26)
http://mercury.bbspink.com/test/read.cgi/erocg/1684654352/
環境構築方法等の技術系の質問はこちらでお願いします
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1684577410/
【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured ・ワッチョイID隠しのNG設定
コピペする時は半角スペース紛れ込んでないかチェック
■Live5ch
設定>オプション>NGワード>正規表現
「日付、ID」で以下を追加
^(?!.*ID).+$
■mate
メニュー>NG編集>Nameタブ>追加>NGName追加ダイアログが開く
有効にチェック、正規表現を選択 で以下を追加
(?<!\))$
■jane
メニュー>NG編集>名前タブで+>追加ダイアログが開く
正規表現にチェック で以下を追加
(?<!\))$ ■おもな学習モデルの解説・ダウンロード
Hugging Face
ttps://huggingface.co/models
話題になったモデルはまずここで検索してみよう、だいたいはここにある
Civitai
ttps://civitai.com/
派生モデルやマージモデルが多いがプレビューがあるのでとても探しやすい ■画像アップローダー、オンライン画像編集サイト
MajinAI 5ch有志が立ち上げた画像投稿サイト
https://majinai.art/
まじんAIではなく、マジナイと読む
画像と一緒にプロンプトやInfo情報が載せられるのでプロンプトのやり取りに便利
手動で局部修正作業もできる
二次エロ画像アップローダー
http://ero-gazou-uploader.x0.com/
モロだしの局部はモザイクや黒塗りなどで [ 必 ず 修 正 ] をしてからアップしよう
ImageBam
https://www.imagebam.com/
メタデータが削除されるアップローダー
Catbox
https://catbox.moe/
メタデータが削除されないアップローダー。プロンプトなどの生成情報を公開してもよいときに使おう
画像結合ツール フォトコンバイン
https://photocombine.net/cb/
2枚以上の画像を結合して1枚の画像ファイルにすることができ、出力解像度の指定や文字の挿入なども可能
全ての処理をブラウザ上で行っているので画像データがサーバーに送られることはなく個人情報も守られる模様 ■その他リンク
Danbooru tag groups
ttps://danbooru.donmai.us/wiki_pages/tag_groups
/hdg/ 4chan情報まとめ
ttps://rentry.org/hdgpromptassist
モデルやLoRAファイルのダウンロードなどもまとまっていて便利
韓国情報フォーラム
ttps://arca.live/b/hypernetworks
中国情報フォーラム
ttps://www.tangguo2.com/forum.php?mod=forumdisplay&fid=61 ■FAQ
Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい?
A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像(特に幼児)の生成でBANされる可能性がある
Q2:ローカル環境でパソコンの性能はどのくらいがいい?
A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMe SSDのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい
Q3:NMKDと1111、どちらをインストールしたらいい?
A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q4:画像を出力したら色が薄い、または彩度が低い
A4:VAEが適用されていない可能性がある。1111なら設定(settings)−UI設定(User Interface)−クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる ■その他リンク
NovelAI 5ch Wiki
https://seesaawiki.jp/nai_ch/
としあきdiffusion Wiki
https://wikiwiki.jp/sd_toshiaki/
Danbooru tag groups
ttps://danbooru.donmai.us/wiki_pages/tag_groups
/hdg/ 4chan情報まとめ
ttps://rentry.org/hdgpromptassist
モデルやLoRAファイルのダウンロードなどもまとまっていて便利
韓国情報フォーラム
ttps://arca.live/b/hypernetworks
中国情報フォーラム
ttps://www.tangguo2.com/forum.php?mod=forumdisplay&fid=61 【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である ■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat
Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい 質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>>2以降に 【初めての人は読んでね】テンプレまとめ・編集コード「5ch」
https://rentry.co/pinkaiero
次スレは>>980が立ててください ■オンライン課金サービス
[NovelAI]
料金プラン・使い方解説
ttps://matomedane.jp/page/114655
NovelAI 5ch Wiki
ttps://seesaawiki.jp/nai_ch/d/ ■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで 質問スレの長いテンプレをそのまま持ってきたのか…テンプレだけで20近く行くのはさすがに長すぎじゃない? >>10以降あたりはいらんくね?
てめえで探せなのばっかり 作ったキャラLoraが大変いい出来で喜んでたんだが
promptで衣装を指定しても着替えをしてくれないことが発覚
脱いではくれるので単純な過学習ではなさそう
層別適用してもダメぽい
こんなん初めてだな 1111で気軽にLora作れると知って、初めてLora作ったんだけど、顔がなんか違う
このレベルの絵なんて描けないんだから本当に凄いとは思うんだけど何というか雰囲気が違う
Loraを正しく作る教科書みたいなの無いだろうか?
Civitaiでみると、結構酷い画像からかなりいいものができてたりするし
同じ画像を使ったはずなのになにか違う
また、更に良さそうな画像を追加しても良いものができない
何かコツみたいなものがあるんだろうか? nmdGtWqA0の分は荒らしっぽいんで、次スレ立てる人は注意ね >>24
多分教科書なんてものはない
少なくとも今のところ
いろいろ作ってきたけど、設定とか素材の集め方とかは
出したいものがキャラか衣装か構図かによっても違うし
どれくらい複雑なものを出したいかにもよるし
再現性重視か、汎用性重視かによっても違う ウマ娘無修正はこちら今ならキャラリクエストも受付中
https://www.patreon.com/user?u=93255266
おかげさまで支援者が急増しています
リクエストは抽選なので人数が多くなる前にお早めの加入をお勧めします
pixivにはサンプル画像を載せています
https://www.pixiv.net/users/93312558 自作LoRAでBRAがウインク(closed eye)をしてくれなくて瞼の周りが破綻したのに、同じ設定でモデルだけ替えて学習し直したらちゃんとウインクしてくれた事がある 作りたいLoraはガハママでバレー用ユニフォームを着ているもの
表情は可能な限り多様な表情が見たい、顔の形と服装重視
とりあえず、とてもお気に入りの画像200枚あったからそれを全部入れると微妙な感じになった
理想的な顔の画像を厳選して20枚、服と裸は2,3種類だけ顔なしで入れてみたら、結構、良いものができた気がする
キレイな画像なら枚数は多いほうが良いと思ってたけど、枚数少なくても品質が高い方が良い気がしてきた これがコツなのか?
とりあえず、学習時間かかるから何度もできないのが辛い、、、ついでに眠い
あと、OptimizerType LionだとLora作成失敗 AdamWだと問題なく動作した
あと、タグ設定でもっとしっかりと服装を呼び出したいけどTrainToolsでは細かくは設定できないっぽい? >>3のName系は他のスレでの誤爆率が高いから
よっぽど気になる人以外はやめといたほうがいいよ
Jane系ならNGExでスレタイも指定するかID欄での指定にした方がいい >>1
乙
>>31
ここは情報交換だから
同じ板に画像スレあるよ このスレ(板)はちゃんとアダルト対応なのに
他の一般スレよりも貼られないという7不思議の1つ >>33
そこワッチョイ無いからか知らないけどめっちゃ荒らされてるね
少なくとも俺はあそこに貼る気は出ないよ >>30
ユニフォームを着た良質な画像を厳選してAdamW8bit dim128 alpha64で作成してみては
多少は裸や他の服の画像が混じってもOKで覚えさせたいタグを消すと打率アップ >>35
元のID無し板に荒らしが居て
そこからIDありに移行したら怒り狂って荒らしてる状態だね 嵐のこの話題はスルーでよろ
>>3
915 ...φ(・ω・`c⌒っ [sage] 2023/06/22(木) 09:52:41.21 ID:
chilloutmixとかsunshinemixだととりあえず
普通にいまいちな画像は出て来るんですが
el zipang使うとまともに描写されないんです
https://i.imgur.com/PIQYJyw.jpg
JDL当ててもブスしか出ないです この板にある画像スレは、荒れている途中で別れたスレだから、あれてて申し訳ない…
懲りずにたまに貼るので、そのうち見てくれるとありがたいです スレ跨いでまで構うとは手に負えんな
そりゃ荒らしが喜ぶわけだよ >>37
ワッチョイ付くだけで嫌がる疚しい奴らが質門スレにいっぱい居るのに
IDだけで発狂する奴が居るのか >>36
ネット探すと1111のUIでのやり方紹介はまだあまり資料がないっぽくて良く分からない
1111のTrain Toolsの場合、deepbooruで説明をつける ここでUpdateDatasetをすると
テキストができるけど、この段階でテキストを開いて編集で良い?
今のところ、
反転画像を生成する
自動サイズで切り取り
deepbooruで説明をつける
エラーの最小化
にチェックを入れてあとはデフォルトでUpdateDatesetを押してる
TrainBase modelはanyloraCheckpoit_bakedvaeFtmsFp16NOT
Number of epochs は6
Optimizer typeはAdamW
あとはデフォルト >>38
実はそのLora+ユニフォームを使ったっぽい人の画像を使ってやったんだけど顔がどうも変わってしまって試行錯誤してる所
あと、1番目のLoraは lora.py にエラーが出て使えなかった そこで初めてLora作成に取り組んでる
2番目は見つけられてなかったから助かるありがとう!
しかしSDって本当に凄いな
みんな普通に使ってるけど、SFで出てきそうな未来の技術という気がしてならない 自動サイズで切り取りはrandom cropかな?
あれは学習素材をランダムな範囲で切り抜いて構図等の対応力向上期待するかわりにピクセル情報が失われるから
とりあえず学習の挙動ある程度把握するまではOFFにしといたほうが無難かもしらん
画像全体を使わなくなるから、学習素材が良いかどうかの判断がつきにくくなる sd-scriptsでProdigyやろうとしたけどうまくいかなかったんで、再インストールしようとしてるんだけど、
単純にvenvフォルダ消せばいいんか?
それともpowershellとかからvenvフォルダの真上まで行って、非アクティブ化してからコマンドで"rm -rf venv"とかやらないとダメなんか?
すまんがsd-scripts自信ニキ、教えてくんなまし 46だが誤爆して口調おかしくなってすまない
スルーしてくれていいので・・・ >>44
遊ぶうちに限界を感じてくる
SFの技術までは、大きな一歩であるがまだまだ遠い >>46
venvはフォルダ内で完結してるから単純にエクスプローラから消せばいいと思うよ
その後手動でvenv作り直せばいい(手順は公式に書いてある)
https://github.com/kohya-ss/sd-scripts
ぶっちゃけvenv作り直すって環境丸ごと作り直すのと所用時間あんま変わらんから
別のディレクトリにgit cloneから作り直してもいいと思うけどね ああvenvフォルダ消す時はactiveなターミナル開いてると使用中のファイル云々で怒られると思うから
ターミナル閉じてからね >>32
それは逆かと
ワッチョイなしスレを見たいときだけ外せばいい
ワッチョイ隠しはそれくらい犯罪者率が高い >>49
ありがと。単純にウインドウズ上から消してsd-scripts環境作り直すわ sdxlのチェックポイントがリリースされたっぽいからもうちょいしたら1111で動作するようになるんかな >>39
el zipangはタグでしっかり引っ張り出さないと出てこないのでサンプルから変更していくといいべ
超マニアックな難易度の高い部類に入るモデルだ
俺も途中までしか追ってた記憶しかないけど、アジア顔出すのに最後何かマージするようなレシピが出てた気もするし 画像の方はSDがローカルで自由に使えるのに
文章の方は画期的なものが出てない
何でだろ
両方ともローカルで使いたいのに 絵は全く勉強したことがない人でも落書き程度なら書けるだろ
全く勉強したことのない言語はカタコトでも話せるようになるまでは大変だ SDは破綻した絵を出すことあるけど
chatGPTは文章になってない文字列は出さないし
色々丁寧なのは間違いない
とはいえRGB+明るさと比べたら文字列のパターンなんて知れてるはずなんだが特徴量にすると大きいのかな…? なろうでAI文章書いている人極稀にいそうだな
他人の文章をコピペして名称だけ書き換えた物とかあるし GPT-3.5は175Gパラメータ
fp16で350GB civitai 上がっているポーズで、手をあがるとか単純なポーズはcontrolnetで
再現できるが、複雑なポーズは再現ができません。
何か間違っているのでしょうか。
それとも、conでけでなく、プロンプトでもいろいろ指定しないと
同様な画像にならないものでしょうか。
なにかコツがありましたら、ご教示お願いします! AIにラノベ書かせるのは難しそうだな
人間ですら話の前後で矛盾が出たり破綻するし
話の至る所で伏線も張ったりとかするしな
ラノベ1巻分となると12万文字になるし
それだけ多いとミスも当然多くなる
ってこれスレチだなすまん 再現できませんとだけ書かれても、どううまくいかないのかがわからんと
推測のしようもないんだ
一番いいのは失敗した生成画像と、目標にしてるサンプル画像を張ることだね
controlnet使ってるなら棒人間画像なり深度画像なりも張るとなおよい 手っ取り早く再現性の高い絵を作るなら
リファレンスオンリー使えば良いけど
完璧にやるならBlender覚えるしかないか
あれ習得に半年以上掛かるんだっけ 他の胸に手をおく、とか指定してガチャっているとそれプラスαのポーズになることがあるので、
ある程度近い体制をpromptで指示してガチャる…かな
promptはあくまで確率なので、確実には出ないけど近いものには寄せてくれることもある >>63
例えば次の左下のケツを突き上げて膝を伸ばして、こっちをみているポーズとか
https://civitai.com/models/14368/zpose-playful-poses-pose-helper
ネガティブプロンプトでいろいろNG指定しても
イメージ画像とはかけ離れたものになるんだが。 あくまでCNは「誘導」だからプロンプトでも指定しないとダメよ
(強度を強めて同じにすることもできるけど)
例えば「女の子が手を上げている」というプロンプトだと
右手なのか左手なのか両手なのか
真上なのか斜めなのか横なのかAIはわからないから色んなパターンになる
そこにCNでざっくりと右手を上げてる画像で誘導すれば
ほぼ100%右手を上げてる女の子の画像ができる、みたいな >>62
小説みたいな長いものではなく、素晴らしい出来栄えのプロンプトを学習させて、大量のエロいプロンプトを生成させたい
今はダイナミクプロンプトで大量に表情を入れてるけどランダムな組み合わせだから出来栄えは珠玉混在ここを改善したい aiちゃんに、エチ衣装をオススメしてほしい
流石に自分で考えると2個めにはメイド衣装が出てくる貧困さをなんとかしたい >>70
こういうのこそ言語モデルであるChatGPTちゃんの出番かと! >>71
アダルトな話題はどうなんだろうね?
前になんかでやったら、その話題は手伝えねぇ、みたいなこと言われた気が…
>>72
これはちょっと求めるのとは違うけど、promptに参考にはなるかも。
ありがとう chatGPTはエロい話題はスルーするように作られてるけど、それをかいくぐるテクニックを研究してる人がいっぱいいる
twitterで色々発表されてる rinnaはエロ方面どうなん
そもそも精度は低いだろうけど回りくどいエロ回避策いらないんなら
とりあえずのエロ作文にはいいんじゃない chatエロの開発はオナテク板でやってるだよ
気になる人は覗いたらいいかも むちゃくちゃネガティブプロンプト入れてるのに脚6本腕4本の化け物しか出てこないときはどうすればいいんだい LORAの強度を落とす
ポジティブ、ネガティブ共にプロンプトを減らす(厳選する)
lama-cleanerで余計なもん消してからi2iにかける
モデルを変える
プロンプトを変える
1000枚ぐらいガチャしてみる
あきらめる
こんなもんかね sd-scriptsでもtorch2にしてみたら一応1〜2割くらい速度アップするな
なんかのライブラリが未対応で一部最適化処理ができんみたいな警告は出るが学習はちゃんと進んだっぽい
>>77
そもそもポジティブのプロンプト見直したほうがいい
a girl,standingくらいのシンプルなプロンプトならそうそう奇形は出ないっしょ
ざっくり半分くらい削ったりしてどこが悪さしてるか調べたほうがいいよ >>80
1girl,solo,solo focus
これでも奇形が生まれるから困ってるんだ。。。 あ〜書き忘れてたけど、サンプリングの種類にもよるけど
サンプリングステップを増やす(50〜ぐらい)とうまくいくことも結構ある >>81
ネガティブをEasyNegativeだけにしてみて
あとモデルも変えてみても暴走気味なら
インスコし直してみてはどうだい? >>83
EasyNegativeだけにしたら暴走は止まった
けど、気に入らないところを少しでも潰そうとするとまた暴走するから環境作り直しますわ
ありがとう >>66
なるほど確かにこれは難しい
モデルから厳選しないとダメかも みんなエロ板にすら貼れないような画像作ってるんだよ
おれはくわしいんだ うちは、extra fingersみたいなetraとかmissingがあったりanatomy入れたりと、
指周りは、badhandsのtextucial invation入れているからだいぶ四肢と指については奇形減ったかも
あとは構図については、upper bodyとか指定してある程度どれくらい、人体が描画するか指定したりかな >>37>>40
なるほどサンクス
IDだけじゃなくて容赦なくワッチョイも導入すべきだったみたいだね…
どうせ文句言うのは都合が悪くなる人だけだから次はワッチョイ入れてもいいと思うわ テンプレ>>2に書いてあるしな
画像貼らない人は皆ロリコン ノートpcでメモリ(グラボ)8Gでも学習とかってできる?
予算が20万しかいないんだよ
綺麗な自然の絵を差分込みで描きたい
学習もさせたい
時間はかかってもいい >>91
予算カツカツならノートじゃなくてデスクトップにすることを進めるが
生成AIでノートはそもそもハンデが大きい
廃熱悪いし、グラボのコスパも悪いし、拡張性も悪いし >>91
ノートじゃなきゃダメなんか?
12〜3万で3060-12GつんだBTOのデスクトップ買えると思うが >>91
学習するなら12GBあった方がいいんじゃないか?
他も言ってるけどデスクトップにした方がコスパいい
20万ならマウスキーボードやモニタの分含めても最低限揃うと思う >>91
動くには動くだろうけど……ノートでやるのは本当にオススメしない、かなり厳しいところがあると思う
どうしてもノートである必要があるなら、逆にもっと安いのを買って、浮いた予算をクラウドGPUレンタル料にあてたほうがいい
毎回セットアップする手間はあるけど、生成・学習時間は大幅に短くなるからトータル有利だろうし Loraの学習だけど3080-10Gでできてる
あと、ドライバをアップデートするとPCのメモリでもできるという話もある
ただ、ノートのGPUは同じGPU名でも遅いと聞くから辞めたほうが良いと思う 去年z690/12600k/850w/64G/nvme1Tで組んで12万+グラボ+OSみたいな感じだったから
20万ならB660+13400Fとかで組めば4070くらい積めるんちゃう ノートとデスクトップのコスパは雲泥の差だからな
しかも遅くても良いと言っているし
家に置いて放置プレイするなら尚更デスクトップだろ 20万ノートではほぼ何も出来ないに等しい
デスクトップでもギリギリの低スペック
AI絵は思っている以上に金の掛かる趣味だぞ 理想は自作PCだけどPC詳しくないなら
増設しやすいBTO買っとけば良い
店員への言葉は「GeForceの12GBください」で良い まじでありがとう
デスクトップ買っとけよか
欲しいんだが、親に怒られるんだよな
後クラウドgpuとか初めて聞いたわwww
>>100
うそやろ?20万ってゲーミングpcとしては十分過ぎると聞いたんだが
デスクトップだとディスプレイとラックとファンも買わないといけないし
無理すぎる ■ このスレッドは過去ログ倉庫に格納されています