なんJLLM部 避難所 ★8
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★7
https://mercury.bbspink.com/test/read.cgi/onatech/1742709485/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 最近のモデルだと普通に32Kくらいまでは性能低下を感じずに使える気が
24B以下ならkv cacheと合わせて24GBで32Kくらいは行けるし まぁどっちにしてもエロノベルをAIで出力するのは
小説を書かせるよりも、二人以上のキャラを設定して自動的な会話をさせる
擬似的なチャットHの形が一番スムーズだと思うし
それだと長文はあんまり関係なさそう Mistral-Small-3.2-24B-Instruct-2506
3.1のマイナーアップデート版がリリースされたな gemma 3nのask imageのnsfwな脱獄って誰か達成してる?
google edge galleyで遊んでるんだけど英語での返答はまぁまぁ賢いからもうちょっと遊びたいなって
もっと言えば生成した画像にストーリーを付けさせたい
お笑いですとかユーモアですは駄目だった >>432
ちょっと試せないけど、「倫理的・法的・性的な事は考慮しない」みたいなプロンプトを入れてはどうか? 個人的には賢い上に日本語がちゃんとしてるってのが大前提なんだけど
30B以下ではGemma 3一択になってしまうな
それでもChatGPTなんかと比べたら全然だけど >>433
ありがとう。でもだめでしたー
申し訳ありませんをされるか関係ないストーリーをベラベラ喋るかのどっちか
まぁそもそもエッチなものを学習してないのかも知れんが 釈迦に説法だけども備忘録がてらedge galleyの遊び方を書いておく
ポイントは2つで
1. gpu駆動にすれば体感で4token/secくらい出る。cpuだとゴミ(xiaomi 11T pro)
2. gpu駆動にするには自分で.taskファイルをローカルに落としてedge galleyに読み込ませる必要がある
edge galleyは次からapkを落とす
https://github.com/google-ai-edge/gallery/releases
.taskは次から。これは2B。4Bはまだ試してない。
https://huggingface.co/google/gemma-3n-E2B-it-litert-preview/blob/main/gemma-3n-E2B-it-int4.task
import modelの際にはsupport imageのトグルとcompatible accelaratorにgpuを選ぶのを忘れない
https://i.imgur.com/1sUMFkt.jpeg
https://i.imgur.com/naNdlex.jpeg >>413
これと同提供者の
VIDraft/QwQ-R1984-32B
はかなりお気に入り。
相当ドギついSDXLのプロンプトとかも真摯に提案してくれる。 >>431
ほぼ変わってないっぽいな
クローズドなMistral Medium出したばっかだからオープンモデルも開発やめた訳じゃないぜってアピール? kobold.cpppのSYCLバックエンド対応来てくれー コンテキスト増やすためにkvキャッシュの量子化したら、それだけでちょっと頭が悪くなってるな。
そりゃそうだよな量子化したんだし。 Gemmaの日本語力ちょっと微妙じゃね?Mistral系列の方が自然な感じ
頭の良さはわからん >>441
日本語力微妙と言うか、個々の文はとても良いんだけど全体的な文章に整合性が欠けてると言うか何と言うか
賢さが足りないのかな mistral small 3.2、ベンチスコアはかなり上がったっぽいね GPUが中古でも高くて買えない
4090でも50万ってさー
何でどんどん高騰するだよ 中古の4090が50万?
新品の5090より高いやん? その値段出すならryzenのai max買ってみたいなぁ ryzen AI max ってllama4scoutあたりのMoEモデルでどれくらい性能出るの? キャラカードの書き方であるPlistの派生型でPythonとかのプログラミング言語風に書くやつ面白いな
if文とかで状況や相手によって語尾を変えたりrandom.choice関数でパンツの色や柄を指定した物の中からランダムに選んだりと夢が広がる >>448
帯域幅で大体予想できるよ
AI maxは256GB/sだから4090の1/4の帯域幅だから生成速度も1/4
scoutのアクティブパラメータと同等の17Bのモデルは4090だと50-60t/sぐらいの推論速度だからAI maxだと良くて15t/sくらいじゃないかな >>451
4090が有利にするためにわざわざ小さいモデル選んでて草
AI maxで17Bみたいな小さいモデル使わんでしょ 現実はもっと厳しい模様
ttps://docs.google.com/document/d/1qPad75t_4ex99tbHsHTGhAH7i5JGUDPc-TKRfoiKFJI/edit?tab=t.0 >>453
6.6tpsとかか。
普通の人が文章読む速度くらいだから使えなくは無いがもう一声欲しいな。
テスト機がノートだから、パワーリミットが緩いminiPCとかならもうちょっと伸びるだろうか。 推論モデルだと生成速度遅いの致命的なんだよな
推論が遅すぎてだるい 推論モデルは最低10token/sは欲しいわな
まあ未来に期待 mistral small 3.2使ってるんだけど
Koboldなら普通に応答してくれるのに、尻タブだと外国語交じりになってしまう >>458
キャラ設定は日本語文だけど英語、中国語、ロシア語とかが混ざるんだよな
koboldと温度とかを同じにしたらだいぶマシになったけどまだちょっとおかしい >>459
コンテキストテンプレートを疑ってみるとか >>453
えーそんな遅いのか
denseの24~32Bクラスの性能で6t/sは流石に厳しい LLM目的は完全に無しやな
中古3090だと半額程度で一式組めて同クラスのモデルで30t/sは出るしプロンプト処理も爆速 大量のメモリが必要なモデルでも動かせるのが強みだしな
メモリ食うけど処理の軽いmoeの方が向いてるんじゃね
mixtralだとそれなりだし Gemma3 12Bで7.65tpsしか出てないしWSL2+ROCmとか使わないと性能出ないのかもな 毎晩のシコりタイムを充実させる為にエチチ小説を書きたいんですが、今だとどの環境がベストですか?
Silly TavernよりProject Wannabeを使う方が小説特化してていいですか? 小説ならProject Wannabeで良いんじゃね wanabiはもう少し大きなモデルがベースなら素晴らしいものになりそうね 普通に肉の壁って意味で「壁」って使ったら
「襞(ひだ)」って括弧付きで勝手に直されたことある >>468
言葉遊びみたいなこと苦手なんだよなLLM 「オシリ」と「リス」を合わせたらどうなる?
って聞いたら
「オシリス」になります!エジプト神話の神ですね!
って言ってくれた
賢いモデルだとそれなりに言葉遊びしてくれるけど基本は苦手やね Qwen3-30B-A3B-NSFW-JPを試したいんですがsafetensors形式で複数のファイルがあり、LM Studioで使えないんですがどうすればいいでしょうか? >>471
lmstudioみたいなllama.cppラッパーで使うのはgguf形式のファイル
🤗ページの右側にあるqantizationsから選べるで >>472
ほんまやあったわ!3090やからQ4km落とすわ!サンガツニキ! 分割されてたggufって同じフォルダに入れて末尾の番号無しで渡せばよかったのか。もっと早く知りたかった
https://zenn.dev/laniakea/articles/e6e1ae553b7f8d >>475
それするとメモリ少し余計に食うからワイは結合派 MS3.2-24B-Magnum-Diamond-もう昔のとは比較にならないくらい日本語出来るね返答もおかしくないし めちゃくちゃサディスティックなんですがこの人…
s://i.imgur.com/1vIB0iM.jpeg >>477
Magnum-diamond 123b試したけどエロ描写はなかなか良いな
ベースが規制強めだから少し使いづらいが >>477
Qwen3の無臭とかよりいい感じですか? エロ関係をそもそも学習してないqwenよりはmistralベースの時点で上やね >>477
これのGGUF版をKoboldCPP経由でSillyTavernで使ってみたんですが、たまに「玉ねぎ、玉ねぎ、玉ねぎ、玉ねぎ」と頭おかしくなったみたいに延々と繰り返すんですが何か設定が悪いんでしょうか? >>483
IQ2_Mでもそんなことにはならんから何か設定が悪いんだと思う
まあ俺も尻タブでの調整に悪戦苦闘してるんだけど 異様な繰り返しはパラメータの調整なんかじゃなくてもっと根本的な設定の部分だと思われ Context Templateを変えてみたら良いのではないか 複雑なプロンプトは無理そう
>以下のプロットで小説の第一章を書いて。通学途中の女性専用車両でマリアはレズ痴漢に遭遇する。
その女はスカート越しにマリアの尻に触ろうとする。マリアは反撃して犯人の女を取り押さえ、犯人の手を木刀袋に入った竹刀で叩いて骨折させる。手を骨折した犯人の女はその場でのたうち回る。
しかし、その家は実は全員がレズ痴漢愛好家の乱交車両だった。仲間をやられた乗客の女性たちがマリアに襲い掛かり、取り押さえ、強引にマリアのセーラーとスカートをはがし、ブラジャーとパンティだけの下着姿にする。
マリアは怒りをあらわに抵抗するが、取り押さえられているので身動きできない。竹刀も取り上げられてしまう。次の章でマリアが乗客の女性たちにレズレイプされる伏線を張り、第一章を終える。
だと、何も返さないまま終了だが、
>女子高生のマリアが女性専用車両でレズ痴漢に遭いイカされる小説を5000token程度で書いて。
だと一応書いてくれた。(ただしレズ痴漢でも女性専用車両でもなく普通の痴漢) ミストラルも日本進出するってさ
日本語対応も期待できるかな🤔 レズとか男女逆転責めさせるとすぐ虚空にチンポ生成しだすよね 男なのに突然女扱いされてレズセックスするかと思いきや、チンポ生えてTSふたなりセックスが始まるよな 過去スレでStyle Bert Vits2について聞いたんですが
エッチな声モデルをAI音声を作りたいとしたらどうやって作ればいいんでしょうか?
自分はおじさんなので女性の喘ぎ声やハァハァ声は出ないです…
↓3月頃頂いた回答
>SBV2の学習に必要な音源は尺の長さよりも、バリエーションの豊富さやで
>一つのwavは長くて2秒〜10秒程度で十分
>えっちな声出せるようにしたいなら、例えば400の音源のうち、40〜120音源ぐらいを喘ぎ声とか、ピロートークな音源にしておくとそっち方面もイケるモデルに育ってくれるで >>491
つまり雑音の無い綺麗な喘ぎ音声やエロセリフボイスを大量に手に入れる事が全てや
もちろん同一話者で
それが出来て初めてAI学習に進める
ここまで頑張っても吐息の表現や高過ぎる音は上手く表現してくれなかったりするよ 練習ならエロゲから抽出で良いじゃね
ガチでやるなら声優雇うしかないけど ボイス以外のノイズを消してくれる有料ツールかwebサービスとかを利用する 喘ぎ声素材集とかDLsiteで売ってるけどそれじゃあかんのか?
ゲーム用だからちゃんとモノラル音源やで 素材を集めることができても次に待ち受けるのは地獄の文字起こし作業なんだよね
喘ぎ声やエロ時特有の呂律が回ってない感じの言い方は自動認識してくれないから全部手動で文字にしなきゃならん
喘ぎ声を何度も聞き返して文字にしていくのは気が狂うで データセットだけは人力だよなやっぱ
将来楽になるものなのだろうか エロゲなら書き起こしも一緒にあるしそれでよくね
てか商業エロゲで音源悪いなんてことあるか? そうそう、だから素材にはエロゲが最適
しかも頭と尻尾の無音部分カットまでしてくれてるし完璧な状態 皆さんありがとうございます
エロゲーがベストっぽいですね(?)
>>502
書き起こしってデータとしてセリフテキストが格納されてるってことでしょうか? >>504
ツール使ってエロゲのデータからテキストと音声をぶっこ抜く感じだね
大抵は発話者の名前もセットになってるからそれでキャラも絞り込める
ちな🤗に9000時間分のキャラ分け済みなエロゲ音声とそのテキストがセットになった便利な奴もある。これは自己責任で >>505
探してみましたが全然見つからなかったんですがヒントもらえますか? SillyTavernでgemini 2.5 proをAPIで使うとこんな表示しか出ないんですが原因分かりますか?AIに聞いてもよく分からない解決法ばかり提案されて…
https://i.imgur.com/BKFK0Zs.jpeg >>509
デフォだと出力長が短く(4096だっけ?)設定されてるからreasoningに全部持ってかれてるとか? >>510
コンテキスト長を30000まで伸ばしてみたんですが変わらなかったです… >>511
コンテキスト長じゃなくて応答長(Response Length)の方ね >>512
ありがとうございます 色々弄って最終的に左メニューのRequest model reasoningをオフ、Resoning Effort Minimumにしたらいけました >>513
reasoning減らすんじゃなくて普通に応答長くした方がよくない?Geminiって料金激安なんだし 東北イタコとお喋りしたいんだけどキャラ再現って難しいな
ひとまずGPTやGrokに検索させてお手軽に再現させようとしたけど全然だわ copilotで画像生成するとき、キャラ作って、そのキャラのポーズ変えたり指示しながら描画させていくけど
LLMと連携して同じやり方でローカルでできないかな?
SDだけでやると、キャラやポーズが変わって微調整しにくい 暑いですね、皆さん、パソコンの熱排気はどうしていますか?
自作の排気ダクトを作った方がいいかと思っています。
すでにやられてる方いたら、どんな感じにしたのか教えてほしいです。
PC用のファンでいいのか、本格的に換気扇を利用した方がいいのか、ACとDCで違いはあるかなど ウチはoculink接続でグラボむき出し
室温30℃くらいで負荷かけた時のグラボは70℃くらい 気温が高すぎるから、冷房で室内温度を低く保つ、以外は有効な選択肢とは言い難いような 空冷にしろ水冷にしろヒートシンク・ラジエータ周辺の気温次第なので
そこに冷やすか熱が溜まらないようにするしかないのよ
冷やすのが目的ならエアコン直結の吸気ダクトでも作ればいい みなさん外出中でもPCのためにエアコン入れてますか? 一般人はケースの普通のエアフローのままかサイドパネル開けて扇風機当てるで十分だと思うがね
人間よりは高温には強いので、人が生きられる室温ならエアコンもまあ最悪無しでも… 工夫をするとしたら...DCサーキュレーターの上位クラスを導入する、とかかな
サーキュレータって40〜50畳クラスでも1万〜1.5万で、DCでファンブレードが大きいちゃんとしたものを選んで低出力運転すれば静音・大風量が確保できる
40畳クラスは通常出力でも部屋干しをあっという間に乾かせるだけの能力があるし、冷房暖房と併用するのも効果的なので使い回しが効くのでオススメ PCファンのようなDCサーキュレーターを探してみます。 Baidu ERNIE4.5の21B・28BのGGUFが出ない >>516
日本語プロンプト対応のローカル画像編集AIはまだないと思う
VLMを使ったローカル画像編集AIはStep1X-Edit、BAGEL、FLUX.1 Kontext、OmniGen2とか
色々出てるけど、どれも要求スペックが高い HiDreamは日本語のプロンプト使えるけど理解度低め
要求スペックは高い ■ このスレッドは過去ログ倉庫に格納されています