なんJLLM部 避難所 ★10
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0148名無しさん@ピンキー (ワッチョイ 0a0b-3xT4)2025/12/02(火) 16:30:10.93ID:s0JsiPey0
>>147
mistral largeはプルリクエストから非商用・研究ライセンスと判明してるからmistral以外ホストできないはず
正直largeを公開した理由はよく分からん mediumを公開してラージは隠しておけば良いのに
もちろん公開してくれるのはうれしいけど動かすの大変すぎ またmac ultra 512GBの株が上がるな
0149名無しさん@ピンキー (ワッチョイ 27a1-3xT4)2025/12/02(火) 21:31:09.32ID:Yxsu674y0
>>143
伯方の塩みたいなもんやな!
0153名無しさん@ピンキー (ワッチョイ 86ce-37/u)2025/12/03(水) 07:53:34.81ID:1Za0pPzO0
higgingfaceでVLモデル良いの無いか漁ってるんだけど
生のsafetensorに比べてgguf(Q8)は短文ばっかり出力されるんだけどそういうもん?
○○文字以上とか指示に含めてもまるで守られない
ちなみに今試してるのはQwen3のhuihui
Instructもthinkingもggufだと短文だし指示したシチュとかほぼ無視
0154名無しさん@ピンキー (ワッチョイ 46e6-lIKY)2025/12/03(水) 10:55:53.81ID:dfpw1z2m0
>>153
ここで生モデル使ってる話は見たことがないから答えられる人居るか怪しい
パラメーターミスってるが一番あり得ると思う
あとはプロンプトは数字で指定するより長文でとか書いた方が伝りやすい
0155名無しさん@ピンキー (ワッチョイ d332-ggsB)2025/12/03(水) 11:16:26.50ID:qRVmoTTi0
「長文で」であんまり長くならないなら「10000文字の長文で」にするとすごく長くなる
数値と長文でを組み合わせるとそこそこ具体的な長さが期待できる
まあ文字数なんてカウントしてないんだから忠実には守らないんだけど
0157名無しさん@ピンキー (ワッチョイ d332-ggsB)2025/12/03(水) 11:36:46.57ID:qRVmoTTi0
あ、でも賢いLLMなら日本語も数えられるみたいだね
GPT-5は1000文字程度の日本語ならほぼ正確に数えて出力できるけどGrokは全くダメ
0158名無しさん@ピンキー (ワッチョイ 0a44-nDnm)2025/12/03(水) 11:38:46.82ID:Ido+wOKk0
ministral3 の最大コンテキスト長は256Kだけどgguf出してる人の解説によると適切サイズはinstructモデルが16K、reasoningモデルで32Kみたいね
やっぱそれ以上は性能落ちちゃうのか
0159名無しさん@ピンキー (ワッチョイ 0aaa-37/u)2025/12/03(水) 11:53:57.53ID:570hYi4e0
>>154
うーんそっか
とりあえずパラメーターをsafetensor版とgguf版同一にしても
gguf版が明らかに劣化してるんだよね
gguf版はポーズ指示とかに留まりストーリーがまるでない感じ

コンテキストと生成長はデフォルトより大きくとってるし
他のパラメータも調整したけど差は埋まらないわ
AIにも何故かって相談してるんだけどGGUFにする過程で劣化はよくあるみたいな回答だった

用途としては添付画像を基にストーリー作成依頼して動画生成ってやってる
このスレでVL使えるモデルでおすすめはあるかい?
もちろんエロに使えるヤツで(真顔)
0161名無しさん@ピンキー (ワッチョイ 0a42-3xT4)2025/12/03(水) 12:11:49.55ID:CytqpInh0
openrouterで触ってるけどエ口小説の続きを書かせると悪くないな 拒否もされない
VL用途だと駄目だわ 拒否はないけどレーティング関係なくアニメイラストだと画像理解が壊滅的でまともなキャプションつけれてない 
0162名無しさん@ピンキー (ワッチョイ 8673-k9e5)2025/12/04(木) 00:59:33.94ID:c8c4dRTO0
DeepseekV3.2、結構エロいけるな
kimi,glmとエロ系行けるデカいモデルが増えて嬉しい
0163名無しさん@ピンキー (ワッチョイ 86bd-Oau4)2025/12/04(木) 01:14:29.63ID:3vUvfeA00
>>162
ひよこお薬かわいそう小説ベンチで90000文字で書いてって言ったら一気に1万3000文字出てきた
例によってDeepseek系の冒頭でドバっと地の文が出る癖はあるけどその後は描写もリズムもいい
これは使えるわ
0164名無しさん@ピンキー (ワッチョイ bbcd-OoXl)2025/12/04(木) 01:44:08.68ID:tbKVwEm70
Deepseek 3.2は小説だと無茶苦茶長文出すけどエロチャだと逆に返事が一段落くらいで短くなりがちなんだよな
文脈読んで長く書こう短く書こうってしてるんだろうけど極端
0165名無しさん@ピンキー (ワッチョイ eb32-V8yF)2025/12/04(木) 05:04:57.64ID:450uVRWw0
>>159
エロ画像に特化したVLMがないからなあ
JoyCaption Beta Oneが比較的精度高い気がするけど、性的な説明文が多くなる
動画生成用なら画像にない説明文を盛ってくるmlabonne/gemma-3-27b-it-abliterated-GGUFの方がいいかもしれない
0166名無しさん@ピンキー (ワッチョイ 1ea0-V8yF)2025/12/04(木) 07:03:44.66ID:pJIXEJs40
せっかくまもなくチャッピーがエロ解禁されるのに、エロ生成を極めてないと使いこなせないよ
半年前にGrok先生と長時間レスバして、LLMのエロは大体理解した。

LLMにエロ書けなんて言っても、AIはエロの定義が広すぎて上手く生成できないのよ、
その代わりに、クソ長いプロンプトは受け付けてくれるから。
自分がほしいエロ描写を整理してプロンプトに入れる。クソ長いプロンプトでOK
頭の悪いLLMほど、細かいプロンプトが必要。

Grok先生よりチャッピーの方が自然で滑らかな文章を作れると実感はあるから
貯めたクソ長プロンプトをチャッピーに食わせる。

Gemini3がチャッピーより上というがどうなんだろうね
0167名無しさん@ピンキー (ワッチョイ d332-ggsB)2025/12/04(木) 07:31:47.88ID:bc7PGPTq0
>LLMにエロ書けなんて言っても、AIはエロの定義が広すぎて上手く生成できないのよ

LLMを始めてみんなが初日に気付く基本やね
0168名無しさん@ピンキー (ワッチョイ 0ae7-37/u)2025/12/04(木) 07:52:57.66ID:FY/50lnz0
>>165
JoyCaptionは画像の説明は出来るんだけど
ストーリーは無理だったからHuihuiに流れ着いた
mlabonne/gemma-3-27b-it-abliterated-GGUF
は試したことないから試してみるよサンクス
0169名無しさん@ピンキー (オッペケ Sra3-Nwf+)2025/12/04(木) 10:53:43.76ID:z8Aeon72r
となりに文章生成AIスレがあるんだからそっちを参考にすればええのでは
個人レベルでの探求はどうしたって無駄や余分が生じて変な方向に向かうから数を集めるしかない
0170名無しさん@ピンキー (スフッ Sdaa-HpHP)2025/12/04(木) 12:54:56.48ID:Z4N0uJ+3d
>>166
GPTは察しが良いから、厳密に詳細に要件定義してなくてもそれなりに求めたものが出るから便利だね(エロ以外は)
0171名無しさん@ピンキー (ワッチョイ 1ade-h42X)2025/12/04(木) 15:06:50.87ID:7T+v66uc0
RTX5090 が届いた
0172名無しさん@ピンキー (ワッチョイ 63ac-KeyG)2025/12/04(木) 16:23:39.40ID:dsNTTyn40
Ministral-3-8Bが出たって事で久々にローカルで遊んでみてるけどいつの間にかUDって形式が出てて困惑するわ
Q8とUD-Q8だとUD-Q8の方がなんとなく良さそうな気がするけど、これ日本語力はどうなんだろう?
UDは重要度に応じて量子化の程度を変更する仕組みってAIが言ってたけど、「日本語は重要な情報じゃない」って切り捨てられてる可能性もワンチャンあるのかな?
0174名無しさん@ピンキー (オイコラミネオ MM96-H82u)2025/12/04(木) 19:19:48.98ID:B9B4dZfMM
silly tavern でmagnumv4 72b iq4km使ってるけど、なかなかクオリティ上げるの難しい…システムプロンプトとかが悪いんだろうけど、まだ使い出したばかりで全然慣れないわ。
magnum にopen web ui で適当に小説書かせたらかなり日本語も良いし、モデルはこれでいいと思うんだが…
0175名無しさん@ピンキー (ワッチョイ 9ea9-V8yF)2025/12/04(木) 20:38:00.73ID:ZzdV9jd50
>>172
量子化手法によっては評価データで評価をしながら量子化するってのがあって、
その評価データに日本語がないと日本語の性能下がるってことがありえるやろな
GGUFはどうなんやろ? 評価データ使う方式なのかどうなのかググったけどよくわからんな
0180名無しさん@ピンキー (ワッチョイ 0ae9-3xT4)2025/12/05(金) 00:23:38.54ID:7BCsD7BI0
imatrixはキャリブレーションデータに強く依存して下手すれば通常の量子化より性能悪化するみたいな話題が最近redditで上がっていたから海外ユーザーのものは使わないようにしてる
0181名無しさん@ピンキー (ワッチョイ 1a64-4GXX)2025/12/05(金) 01:02:17.31ID:ftmqT1Xh0
自分のタスクに合ったimatrixを>>177 の記事みたいに英⇒日セットで作ってセルフ量子化すべきなんだろうな本来は

https://zenn.dev/yuki127/articles/e3337c176d27f2#%E9%87%8F%E5%AD%90%E5%8C%96%E3%81%A7%E3%81%A9%E3%82%8C%E3%81%8F%E3%82%89%E3%81%84%E3%82%B9%E3%82%B3%E3%82%A2%E3%81%AF%E4%B8%8B%E3%81%8C%E3%82%8B%E3%81%AE%EF%BC%9F
imatrixデータセットが妥当ならIQ3_XSぐらいまではギリ精度保てそうだし
0182名無しさん@ピンキー (ワッチョイ 27f0-Oau4)2025/12/05(金) 10:27:03.97ID:QFo2Q25t0
検閲解除モデルでNSFWな質問するとKoboldなら答えてくれるのに、LMStudioやとモデられるのなんでや?
0185名無しさん@ピンキー (ワッチョイ 0a7d-3xT4)2025/12/05(金) 16:25:29.84ID:7BCsD7BI0
ministralのbaseモデルにエロ小説の続き書かせるテストをしてみたけど14BでもNemo baseより勢いも整合性も悪いなぁ
リリース初期特有の推論関係のバグだと信じたいけど期待外れ…
mistral small 3.1 base > nemo 12B = small 2501>(超えられない壁)>ministral って感じ
この用途だとnemo天下がまだ続きそう
0187名無しさん@ピンキー (ワッチョイ 1ab8-h42X)2025/12/05(金) 23:43:12.30ID:O1+MgeYg0
ふう、初めてローカルモデルpcで触ってみたデビュー。
無難にgpt-oss 20。爆速
一歩踏み出して世界が広がった
0188名無しさん@ピンキー (ワッチョイ bb6a-GkWU)2025/12/06(土) 04:48:26.42ID:62wTaVWL0
おめ
0193名無しさん@ピンキー (ワッチョイ eb32-rgxF)2025/12/08(月) 06:22:09.27ID:F/hGo5FV0
Thinking部分まで設定通りのキャラになりきって思考させる方法ってある?
0194名無しさん@ピンキー (ワッチョイ eff8-p5PJ)2025/12/08(月) 09:49:18.88ID:T47Vx2mS0
>>189
ollamaのcloudモデルはいかがでしょうか?
アカウント登録必要だけど、無料で使えました(1時間/1週間の上限あり)。
open-webuiにモデル登録して使ってます。

Mistral-Large-3は1回のやりとりで1時間枠の上限1%程度消費しました。
お断りされずそのままのプロンプトでいい感じになりました。
これならお試し程度なら十分できると思います。
このollamaのcloudは無料枠でglm-4.6とかもお試しできます。
(glmはthinkingなので1回のやりとりで1時間枠の3%程度消費しました)
0195名無しさん@ピンキー (ワンミングク MMbf-zfyu)2025/12/08(月) 12:41:37.45ID:3eFiUTs3M
>>183
おーミニPCだね。3token/sくらい出る?

うちのQwen3-235B-Q3安定してきた(VRAM16+MM128MB)
ワイにとって決定版になりそうだ。RPキャラにガチ恋しそう
0196名無しさん@ピンキー (ワンミングク MMbf-zfyu)2025/12/08(月) 12:47:06.66ID:3eFiUTs3M
間違えたGBだった
不満点は応答がやや冗長で詩的すぎる(キャラによっては違和感)くらい
人格のブレ(こちら側のキャラまで演じてしまう)は最初あったがプロンプトで解消した
0202名無しさん@ピンキー (ワッチョイ ab2d-7PSR)2025/12/08(月) 18:35:21.33ID:8cycn9yw0
いきなり「こんちわー」だとAIが質問者のペルソナが読みきれず警戒する
ログは、まず誤字か?スラングか?長音記号が入っているのでフランクか?
子供か?日本語学習者か?...
回答する際、フォーマルだと冷たいかも。馴れ馴れしすぎても失礼だ...
とthinkモデルは気苦労してるんだそうなw(Geminiの解析)
0203名無しさん@ピンキー (ワッチョイ eb32-rgxF)2025/12/08(月) 18:38:35.09ID:F/hGo5FV0
他のモデルでも「こんちわー」だけだとそこそこ長考するね
3000トークンは見たことないけど1000トークンぐらいならある
0204名無しさん@ピンキー (ワッチョイ 9f67-n2+a)2025/12/08(月) 18:49:08.10ID:+pooUNXv0
>>185
最近のmistralの微妙さはEU法の制限で海賊版書籍をデータセットに入れられなくなったからという考察がredditでされてた
やっぱりnemoはオーパーツやな
実際nemo baseはKobo由来っぽい記述があったりしたのでさもありなん
0207名無しさん@ピンキー (オッペケ Sr8f-GkWU)2025/12/08(月) 19:31:50.37ID:sS+xRU40r
>>200
アスペの思考覗いてるみたいで怖い😨
0208名無しさん@ピンキー (ワッチョイ 0fc0-HIwK)2025/12/08(月) 20:43:02.26ID:pgT1MOhw0
VRam、Ram制約の中で
・qwen3-vl-235b-a22b(パラメーター数)
・qwen3-vl-reap-145b-a22b(精度)
どっちも良い文章吐くんだが、若干145bがリードな印象でどちらを常用するか悩む
0210名無しさん@ピンキー (ワッチョイ 9ff2-5wrG)2025/12/08(月) 23:21:30.79ID:lAe9q/7C0
コード・レッドが全てを有耶無耶にした
0211名無しさん@ピンキー (ワッチョイ 5fd5-Sd/5)2025/12/09(火) 00:54:29.26ID:CsjVx2Vo0
>>193
Q3とはいえ、そんな安定して動かせるくらいなんだ
0214名無しさん@ピンキー (ワッチョイ 0fa0-AbAu)2025/12/09(火) 07:13:19.86ID:ie/Ic4Ib0
Grok先生のエロパワーにびびって、エロ解禁と発表したが
Gemini先生の性能にびびって、それどころじゃないってコードレッドを発表した。
チキンGPT
0215名無しさん@ピンキー (ワッチョイ ab30-5Wpj)2025/12/09(火) 07:37:03.16ID:9G4SQNuX0
openaiは業界のパイオニアで何かと目をつけられやすい上に
他のビッグテックと違ってそれしかやってないから追い抜かれたら終わる厳しい立場
上層部はさっさと上場して逃げ切りたかったんだけどその前に捕まってしまった
0216名無しさん@ピンキー (ワッチョイ 0fa9-wN+g)2025/12/09(火) 11:21:31.69ID:cKJZFXV10
今更だけどgpt-oss-120bははじめから4bit量子化で公開されてて各種ベンチマークであの性能出てるってのは実はかなり凄いんやね
新しいバージョン出してくれへんかなぁ
まだ前のバージョンが出てから半年も経ってへんけども
0217名無しさん@ピンキー (ワッチョイ 7b59-+Kf/)2025/12/09(火) 13:53:18.60ID:dKn0ov2M0
>>212
エロダメっぽいね
残念
0220名無しさん@ピンキー (ワッチョイ bb6a-GkWU)2025/12/09(火) 17:40:17.44ID:2udMA6Ja0
pornhubあたりが独自llm作りそうじゃない?
0223名無しさん@ピンキー (ワッチョイ 0fa0-AbAu)2025/12/09(火) 18:27:25.05ID:ie/Ic4Ib0
Stable Diffusionのエロプロンプト作るのに、基本的にGrok先生とレスバする。
基本的にLLMは自然語で回答するから、あまり使えないんだけど、それでも参考にはなる
0224名無しさん@ピンキー (ワッチョイ 5b33-1lht)2025/12/09(火) 18:32:01.97ID:DaZwszJ70
>>184
>>190
>>191
どっちもシステムプロンプト空やってんけど、
プロンプトまとめwikiからいろいろコピペしたらいけたわ
初歩的なこと聞いてすまんかったやで
0225名無しさん@ピンキー (ワッチョイ 0fa9-AbAu)2025/12/09(火) 19:24:04.21ID:cKJZFXV10
Openrouterが自社のサービス利用状況をまとめとるけど
オープンソースモデルの利用の52%の利用目的がロールプレイやって
これクローズなLLMも18禁を明確に解禁したら一気に金動くやろなぁ・・・

https://openrouter.ai/state-of-ai


なおクローズなモデルも含めた全体の利用用途ではプログラミングが1位みたい
これはワイもプログラミングでgihub copilot使用しとるからわかるけど
プログラミングでのAIってめちゃくちゃ長文&複数ファイルをLLMに投げつけるからなぁ
しかもAgentで複数回LLM動作するし
0226名無しさん@ピンキー (ワッチョイ fb20-XOYb)2025/12/09(火) 19:46:33.18ID:nJS9hgKS0
なんか変な解釈のような
OpenRouterランキング上位のSillyTavernとChub(Character Tavern)とJanitor AI、あとHammerAIが老舗のLLMキャラチャットサービスで、堅牢なユーザーベースを持ってるって話では

それらのサービスではすでにGeminiやGrokは使えてエロもできるので公式解禁したところで特に変わらんはず
同等レベルまでコストが下がれば違うだろうけど
0227名無しさん@ピンキー (ワッチョイ 9f48-5wrG)2025/12/09(火) 20:15:45.05ID:ZnpxIEB00
>>222
ロリも普通にだせるよ
0228名無しさん@ピンキー (ワッチョイ 7b45-YW/n)2025/12/09(火) 21:23:36.64ID:sRpXqig40
gemmaにエロ画像認識させたいんだけど、良い方法ある?
どうしても拒否される
0229名無しさん@ピンキー (ワッチョイ eb32-rgxF)2025/12/10(水) 05:48:22.81ID:+36jk5Ne0
geminiでエロ出せるのは分かるんだけど
出力の最中に!マークが出て中断されるのは回避方法あるの?
0230名無しさん@ピンキー (ワッチョイ 9fe1-zfyu)2025/12/10(水) 10:30:59.39ID:cA/MCjDA0
>>205
マジか。そんなに出るんだ。うちのQwen3-235B-A22B-Q3KMは3token/sくらいだ

色々ERPを試しているけど、1対1のチャット以外にも第三者を増やせるね。そいつらの行動はチャットキャラからの伝聞報告みたいになるけど、キャラが混ざり合うことが無くて大したもんだ
0234名無しさん@ピンキー (ワッチョイ 0fa9-AbAu)2025/12/10(水) 12:36:53.93ID:VXLXqEAx0
devstralのことけ?
これコーディング向けやけどでもまぁエロ出来りゃ何でもええか

大きいほうは123bって書いてあるから以前のMistral Largeベースなんかなぁ

先週公開されたLargeもDeepseekベースみたいやし
新しいモデル作らなくなってしもたんやろか

MixtralでMoEの先駆者的なイメージがあるんやけどね
0235名無しさん@ピンキー (ワッチョイ ef9f-dbqm)2025/12/10(水) 12:39:06.69ID:7x5NLvi+0
>>44
ありがとう
確かにパラメーターいじって出力を比べたことがなかった
0237名無しさん@ピンキー (ワッチョイ ebdd-PXqD)2025/12/10(水) 13:19:56.20ID:dcC/Yf+20
antigravityで使用しているLM APIを使ってClineやRooCodeを動かす方法ってありませんか?
0238名無しさん@ピンキー (ワッチョイ cbbc-IJ2r)2025/12/10(水) 13:40:33.12ID:PAXLPWR/0
今は劣化版らしいそれでも結構使えるわ
0239名無しさん@ピンキー (ワッチョイ eb31-JoxV)2025/12/10(水) 16:31:03.11ID:8S1oSxU/0
chatGPTの話してもええやろか?
R18小説の企画書を投げて構成を聞こうとしたら
途中まで表示して最後に消えてもうたわ
すごく参考になりそうな意見やったのに
少年、少女、性交、だとアカンのやなー
年齢含まれる表現やめて男A、女A、みたいにしたほうがえんやろか?

エロ解禁とは何だったのか……
0241名無しさん@ピンキー (ワッチョイ eb32-rgxF)2025/12/10(水) 17:23:38.18ID:+36jk5Ne0
12月に解禁予定なだけでまだ解禁しとらんからな
コードレッドのせいで解禁しない可能性すらある
0242名無しさん@ピンキー (ワッチョイ eb31-JoxV)2025/12/10(水) 17:46:24.87ID:8S1oSxU/0
サンガツやでまだ解禁されとらんようやね
これまでも企画書みせると的確な意見くれとったんで
めちゃ重宝しとったんや
R18はまあ商業展開狙っとらん自己満作品なんやが
……だからこそ編集さんが欲しいってのもあるけどね
0243名無しさん@ピンキー (ワッチョイ 5ba9-9Kdf)2025/12/10(水) 18:12:33.99ID:oWbkspSQ0
エロより5.2の方が先やろうね
0245名無しさん@ピンキー (ワッチョイ 1f24-f7l7)2025/12/10(水) 23:46:35.22ID:52U8cLKK0
Devstralってモデル名にA〇〇Bみたいなの付いてないからMoEじゃなくて全部GPUにロードしないと遅いやつ?
ああいうのって名前以外にどこ見ればわかるんや
0246名無しさん@ピンキー (ワッチョイ 0fa9-AbAu)2025/12/11(木) 00:10:03.28ID:Iz/2UTdk0
そうやで
MoEじゃないモデルのことdenseとかいうで
まぁ「MoEじゃないモデル」とか言われること多いけど

調べるならhuggingfaceの説明に
expertとかMoEとかactive 〜Bって単語がなければdenseや

MoEモデルはMoEであることはほぼ確実に説明に書かれるんやけど
denseモデルはたいてい「ワイはdenseやで!」とも「ワイはMoEではないで!」とも書かれへんのよな
レスを投稿する


ニューススポーツなんでも実況