なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0841名無しさん@ピンキー (ワッチョイ 6f7c-usgL)2025/11/08(土) 17:38:53.08ID:pCVG21Oa0
>>832
自分は>>8のBerghofとCydonia 24B、
あとMistralPrism-24Bが良かったです
Qwen系はなんかすぐ簡字体を出してきて
あまり相性が良くなかったです

EsotericKnowledge-24B気になるので使ってみます
0842名無しさん@ピンキー (ワッチョイ 63c6-GlLO)2025/11/08(土) 22:00:39.34ID:Y7kxKVlU0
Berghof 7b 淫語表現が良いが理解力はほとんどない
NemoAurora 12b 理解力と表現が良いが短めに終わらせがち
MistralPrism 24b 理解力と表現が良いが続けるとハルシネーション増えがち繰り返し増えがちで修正必要
shisa-v2-mistral-small 24b 理解力と一般的な部分の表現力が一番高いがエロ表現はあらかじめ表現指定しないと古風な官能小説になりがち
全部指定のテンプレでロールプレイした感想
理解力っていうのは察する能力も含めて
ここで話題に挙がる海外のマージもよく試すんだけど英文とか変な文字交じるからほとんど使わなくなる
指定しても直訳っぽい表現になるしみんな我慢してるのか自分が使い方間違ってるのか分からん
0843名無しさん@ピンキー (ワッチョイ 4314-KUF3)2025/11/08(土) 23:26:01.08ID:nTiP9kKY0
賢いberghofがほんと欲しい
berghofも普通の会話だとたまにうおっ!?てなるほど察してくれる時があるんだけどなあ
エロシチュの把握とかになると弱いね
0844名無しさん@ピンキー (ワッチョイ ffc0-vw5Q)2025/11/09(日) 00:16:52.90ID:zVGj0deu0
いまだにベースモデルとしては8か月前のmistral smallが圧倒的に強いのは困る そろそろ新しいモデルほしい
最近のモデルを含めて日本語能力は50b以下だとmistral smallの一人勝ち状態
baseモデルで小説の続きとか書かせて比較すると分かるけど中華モデルだと明らかに文脈理解が出来てなくて、語彙力も酷い 
qwen3(aquif含む)とかERNIE-4.5-21Bとかね 一般用途ならgemma3も悪くないけどデータセットの検閲とライセンスが厳しい
0845名無しさん@ピンキー (ワッチョイ cf20-qekO)2025/11/09(日) 00:36:13.80ID:25n82Uux0
上を見てるとキリがないから16GBのVRAMでも快適にエロを出力できるモデルでいいのはないかな?
個人的にはyamatazenさんの「EsotericSage-12B」や「NeonMaid-12B-v2 」が12Bにしては良かった
この作者は12Bのモデルがメインっぽいけど24Bの「EsotericKnowledge-24B」もなかなか良い感じ
0846名無しさん@ピンキー (ワッチョイ cf20-qekO)2025/11/09(日) 00:45:30.08ID:25n82Uux0
だよなぁ
24Bのモデルはほとんどベースがmistral smallだし、12Bは1年以上前のmistral nemo 2407がベースばかりだもんな
0848名無しさん@ピンキー (ワッチョイ cfa9-Pj3+)2025/11/09(日) 20:02:17.85ID:02ttLA3w0
Llama.cppのQwen3 Next対応がようやっと終わりが見えてきたで

こっちがCPU対応で
https://github.com/ggml-org/llama.cpp/pull/16095
こっちがCUDA対応なんやろか? いまいちよくわかっとらんが
https://github.com/ggml-org/llama.cpp/pull/17063
上のは実装終わっとって下のも今レビューに入ったようや

今のところ動かすのを優先してて実行速度は見てないそうなので遅いかもわからんけど
Qwen3.5が来る前に実装終わりそうでよかったわ
0849名無しさん@ピンキー (ワッチョイ 6f75-an14)2025/11/09(日) 22:24:33.08ID:jHM7u+Om0
Qwen3 nextって対抗馬であろうgpt-ossの120BとかGLM 4.5 Airとか比較してどうなん?
0850名無しさん@ピンキー (ワッチョイ bf49-8xKa)2025/11/09(日) 22:55:33.63ID:rYYgkPmA0
Qwen3 Nextってアクティブパラメーター3Bだから
もっと小さいサイズのモデルとの比較になるかな
0851名無しさん@ピンキー (ワッチョイ 6332-Pj3+)2025/11/09(日) 23:48:37.25ID:X2fQlB1a0
>>844
Mistral Smallを推す人は小説派なんかな?
ロールプレイチャットだとQwen系の方が比較的自然なやり取りになると思ったけどな
喘ぎ声強化プロンプトもQwQは効いてるのにMistral Smallはなんかいまいちだった
Qwen3はそもそもエロ検閲が厳しすぎて諦めたけど
0852名無しさん@ピンキー (ワッチョイ a31e-EFGP)2025/11/10(月) 01:16:48.21ID:J833ZOIP0
TheDrummer_Magidonia-24Bを鉄拳に/no_thinkっての入れて使ってるなぁ12㎇のグラボでできる範囲じゃ今のとこエロで頭良く感じるQwen3はクイズ解かせたりできてめちゃくちゃ頭いいけどエロチャットはなんか駄目だわ
レスを投稿する


ニューススポーツなんでも実況