なんJLLM部 避難所 ★9
0850名無しさん@ピンキー (ワッチョイ bf49-8xKa)2025/11/09(日) 22:55:33.63ID:rYYgkPmA0
Qwen3 Nextってアクティブパラメーター3Bだから
もっと小さいサイズのモデルとの比較になるかな
0851名無しさん@ピンキー (ワッチョイ 6332-Pj3+)2025/11/09(日) 23:48:37.25ID:X2fQlB1a0
>>844
Mistral Smallを推す人は小説派なんかな?
ロールプレイチャットだとQwen系の方が比較的自然なやり取りになると思ったけどな
喘ぎ声強化プロンプトもQwQは効いてるのにMistral Smallはなんかいまいちだった
Qwen3はそもそもエロ検閲が厳しすぎて諦めたけど
0852名無しさん@ピンキー (ワッチョイ a31e-EFGP)2025/11/10(月) 01:16:48.21ID:J833ZOIP0
TheDrummer_Magidonia-24Bを鉄拳に/no_thinkっての入れて使ってるなぁ12㎇のグラボでできる範囲じゃ今のとこエロで頭良く感じるQwen3はクイズ解かせたりできてめちゃくちゃ頭いいけどエロチャットはなんか駄目だわ
0854名無しさん@ピンキー (ワッチョイ 4307-ym2Q)2025/11/10(月) 03:07:55.03ID:PPD7d/Ix0
>>851
aratakoさんのQwen3-30B-A3B-ERP試した?
0856名無しさん@ピンキー (ワッチョイ cf33-BzYz)2025/11/10(月) 09:12:42.01ID:5p23CTvp0
ローカルのllmを使う理由ってエロかapiの従量課金が嫌以外でこう使うといいよみたいな使い方ある?
0857名無しさん@ピンキー (ワッチョイ 4300-7b+o)2025/11/10(月) 10:03:17.49ID:yzR75pPE0
仕事で使う場合外部に情報送信するのがコンプラ的にアウトだからローカルしかない
相手が情報漏らしませんと契約してもOpenAIみたいな新興ベンチャーを信じる方がアホやし
中国勢はもっと信用ならん
0862名無しさん@ピンキー (ワッチョイ 7fe5-BzYz)2025/11/10(月) 16:14:38.46ID:wqoUurfQ0
>>857
会社でローカルのLLMなら外部送信しないから使っていいよって言われたの?
どうやって説得したの?
0864名無しさん@ピンキー (ワッチョイ 6332-Pj3+)2025/11/10(月) 17:23:39.65ID:2yJIjkXT0
>>858
これをシステムプロンプトに入れると、喘ぎ声がエロ漫画風になる
文頭に近い奴が使われやすい傾向があるのと、なぜか入れてない喘ぎ声も使いだすようになる
QwQ用に作ったから他のモデルでは上手くいかないかも

セックスの挿入時は「きもぢい♥」「おごおっ♥」「ア゙っ♥」「あ゙っ♥」「あんっ♥」「ん゙っ♥」「んぁっ♥」「んほぉ♥」「ふっ♥」「お゙っ♥」「いっ♥」
「ひっ♥」「ひぐっ♥」「はへっ♥」「はひっ♥」「んっ♥」「おっ♥」「あひっ♥」「おほぉおっ♥」「だめ♥」などの喘ぎ声を多めに入れてください。
絶頂時は「おほおおお!♥」「イクぅぅぅぅ!♥」「んぼぉぉ♥」「おっごおおお♥」「ほおおおお♥」「イグイグイグイグ♥」「あ゙あ゙あ゙あ゙あ゙あ゙♥」「きもちいいいい♥」などを叫んでください。
0866名無しさん@ピンキー (スプープ Sd1f-TDZ4)2025/11/10(月) 18:24:15.80ID:Yc6RVjkad
>>856
使用するモデルを完全に固定できるのは開発者にとってはメリットが大きいんじゃないかな

クラウドLLMはバージョンアップ時に雑に旧バージョンを切り捨てるし
都度都度システム障害に対応させられたらたまったもんじゃない

絶対的な性能ではクラウドLLMの方が上だから金持ちならGeminiをオンプレで導入するといった選択肢もあるな
0867名無しさん@ピンキー (ワッチョイ 5306-YWFX)2025/11/10(月) 18:24:25.41ID:Qk+xbBAM0
100Bくらいやっぱり必要なんだろ?🤔
まともに会話したりできるのって
0871名無しさん@ピンキー (ワッチョイ f36a-YWFX)2025/11/10(月) 20:48:02.11ID:9ernYLeZ0
カスタマイズさせた会話を成り立たせるのは32B以上じゃないと無理では?
0872名無しさん@ピンキー (スプープ Sd1f-TDZ4)2025/11/10(月) 21:39:29.97ID:Yc6RVjkad
>>871
主流がMoEモデルに移行したから小型のモデルを弄くり回す意味も消えたな

メインメモリガン積みすればご家庭のPCで235Bが動くんだから
小細工するヒマがあったらメモリを増設すればいい

そのメモリも超絶価格高騰中だからケチってた奴はさらに突き放される流れ
0875名無しさん@ピンキー (ワッチョイ 4391-C3m5)2025/11/11(火) 06:31:29.56ID:1O7LU6da0
M4 maxでもgpt-oss-120bは60-70tk/sでるから
M3 Ultraは512GByteの力技で効いてくるんだな
128GByteじゃ動かないものは動かないから太刀打ちできん
M5 Ultraはmac proだけとか言わないでくれよ...
0877名無しさん@ピンキー (ワッチョイ ffdb-7b+o)2025/11/11(火) 12:59:21.35ID:xmeZyyPe0
実用的なコンテキストウィンドウがデカいローカルLLMが欲しい
0882名無しさん@ピンキー (ワッチョイ b320-iKR1)2025/11/11(火) 20:07:10.40ID:vm/8wIy30
そういや理論値、設定値ではなく実効コンテクスト数がどのくらいなのかってデータあんまないよね
まとめをつくると何か面白いモデルが見つかるかもね
レスを投稿する