なんJLLM部 避難所 ★9
0001名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ)2025/08/23(土) 13:52:18.71ID:5lw7ZcNF0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0866名無しさん@ピンキー (スプープ Sd1f-TDZ4)2025/11/10(月) 18:24:15.80ID:Yc6RVjkad
>>856
使用するモデルを完全に固定できるのは開発者にとってはメリットが大きいんじゃないかな

クラウドLLMはバージョンアップ時に雑に旧バージョンを切り捨てるし
都度都度システム障害に対応させられたらたまったもんじゃない

絶対的な性能ではクラウドLLMの方が上だから金持ちならGeminiをオンプレで導入するといった選択肢もあるな
0867名無しさん@ピンキー (ワッチョイ 5306-YWFX)2025/11/10(月) 18:24:25.41ID:Qk+xbBAM0
100Bくらいやっぱり必要なんだろ?🤔
まともに会話したりできるのって
0871名無しさん@ピンキー (ワッチョイ f36a-YWFX)2025/11/10(月) 20:48:02.11ID:9ernYLeZ0
カスタマイズさせた会話を成り立たせるのは32B以上じゃないと無理では?
0872名無しさん@ピンキー (スプープ Sd1f-TDZ4)2025/11/10(月) 21:39:29.97ID:Yc6RVjkad
>>871
主流がMoEモデルに移行したから小型のモデルを弄くり回す意味も消えたな

メインメモリガン積みすればご家庭のPCで235Bが動くんだから
小細工するヒマがあったらメモリを増設すればいい

そのメモリも超絶価格高騰中だからケチってた奴はさらに突き放される流れ
0875名無しさん@ピンキー (ワッチョイ 4391-C3m5)2025/11/11(火) 06:31:29.56ID:1O7LU6da0
M4 maxでもgpt-oss-120bは60-70tk/sでるから
M3 Ultraは512GByteの力技で効いてくるんだな
128GByteじゃ動かないものは動かないから太刀打ちできん
M5 Ultraはmac proだけとか言わないでくれよ...
0877名無しさん@ピンキー (ワッチョイ ffdb-7b+o)2025/11/11(火) 12:59:21.35ID:xmeZyyPe0
実用的なコンテキストウィンドウがデカいローカルLLMが欲しい
レスを投稿する


ニューススポーツなんでも実況