なんJLLM部 避難所 ★10
レス数が950を超えています。1000を超えると書き込みができなくなります。
0001名無しさん@ピンキー 転載ダメ (ワッチョイ dfc7-Jvli)2025/11/23(日) 22:55:29.17ID:kt2SGedd0
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
なんJLLM部 避難所 ★9
https://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
0974名無しさん@ピンキー (オッペケ Sr37-rGR4)2026/02/12(木) 11:29:56.42ID:4uao824Lr
単独で使うものではないんでは
アシスタントで使うかオーケストレーションで使うかでないの
Vide codingの時代から事前プランニングの時代に一気に変化しつつあるから、合否/採点が容易なタスクは全部切り出して安いコーディングLLMでループさせる形になりそう

SOTAモデルで採点カンストするまで回したカンストSkillsをGLMに使わせる、とかになるのかな
0975名無しさん@ピンキー (ワッチョイ f636-81f9)2026/02/12(木) 12:31:17.54ID:blfUyIva0
コーディングは一度でもClaudeかCodexの手軽さを味わったらローカルに戻れないよ
ほんとに小さいスクリプト単位なら使用の余地はあるんだろうけど
ローカルがClaudeに追いつける日はくるのだろうか
中華LLM + openclawに期待するしかなさそう
0976名無しさん@ピンキー (オッペケ Sr37-S1MQ)2026/02/12(木) 13:21:48.09ID:fvChrZS2r
安いので試してだめだったら高いの使う、という手間がもうめんどいので最初から高いやつ使うよね
0978名無しさん@ピンキー (ワッチョイ 1259-S3dw)2026/02/12(木) 13:44:14.31ID:PwEbN11/0
>>977
待てるならvramいっぱいにモデルを詰めていいし、そうでないならkvキャッシュ用に空けておくべき
モデルによってkv量子化だったりオフロードしなかった時の精度や速度が違うから試しながら調節してみ
0984名無しさん@ピンキー (ワッチョイ b2ec-lZWY)2026/02/12(木) 16:54:46.72ID:q5Z4ATkX0
>>978
サンガツやで
これcontext長=kvキャッシュなんやろか
事前に確保するとVRAM量が増えるからkvキャッシュと思ったんやが会話が長くしたいなら12GB(model)+4GB(KVcache)
数回のやりとりで良いなら15GB(model)+1GB(KVcache)なんかなと思ったけど考え方はあってるやろか
レスを投稿する

レス数が950を超えています。1000を超えると書き込みができなくなります。

ニューススポーツなんでも実況