なんJLLM部 避難所 ★9
0483名無しさん@ピンキー (ワッチョイ efd8-gFLl)2025/09/26(金) 20:43:31.02ID:3B4su3U20
予測はLLM使わんでも線形回帰でええやん
0485名無しさん@ピンキー (ワッチョイ bf38-/zn3)2025/09/26(金) 20:47:53.63ID:EP60vsIo0
詐欺メールもだな
0487名無しさん@ピンキー (オッペケ Srd7-l4qr)2025/09/26(金) 22:16:39.04ID:UNdtCLMYr
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
0488名無しさん@ピンキー (ワッチョイ f227-YdyK)2025/09/26(金) 23:14:28.18ID:f/GM/BxQ0
llama.cppでもうすぐQwen3 Nextがサポートされそう
0491名無しさん@ピンキー (ワッチョイ a36a-3wxO)2025/09/26(金) 23:31:10.61ID:Gt003hUg0
jpxがなんか予測に使ってたな
0495名無しさん@ピンキー (ワッチョイ 0fa9-k09M)2025/09/27(土) 07:51:56.30ID:0L5nCDDl0
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
0496名無しさん@ピンキー (ワッチョイ 7b8a-mDdK)2025/09/27(土) 14:01:26.70ID:wwGJW0Qw0
冷やすの?
0497名無しさん@ピンキー (ワッチョイ 8bc7-2yqi)2025/09/27(土) 23:25:17.87ID:LUN7vlE20
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
レスを投稿する


ニューススポーツなんでも実況