なんJLLM部 避難所 ★9
0654名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/15(水) 21:26:42.52ID:NIWsAMFT0
>>653
ModelfileうんぬんってことはOllama?確かまだ未対応やったんちゃうかな?modelcardにあるようにlammacppかその派生(コボちゃんとか)でないと対応してないはず
0657名無しさん@ピンキー (ワッチョイ 3b7c-s4CX)2025/10/16(木) 09:48:37.74ID:U3eWIMKC0
>>651
横からだが試してみた。回答内容は悪くないけど重いなぁ。Qwen3-Nextが速杉とも言えるが小説支援には良いけど尻とかでチャットに使うには個人的にびみょかった(個人の感想です)
0658名無しさん@ピンキー (ワッチョイ 0fa9-dmQm)2025/10/16(木) 13:30:03.77ID:3FIeU2zk0
DGX Sparkは結局Ryzen AI Maxくらいしかパフォーマンス出なさそうだし微妙だね。
CUDA使えるのとConnect-X付いてるのはいいけどRyzenと比べて価格が倍以上だし
それならMac買うかってなるな
0661名無しさん@ピンキー (ワッチョイ 5ffb-xebt)2025/10/16(木) 15:20:59.54ID:N2IolTdl0
>>660
https://x.com/AliDTwitt/status/1977685088285675860

以下GROKによる翻訳
Mac Studio M3 Ultra 512GB RAM 80 GPUでGLM 4.6 8bit(MLX)をローカルで実行中。LM Studioで書くと、380GBのRAMをガッツリ使いながら、たった3.5トークン/秒しか生成しない。壁のペンキが乾くのを見ている気分。

品質ではGPT5 Codex(High think)やSonnet 4.5を上回る。とにかく遅いだけ。
@Zai_org
の素晴らしい仕事、GLM 4.7が大幅に速くなることを期待してる。
レスを投稿する


ニューススポーツなんでも実況