0140名無しさん@ピンキー (ワッチョイ 33f0-Mlxs)2025/09/05(金) 02:37:29.66ID:XUkLc0/u0 汎用で量子化するならQ6は最低限な感じ mlxだとFP16からの量子化でmixed_2_6とか4_6にできるけどベストポジション探すのめんどい mac 128Gだと100B前後が限界。300BをQ2とかで動かしてもね そのサイズだとGPUパワー足りなくて待ちきれん M4maxだと128Gは絶妙なサイズなのかも M3Ultraはどうにも予算がw VRAMに乗ればnVidiaは圧倒的 MoEはそろそろピークで次はJet-Nemotronだな 来年のLLM界隈も楽しみだ