0882名無しさん@ピンキー (ワッチョイ b68e-TEJs)2024/06/04(火) 18:09:37.59ID:???0 7Bモデルだと量子化無しなら14GBくらいのサイズだからVRAMに乗り切ってないよ GGUFの方で8bit以下の量子化モデルなら高速に生成できるはず