https://www.reddit.com/r/LocalLLaMA/comments/1mke7ef/120b_runs_awesome_on_just_8gb_vram/
llama.cppの--cpu-moeオプション使うことでgpt-oss-120bがvRAM8GB、RAM64GBで動いたらしい