VRAM72GB環境を構築するくらいにはLLMにハマってるけどファインチューニングとかしないなら今はAPIなりクラウドで大体全部良いと思ってる 
APIは規制緩いから脱獄プロンプトと合わせれば圧倒的な賢さを備えた上でローカルと同等以上の性癖を出せる
BANやプライバシーが気になるならそれこそクラウドGPU借りて100B以上のモデルをホストすれば良い