0532名無しさん@ピンキー2025/03/08(土) 16:02:50.73ID:??? VRAM72GB環境を構築するくらいにはLLMにハマってるけどファインチューニングとかしないなら今はAPIなりクラウドで大体全部良いと思ってる APIは規制緩いから脱獄プロンプトと合わせれば圧倒的な賢さを備えた上でローカルと同等以上の性癖を出せる BANやプライバシーが気になるならそれこそクラウドGPU借りて100B以上のモデルをホストすれば良い