0248名無しさん@ピンキー (ワッチョイ ff7c-uf0z)2025/05/04(日) 14:34:37.61ID:labuE3rm0 急に規制が厳しくなって 何処も使えなくなった時に備えて ローカルで動作するLLMもやっとくか でもハイエンドGPUのPC1台用意したところで GeminiとかChatGPTのサービスに遠く及ばないか? 学習データの入手とか、計算性能の問題だけでなく、VRAMも足りないよね エロチャットとかのロールプレイだけに限っても性能劣る?