0703名無しさん@ピンキー2024/03/20(水) 08:59:17.63ID:??? 完全ローカル環境とウェブサービスが入れ替わることはないと思うな だってLLMは送信受信がテキストだけだからウェブサービスとの相性が良すぎるもん 革ジャンもAI用にバケモンみたいな業務用GPUを開発してるし、仮にオープンLLMモデルが発達してopusレベルになったとしても今度はレンタルGPUサービスなどに頼る時代が始まるだけや