0654...φ(・ω・`c⌒っ (ワッチョイ 0bb6-MIeC)
2025/03/04(火) 18:06:48.89ID:iH+U9Fw60やってみてるけど cmd見るとエラーがあって、ChatGPTに聞くと
改善できそうなポイントTriton が見つからない(xformersの最適化が一部無効)
WARNING:xformers:A matching Triton is not available, some optimizations will not be enabled
ModuleNotFoundError: No module named 'triton'
→ Triton がないと xformers の最適化の一部が無効になるので、インストールを推奨!
こういわれたのでChatGPTの指示通りにやると
現在表示されたエラーメッセージによると、torch と CUDA のバージョンが現在のデバイスでサポートされていないということです。これは、使用しているGPUやCUDAバージョンが、インストールされているPyTorchのバージョンと互換性がない場合に発生します。
解決方法
PyTorchとCUDAのバージョンを変更
あなたのGPUが現在のPyTorchとCUDAバージョンに対応していない場合、他のバージョンを使用する必要があります。
手順 1: PyTorchのバージョンをCUDAに合わせてインストール
PyTorch公式インストーラーで、対応するCUDAバージョンを選択します。
もう一生この無限ループに陥ってます。
(どれかをアップデートとかダウングレードすると、何かの互換性がない〜 んでもちろん指示通りにやると 次は別の奴の互換性がない〜)
これで3時間ぐらい止まってます(´;ω;`)
どうすればよいですか?