0980...φ(・ω・`c⌒っ (ワッチョイ 7e6c-yXn9)
2024/03/13(水) 17:39:32.61ID:4kAuxAkE0FP8 weight (Use FP8 to store Linear/Conv layers' weight. Require pytorch>=2.1.0.)
FP8 の重み(FP8 を使用して Linear/Conv レイヤーの重みを保存します。pytorch>=2.1.0 が必要です。)
「Disable」←デフォルトこれ 「Enable for SDXL」 「Enable」←今これ
これにもチェック→「Cache FP16 weight for LoRA」 (Cache fp16 weight when enabling FP8, will increase the quality of LoRA. Use more system ram.)
LoRA のキャッシュ FP16 重み (FP8 を有効にするときに fp16 の重みをキャッシュすると、LoRA の品質が向上します。より多くのシステム RAM を使用します。)
設定してからまだ10回ほどしか生成してない