>>699
凄く早いな
4080(24GB)だけど以下の設定で27分くらいになってる。なにか設定間違えてるんだろうか?
あと、フォルダーにキャラ別で分けて入れておけば、自動的にそれぞれのLoRAを作る方法とか無いだろうか?
寝る前にしかけおきたい

use 8-bit AdamW optimizer | {}
running training / 学習開始
num train images * repeats / 学習画像の数×繰り返し回数: 640
num reg images / 正則化画像の数: 0
num batches per epoch / 1epochのバッチ数: 320
num epochs / epoch数: 5
batch size per device / バッチサイズ: 2
gradient accumulation steps / 勾配を合計するステップ数 = 1
total optimization steps / 学習ステップ数: 1600