過学習でガビってるLoRAでも強度とかblockweight調整すれば結構いい感じになることもあるよ
個人的な印象だけど、ガビらないようにギリギリ探って学習パラメータ詰めていくより
ガビるくらい回したやつを強度弱めて使うほうが手軽にそこそこの結果が得られることが多いから
配布とか考えない自分用のLoRAは割と適当に回してガビらせてる