LoRA の効きに LoRA 記述位置は関係ないぞ
<lora:~~~~> という記述があったらそれだけを抜き取って残りをそのままテキストエンコーダーに渡しつつ
モデルへの差分適用するっていう仕組みなんだから