一般的なニューラルネットワーク学習に共通する話としてはバッチサイズは学習結果に影響ある
ざっくりいうと理論的には小さいバッチサイズのほうがより汎化性が上がる=柔軟性の高いモデルがやすいらしい
SDにおけるLoRAとかの学習において気にする度差が出るのかはわからんけど