>>179
LoRAとかは、元のAI生成に対してオーバーライドしてるだけ
正しく表現するわけではないが、LoRAが作った別途画像をAIが自分の生成画像に重ねて均してる(i2iしてる)だけ

>>182
AI内部計算でオーバーフローしてる
頭打ちとなった数値は明かなノイズになる(理想値と異なる)
それが画像生成に影響する(理想通りに描かれない)
AIとかは大量の三角関数の演算だから、ノイズは繰り返しと行為なって表れやすい
ガビガビなのは、線の描画で変な曲線や変な塗りが無数に繰り返された結果

>>185
学習データは元から一定の強度のプロンプトを暗に内包していると考える
そこに追加で外部からプロンプトやLoRAで積み増ししている
で、それらの1つでもオーバーフローしたらだめ(破綻する)ってことになる

一つ気になったのが、『ネガティブに弱くトゥーンシェーディングを指定』したら改善するのかどうか