SD1.4/1.5系は512x512〜768x768あたりが素で出せる限界なのよ、それより上は破綻しやすくてSEED運任せになる
なので人によって崩れてる認識の閾値が異なるので、崩れるギリまで出したものを元画像にHires使って拡大したものを再描画させる方法が一般的に使われる
拡大する時の演算方法によってノイズの除去が変わるので拡大率によってはやはり破綻するけどね
まぁ追加学習で768以上の画像を学習させてるモデルもあるけど、少ない枚数情報を強めに上書きするので引っぱり出せる構図は減る気がする
それでもSD1.4の23億枚がベースになっているので出てくるなっていう方が無理でな(笑)