別に内部で英語で処理してるみたいなことはないが、学習の過程で、ある日本語の単語が訳語の英単語と関連付けられて、英単語の方だけが持っているニュアンスとも不正確に関連付けられるみたいなことはあるかもね
あと思考の利点は、大半のLLMは前から順番に生成する都合上、最初にぱっと言ったことを取り消すのが下手だから、結論の前にステップバイステップで考えさせるっていうテクニックを援用して、元からそれに特化したモデルを作っちゃおうって話やね