というかそもそもいまのreasoningモデルは十分人間らしい思考形態って評価されてると思うけどね
人間だってreasoningしてから次のトークンを予測してるだけでしょ
せいぜい「AIには生の実感がないから世界情報を与えよう」とかそういうことくらい