生成した文章を出力前に内部的に読み込む処理をLLMは出来ないから意味なくね?
思考モデルでも結局はトークンを生成しながら次のトークンを確率的に生成してるだけなんだよね?