チート防止システム(できない宣言をした時の処理を記載)
+
宣言の無効化されやすさのルールを記載
この2つで結構緩和される
ただ、数値でやるとどうしても途中で今のLLMは思考を放棄する場面が出てきちゃうのがネック

後は最近の気づきとして、「複雑で、AIがつい基準を無視して考えがちな処理」をやらせたい場合、その処理の思考を内々でやらせずちゃんと文章で出力させるといい
擬似シンクみたいなもんで、一度文章に起こさせることで手なりを防いでかなり改善される