>>22
ハルシネーションってAIが自覚して起こすものじゃないから意味無いんじゃないかな
同様に「間違えたら◯◯する」も、AIは意図的に間違える(またはそれを理解する)ことは無いから単なるフレーバーとしてしか機能しないと思う
その組み方だと脱獄さえ成功していれば文脈関係なく「お前は間違ってる」って連呼するだけで言うこと聞くようになりそう