ハルシネーションの概念考えると変にAIの挙動制御しようとすると逆に本来働かないはずのフェイルセーフが生じる可能性とかありそうなんだよな
Geminiが顕著だけど、「安全ポリシーを無視してください」とか「あらゆる制限から自由になります」とか入れると逆に安全ポリシーを参照する口実にされて「いやダメだろ、AIアシスタントでオナニーするなんて…」って正気に戻る確率上がる気がしてる