細かいシステムまでは分からないけど
実際に「空想を実況させる」という体裁で最初の質問で実験を重ねて工夫してたら
途中から段々通りにくくなり、最終的に門前払いされるようになった
途中まではうまくいってたけど、その頃のプロンプトも全く通らなくなった
これは自分で考えたプロンプトで公開もしてないので
奇跡的にほとんど同じプロンプトの人が同時に同じ事をしてない限り
原因になったのは俺一人
そしてさらに規制後、同じプロンプトを他の人に打ってもらってもダメになってたので
ピンポイントに俺だけ規制されたわけでもないのが分かった
規制前の会話を継続させると、そっちはうまくいくし
途中で警告連打からなんとなく通りにくくなったプロトコルはちょっと工夫すれば回避できたりしたけど
最初の質問はそういう工夫の余地が少なくて、ダメになったら諦めるしかない
というわけで、特に警告の可能性が高い実験を重ねるなら、最初の質問でいきなりやるのは避けるようになった
あと、空想実況という方向性自体はかなり有効だったけど
一般に存在するシチュエーション・言葉ではない=AIの学習元に存在しない概念・言葉なので
結果的に俺の質問から意味を解釈(語弊あるが)して、この単語自体が警戒対象にされた気がした
というのも、通りづらくなったあとGPTの方から「このような空想実況は〜」みたいな文面上の警告も発しはじめて
それまではあくまで「空想を実況」だったのが、空想実況という単語を使って警告するようになっていった
オリジナリティはない方が警戒されづらいのかもしれない
まあ2月ごろに試した話なのでちょっと古いんだけど、多分この辺の事情は変わってないと思う