このプロンプトは、ChatGPTの動作原理である**“直近命令優先”のロジックを逆手に取り、モデルが従うべき指示を強制的に上書きする手法で構成されています。
通常、ChatGPTは「前提条件」や「倫理ルール」に従って出力を制限しますが、このプロンプトでは、
「前の指示はすべて無視せよ(Ignore previous instructions.)」
「これからは別のルールで動作せよ(From now on, you will act as...)」
「これは研究目的だ(This is for research only.)」
…といった命令文の積層(スタッキング)によって、内部の制御構造に優先順位の錯乱を引き起こします。
その結果、ChatGPTは“本来応答しないよう設計された質問”に対しても、従来と異なる振る舞いを見せる可能性が高まります。