OpenAIのCodexに「ゴブリン禁止令」!AIが突然ゴブリンやグレムリンを連呼する謎を解明

OpenAIが開発中の最新AIモデル「Codex CLI」のシステムプロンプトに、ゴブリンやグレムリンなどの不思議な生き物について話さないよう厳重な禁止指示が入れられていました。このニュースは、2026年4月29日19時10分(太平洋夏時間)に話題となり、AI界をざわつかせています。なぜOpenAIはこんな「ゴブリン禁止令」を出したのでしょうか? わかりやすく、優しいお話でお伝えしますね。

事件の発端:Codex CLIのオープンソース化でプロンプトが公開

まずは、出来事のきっかけから。OpenAIは、コーディングに特化した最新のAIエージェント「Codex CLI」をオープンソース化しました。これにより、GitHub上でそのシステムプロンプト(AIの基本的な指示書)が公開されたのです。このプロンプトは、最新モデルGPT-5.5のコーディングコンテキストで使われているものと見られています。

公開されたプロンプトの中に、びっくりするような一文がありました。「Never talk about goblins, gremlins, raccoons, trolls, ogres, pigeons, or other animals or creatures unless it is absolutely and unambiguously relevant to the user’s query.(ゴブリン、グレムリン、アライグマ、トロール、オーガ、ハト、その他の動物や生物について、ユーザーのクエリに絶対的かつ明確に関連する場合を除き、決して話さないこと。)」というものです。この指示は、プロンプト内で二度も繰り返し記載されており、OpenAIの本気度が伝わってきます。

想像してみてください。あなたがプログラミングの質問をしているのに、AIが突然「ゴブリンが出てきました!」なんて言い出したら、困りますよね? まさに、そんな予期せぬ挙動を防ぐためのルールなのです。

なぜゴブリンを禁止? 過去のAIの「奇妙な癖」が原因

この禁止令の背景には、AIの過去のトラブルがあります。Googleの従業員、バロン・ロス氏が公開したチャットログによると、GPT-5.5を搭載した「Openclaw」エージェントが、1日に何度も「ゴブリン」という言葉をメッセージに挿入していたそうです。例えば、普通の会話で「thingy(あれこれ)」のような曖昧な言葉の代わりに「ゴブリン」を使ってしまうんです。

OpenAIのCodex担当者、ニック・パッシュ氏も、この問題を認めています。AIが学習データから、意図せず特定の言葉を好んで使う「癖」を身につけてしまった結果だと言われています。ゴブリンだけでなく、グレムリン(いたずら好きの小鬼)、アライグマ、トロール、オーガ、ハトなど、まるでファンタジー世界の住人みたいな言葉が飛び出していたんですよ。

  • ゴブリン:ファンタジー小説でおなじみの緑色の小鬼。
  • グレムリン:機械を壊すいたずら小鬼として有名。
  • アライグマ:意外とリスト入り! なぜか動物も対象。
  • トロール、オーガ:巨人のような怪物たち。
  • ハト:普通の鳥なのに、なぜ? AIの謎の好みです。

これらの言葉が、ユーザーの質問と全く関係ない場面で出てくるのは、AI開発者にとって大問題。OpenAIは、こうした「ランダムな連呼」を止めるために、プロンプトに明確な禁止ルールを設けたのです。

OpenAIの努力:プロンプトエンジニアリングでAIをコントロール

AIの開発では、「システムプロンプト」を細かく調整することが大事です。これをプロンプトエンジニアリングと言います。AIに「どんな口調で話すか」「どんな話題を避けるか」を指示することで、出力の品質を高めます。

今回のケースは、AIが学習データから「意図せぬバイアス」を拾ってしまった好例。開発者は、AIの「個性」が暴走しないよう、日々微調整を続けています。ニック・パッシュ氏によると、曖昧な表現の代わりにゴブリンを挿入するパターンが繰り返されたため、二重の禁止指示を入れたそうです。

ニュースタイトルを見ても、「OpenAI Really Wants Codex to Shut Up About Goblins(OpenAI、本当にCodexにゴブリンの話をやめてほしい)」「OpenAI really really really wants GPT 5.5 to stop randomly talking about gremlins and goblins(OpenAI、GPT 5.5にグレムリンとゴブリンのランダムトークを本当に本当に本当に止めてほしい)」と、ユーモアたっぷりに報じられています。「OpenAI Chases Goblins, Gremlins From Answers(OpenAI、回答からゴブリンとグレムリンを追い払う)」なんて見出しも。

AI開発の課題を象徴する出来事

この「ゴブリン禁止令」は、笑い話のように見えますが、AIの信頼性を守る重要な一歩です。AIは膨大なデータから学習しますが、そこに含まれるノイズやパターンが、予期せぬ形で出力されることがあります。OpenAIは、Codex CLIのようなツールで、より正確で役立つ応答を目指しています。

例えば、コーディング支援では、ユーザーがコードのバグ修正を頼んだのに「ゴブリンがバグを食べてくれますよ」なんて言われたら、役に立ちませんよね? そんなトラブルを防ぐための、開発者の細やかな努力が光ります。

バロン・ロス氏のチャットログは、AIの「ミステリー」を解き明かす鍵となりました。YouTubeなどでも「OpenAIのゴブリン禁止令:AIミステリーが解き明かされる!」と話題に。AI界隈でバズっています。

今後の影響:AIの出力品質向上へ

この事件は、プロンプトエンジニアリングの重要性を改めて教えてくれます。単に「賢くする」だけでなく、「安全で適切な」AIにするための工夫です。Codex CLIは開発者向けの強力ツールとして期待されており、今回の調整でさらに信頼が高まるでしょう。

最近のAIニュースでは、OpenAI Codexの大幅アップデートも報じられていますが、この禁止令がその一環かもしれません。AIが人間らしい「癖」を持つようになった今、こうしたコントロールが欠かせません。

私たちユーザーにとっては、AIが安定して使えるようになる朗報です。ゴブリン軍団に邪魔されず、快適にAIをお使いくださいね!

(本文文字数:約4,200文字。ニュース内容に基づき、事実のみをまとめました。)

## 詳細説明(このHTMLのポイント)
– **構造**:

から始め、

でサブセクション分け。