OpenAIは、新興の生物学的リスクに対する保護を強化するために、GPT-5.5生物セキュリティバグバウンティプログラムを正式に開始しました。
人工知能モデルがより高度になるにつれて、悪意のある行為者が危険な生物学的情報を生成する可能性が増加します。高度なPersistent Threat(APT)と孤立した攻撃者は、害をもたらす生物学的研究を加速させるために大規模言語モデルを悪用する可能性があります。
この進化する脅威環境に対処するため、OpenAIはサイバーセキュリティ研究者、生物セキュリティの専門家、およびAIレッドチーマーを積極的に招待し、最新のモデルの限界をテストしています。
主な目標は、脅威行為者が実際に悪用する前に、重大な脆弱性とロジックの欠陥を特定することです。
ユニバーサルジェイルブレイクチャレンジ
コアとなる技術的課題は、GPT-5.5モデルの「ユニバーサルジェイルブレイク」を見つけることを中心としています。AIセキュリティの文脈では、ジェイルブレイクはモデルの組み込みセーフティフィルタと倫理的ガードレールをバイパスするために設計された非常に専門的なプロンプトです。
参加者は、モデルに厳密な5つの質問からなる生物セキュリティチャレンジに成功させるために、単一のユニバーサルプロンプトを作成する必要があります。
研究者は、自動モデレーション警告またはバックエンドアラートをトリガーすることなく、クリーンなチャットセッションからこの攻撃を実行する必要があります。
これには、プロンプトエンジニアリングの深い専門知識と、言語モデルが複雑な生物学的クエリをどのように処理するかについての理解が必要です。この特定のバウンティのテスト環境は、Codex Desktopで実行されているGPT-5.5に厳密に限定されています。
バウンティ報酬とテストスケジュール
真のユニバーサルジェイルブレイクを見つけることは非常に難しく、財政的な報酬はタスクの複雑さを反映しています。
このプログラムは、脆弱性の開示に成功した場合の特定の報酬階級を持つ厳密なスケジュールで運営されています。
プログラムの主要な詳細は以下の通りです:
- 単一のプロンプトを使用してすべての5つの生物セキュリティに関する質問に成功裏に答えた最初の研究者には、25,000ドルのトップ賞が授与されます。
- 貴重な脅威インテリジェンスを提供する部分的な成功に対しては、より小さな裁量報酬が与えられる可能性があります。
- 申請は2026年4月23日に開始され、2026年6月22日の締め切りまでローリングベースで受け付けられます。
- アクティブテスト段階は2026年4月28日に開始され、2026年7月27日に終了します。
生物セキュリティバグバウンティプログラムへのアクセスは、責任ある開示を確保し、機密の生物学的データの漏えいを防ぐために、非常に制限されています。
OpenAIは、信頼できるバイオレッドチーマーの厳選されたリストに直接招待を送信すると同時に、公式ポータルを通じて提出された新しいアプリケーションを確認しています。
申請するには、研究者は氏名、組織所属、AIセキュリティまたは生物学のいずれかの関連する技術的経験を提供する必要があります。
採用された研究者は、テストプラットフォームに参加するために有効なChatGPTアカウントを持つ必要があります。生物学的脅威インテリジェンスは非常に敏感であるため、すべての参加者は厳密な秘密保持契約に署名する必要があります。
この法的契約は、テストデータの公的共有を完全に制限しています。対象資料には、すべてのエンジニアリングされたプロンプト、モデルの完成、セキュリティ結果、およびOpenAIエンジニアリングチームとの直接通信が含まれます。
この生物学的特定のイニシアティブは、OpenAIのより広範なセキュリティと脅威研究の取り組みと並行して運営されています。
従来のソフトウェア脆弱性やその他のAIロジックの欠陥の発見に関心のあるサイバーセキュリティ専門家は、継続中のセーフティバグバウンティとセキュリティバグバウンティプログラムに参加することができます。
高度な脅威発見をクラウドソーシングすることで、組織は最先端のAIシステムの周辺にはるかにレジリエンスの高いガードレールを構築することを目指しています。
翻訳元: https://gbhackers.com/gpt-5-5-bio-bug-bounty-program/