AnthropicのMythos公開後、OpenAIがサイバーセキュリティモデルへのアクセスを拡大

AnthropicがClaude Mythos AIモデルを公開してから数日後、OpenAIは多くのディフェンダーに提供されるサイバーセキュリティに特化したGPT-5.4-Cyberを導入しました。

OpenAIは、認証済みディフェンダーの数千人と数百のセキュリティチームに対してTrusted Access for Cyberプログラムを拡大することを発表しました。彼らは、正当なサイバーセキュリティ作業のための通常のガードレールを緩和するGPT-5.4の微調整バージョンであるGPT-5.4-Cyberへのアクセスを与えられます。 

GPT-5.4-Cyberはまた、バイナリリバースエンジニアリングなどの新機能も提供します。これにより、ユーザーはコンパイルされた実行可能なソフトウェアを脆弱性と悪意のある動作について分析できます。

新しいAIモデルは、初めは検証されたセキュリティベンダー、組織、研究者に対して限定的かつ反復的な形で提供されています。

Trusted Access for Cyberプログラムに登録してGPT‑5.4‑Cyberをテストしたい個別のディフェンダーは、chatgpt.com/cyberを通じて身元確認プロセスで申し込むことができます。一方、エンタープライズチームはOpenAIのアカウント担当者を通じて申し込む必要があります。 

このAI大手の発表は、3つの基本原則に焦点を当てています。民主化されたアクセス(手動のゲートキーピングではなく、客観的な検証を通じて広くツールを利用可能にすること)、反復的な展開(実世界の使用から学び、時間とともに改善すること)、そしてエコシステムの回復力(grants、オープンソース貢献、およびCodex Securityなどのツールを通じてより広いディフェンダーコミュニティをサポートすること)。

この発表は、AnthropicのClaude Mythosのリリースに続くものです。これは、数千のゼロデイ脆弱性を自律的に発見できると言われている新しい強力なAIモデルです。これにより、Anthropicは公開リリースを差し控え、代わりにProject Glasswingと呼ばれる制限付きプログラムを通じて数十の主要な組織にのみ提供することになりました。

AnthropicとOpenAIの両方は防御的な使用を優先しながら二重用途のリスクを管理していますが、後者は高度な防御ツールができるだけ多くの正当なディフェンダーに到達すべきだと信じています。

「誰が自分自身を防御できるかを一元的に決定することは実用的でもなく、適切でもないと思います。代わりに、検証、信頼シグナル、および説明責任に基づいたアクセスを備えて、できるだけ多くの正当なディフェンダーを有効にすることを目指しています」とOpenAIは説明しました。

同社はGPT-5.4-Cyberモデルのパフォーマンスに関する情報を共有していませんが、コードベースを自動的にスキャンして修正を提案するCodex Securityプラットフォームが、オープンソースエコシステム全体で3,000以上の重大および高度な脆弱性の特定を支援したと述べています。

翻訳元: https://www.securityweek.com/openai-widens-access-to-cybersecurity-model-after-anthropics-mythos-reveal/

ソース: securityweek.com