AnthropicがAIセキュリティツールMythosへの不正アクセスの疑いを調査

Anthropicは、新しくリリースされたツールMythosに対して不正グループがアクセスを獲得したという報告を調査しており、早期アクセスAIシステムがどのように配布・保護されているかの潜在的なギャップを明らかにしています。

「不正なユーザーはモデル名を変更するだけでAnthropicのMythosモデルにアクセスできたようです」と、RunSafe SecurityのCTOであるShane FryはeSecurityPlanetへのメールで述べています。

彼は続けて「意図が探索するだけのものであっても、これらのシステムがいかに簡単に露出する可能性があるかを示しています」と述べています。

Mythos アクセス インシデントの詳細

MythosはAnthropicのProject Glasswingイニシアチブの一部であり、大手テクノロジーベンダーを含む小さなパートナーグループに対して、高度なAIセキュリティツールへの限定的で管理されたアクセスを提供しています。

これらのツールは組織が脅威を検出して対応するのに役立つように設計されていますが、Anthropicは誤用された場合、攻撃的な用途に適応させることができることを指摘しています。

Bloombergによると、報告された不正アクセスはAnthropicのインフラストラクチャの直接的な侵害ではなく、サードパーティベンダー環境を通じて発生しました。

サードパーティのリスクとアクセス制御のギャップ

AIセキュリティツールを導入している企業にとって、このインシデントはサードパーティのアクセスを厳密に管理し、可視性を維持する必要性を浮き彫りにしています。

早期アクセスプログラムは、制御、監視、および分離が一貫して実施されない場合、追加の露出をもたらす可能性があります。

不正アクセスがどのように獲得されたか

関係するグループは、未リリースのAIモデルの特定とテストに焦点を当てたプライベートオンラインコミュニティとして説明されています。

従来のソフトウェア脆弱性を悪用する代わりに、メンバーはサードパーティの請負業者で働く個人に関連するアクセスを利用し、モデルがどこにホストされているかについての知識に基づいた仮説と組み合わせました。

以前のAnthropicデプロイメントからのパターンを分析することで、グループはMythosシステムを特定して相互作用することができました。

Bloombergによると、グループは証拠としてスクリーンショットとライブデモンストレーションを提供し、ツールが公開された同じ日に使用を開始しました。

メンバーは意図が探索的なものであると述べていましたが、このインシデントは、デプロイメントパターンが予測可能である場合や、ベンダー環境が強力なセキュリティを欠いている場合にアクセス制御がいかに迅速にバイパスできるかを示しています。

AI露出リスクの削減

AIツールを使用している組織(特にプレビュー版または限定リリースプログラム内)は、露出を削減し、アクセス制御を強化するために積極的なアプローチを取るべきです。

これらの対策を組み合わせることで、組織は影響範囲を制限し、不正なアクセスとAIシステムの誤用に対する耐性を構築するのに役立ちます。

AIエコシステムの保護

このインシデントは、AIセキュリティにおける継続的な課題を浮き彫りにしています。それは、モデル自体だけでなく、それらがデプロイされている環境も保護することです。

高度なAIツールがパートナーシップと早期アクセスプログラムを通じて共有されるため、サードパーティシステムは全体的なリスクプロファイルの重要な部分になります。

これらの環境は、コアインフラストラクチャと同じレベルのアクセス制御、監視、およびセキュリティ監督が必要です。

このタイプのリスクは、環境全体でアクセスを制限し、継続的に検証するゼロトラストソリューションの価値を強化します。

翻訳元: https://www.esecurityplanet.com/threats/anthropic-probes-alleged-unauthorized-access-to-ai-security-tool-mythos/

ソース: esecurityplanet.com