この動きは、民間機関がAnthropicの強力な脆弱性発見AIの修正版にアクセスすることを可能にし、悪用を制限するために設計されたセーフガードの下で行われるものである。
米国政府は、AIモデルがサイバーセキュリティ脆弱性を迅速に発見し、それらを悪用する能力を提供する可能性があるという懸念の中で、主要な米国連邦機関による使用を認可する目的で、Anthropicの「Claude Mythos」モデルのバージョンを準備している。
ホワイトハウト行政管理予算局(OMB)の連邦最高情報責任者グレゴリー・バルバッチャ氏は火曜日、内閣省の高官に対し、OMBが連邦機関がこのモデルの使用を開始することを可能にするための保護措置を設定していると述べたと、ブルームバーグが内部メモを引用して報じた。
報告書によれば、メモは特定の機関を展開に約束することも、タイムラインを提供することもしていない。
「修正版のモデルを機関に提供する可能性がある前に、適切なガードレールとセーフガードが整っていることを確認するために、モデルプロバイダー、その他の業界パートナー、および情報機関と密接に協力しています」とバルバッチャ氏はメールに書いた。報告書によると。
OMBの動きは、3月3日に発行されたAnthropicに対する国防総省のサプライチェーン・リスク指定が依然として有効なままの中で起こっている。D.C.コートは4月8日に指定の一時停止を拒否し、指定を維持したため、Anthropicは防衛契約から除外されたままであり、一方で民間機関が今やアクセスのために配置されている。
ホワイトハウスとAnthropicはコメント要求に直ちに応答しなかった。
ガードレールの定義
モデルの修正版に対するメモの参照は、機関の展開が実際にどのように見えるかについての開かれた問題を指している。Anthropicは4月7日にProject Glasswingの下で「Claude Mythos Preview」を発表した。これは選定された技術および金融組織向けの制御されたアクセスプログラムである。
その後、同社は、内部テストにおいてモデルがすべての主要なオペレーティングシステムとブラウザ全体で数千のゼロデイ脆弱性を特定したと述べ、モデルを一般に利用可能にする計画がないと述べた。
「連邦展開が防御可能であるためには、修正は特定の保証側面をカバーする必要があります」とCounterpoint Researchの研究及びパートナー担当VP、ニール・シャー氏は述べた。「スキャンされるソフトウェアコードベースは、孤立したエアギャップ環境内で主権を保つべきであり、データはベースモデルの再訓練に使用されるべきではありません。」追加のステップには透明性要件やバグ修正が適用される前の人間の介入によるレビューが含まれる可能性があり、これにより展開がより制御される、と彼は述べた。
エンタープライズへの影響
これらの同じ保証に関する問題は企業調達に直接変換される。OMBの動きは、連邦サイバー防御が人間のチームが修正パッチを当てることができるより速く脆弱性を見つけることができるフロンティアモデルへの方向転換を示しており、ペンタゴンとホワイトハウス間の亀裂は民間セクターの買い手にとって教訓を持っている、とシャー氏は述べた。
「2つの政府機関間の亀裂は、悪用される可能性のある強力なAI機能の展開を制御することがいかに重要であるかについての教訓です」と彼は述べ、発見、分類、セキュリティ、保証、およびアクションにまたがる多層的な制御フレームワークを求めた。
非対称性は米国の国境を超えて拡張される。ヨーロッパの機関は主に早期アクセスから除外されており、UK AI Security Instituteのみがモデルをテストする能力を付与されている。OMBの認可がバルバッチャ氏が説明した条件で進む場合、米国連邦政府内の防御的AI機能はヨーロッパのカウンターパートより先に進む一方で、同じベンダーに対するペンタゴンの指定は引き続き裁判所を通じて進行する。
ペンタゴン禁止への民間の回避策
修正版のアプローチは、Anthropicがペンタゴンの立場の周りをナビゲートし、モデルの制御を失わない方法である、とシャー氏は述べた。
「Anthropicの修正版はそれによってペンタゴンの黒白のアプローチを回避し、他のエンティティが合意されたガードレール付きの民間およびエンタープライズの主権のためのセキュリティエンクレーブとしてモデルを採用することを支援します」とシャー氏は述べた。彼は、この取り決めが他の政府機関および企業全体でAnthropicの将来の採用の先例を設定していると付け加えた。
Anthropicへの連邦アクセスは数週間の間流動的である。カリフォルニアのUS District Courtは3月26日に平行する民間指定に対してAnthropicに仮差止命令を付与した。これは請負業者にAIサプライチェーンを再評価するための余裕を与えた判決である。
Anthropicは現在、同時に軍事調達からブラックリストされ、民間システム全体での除去から禁止されており、OMBを通じた拡大されたアクセスについて議論されている。請負業者は特定のAIモデルがそれらのスタック内のどこにあるかを特定する上での運用上の困難に直面しており、これは連邦AI展開全体でサプライチェーン・リスクを再形成した課題である。