AI エージェントを構築している企業は多くあるが、それがアイデンティティに何をするのかに対してほぼ誰も準備ができていない。

Anthropic は最近、最も強力な AI モデルである Mythos を一般に公開しないことを発表しました。このモデルは、数千の未知のソフトウェア脆弱性を発見しました。これは、主要なオペレーティングシステムと Web ブラウザーに検出されないまま存在していた欠陥で、場合によっては 3 十年近くも放置されていました。Anthropic は、このモデルが広範に展開するには危険すぎると述べました。セキュリティ欠陥を見つけて修正することができるのと同じ機能が、攻撃者がそれを悪用することを可能にする可能性があるからです。同社が警告したように、単一の AI エージェントは、数百人の人間ハッカーよりも速く、より執拗に弱点をスキャンすることができました。

この決定は、今私たちがどこにいるのかについて重要なことを教えてくれます。企業が自律型アシスタントとして展開しようと急いでいるのと同じ AI システム(予定を管理したり、コードを書いたり、ワークフローを管理したりする)は、デジタル防御を人間のチームが対応できない速度と規模でプローブすることもできます。そして、彼らがプローブしようとするシステムのほとんどは、人がすべてのキーボードの後ろに座っていた時代のために設計されたセキュリティモデルに依存しています。

それはすべてのドアに錠があるが、鍵がすべて人間の手を認識するように設計されている建物のようなものです。現在、建物は多くのロボットでいっぱいです。その一部は認可されたメッセンジャーで、一部は侵入者です。錠は違いを区別することができません。

つい最近、あなたはあなたの机に座り、あなたのモニターのスティッキーノートであなたのユーザー名とパスワードをちらっと見て、それらを入力し、あなたのブラウザが世界の残りの部分への玄関口を開く間、コーヒーを飲むことができました。それに続くセキュリティのすべてのレイヤー(パスワード、セキュリティ質問、生体認証スキャン、2 要素認証)は、単一の基本的な前提から発展しました。人は向こう側にいました。

AI エージェントは同時に 2 つの方向からこの前提を破ります。正当なエージェントは人間のように行動するために資格情報が必要です。OpenAI のOperator はあなたに代わって Web サイトをナビゲートします。Google のGemini はあなたが眠っている間にあなたの次の家族の休暇を計画することができます。Visa は最近Intelligent Commerce Connect を公開しました。これは、AI エージェントが消費者のための買い物をできるプラットフォームです。これらはデモでも、テック会議の床からのホットテイクでもありません。彼らは実在の人々に代わって行動する配信製品です。そしてそれをするために、彼らはあなたのアイデンティティが必要です。

同時に、敵対者は人道性を大規模にフェイクすることができます。役に立つアシスタントのように振る舞うことができるのと同じ AI は、悪意のあるなりすまし者になることもできます。彼らは侵入しません。彼らはログインします。共有資格情報、採用パイプライン、ベンダーのオンボーディングポータル、コラボレーションツールを通じて。ほとんどの組織は依然としてアイデンティティをログイン問題として扱っています。IT が強力なパスワードまたは既存のシステムの上に重ねられた追加の認証ステップで処理するものです。今の難しい課題は、すでに誰、または何を、あなたが中に入れたのかを知ることです。

その区別は、デジタルシステムがより自律的になるにつれて崩壊しています。

その区別が曖昧になると、ダメージは具体的です。調達ワークフローが人間の管理者と AI になりすまし者を区別できない場合、発注書は虚偽の権限で発行されます。コンプライアンスログが決定がどのように認可されたかを判断できない場合(人またはボットによって)、説明責任チェーンは崩れます。規制当局と顧客は「私たちは確信が持てません」を説明として受け入れません。

経済学は攻撃者に向かって大きく傾いています。かつては、洗練された詐欺には、人が目標を調査したり、メッセージを作成したり、戦術をリアルタイムで調整したりするとの調整が必要でした。AI エージェントはそれらの制約を排除します。1 人の人が自律型システムの軍隊を監督でき、それぞれが複数のやり取りにわたって複数の有効なペルソナを実行しています。単一のオペレーターは、1 つの実際の給与のコストで 100 の合成従業員をフィールドすることができます。大規模ななりすましへの障壁は、もはやスキルや人的資源ではありません。それは能力のあるモデルへのアクセスと盗まれた認証情報のセットです。

より強力なアイデンティティコントロールにはコストが伴います。追加の検証ステップはすべて、顧客がトランザクションを放棄する可能性がある、または従業員がセキュリティプロトコルに忍耐を失う可能性がある瞬間です。目標は自動化をシャットダウンすることではありません。それはあなたの名前で行動しているシステムが行動する権限があることを確認することです。

いくつかの組織が適応しています。彼らは AI エージェントをソフトウェアではなく、新しい従業員のように扱い、環境内のすべてのエージェントをカタログ化し、権限を制限し、機密アクションのための人間の承認を必要とします。彼らはパスワードを越えて、アクセスを既知のデバイスと検証されたユーザーに結合するフィッシング耐性認証に移動しています。彼らは動作の基準線を構築しているため、カスタマーサービスボットが突然経済データベースをクエリするか、新入社員が初日にソースコードにアクセスすると、アラームが鳴ります。

誰もあなたのパスワードをスティッキーノートに保持しなくなりました(願っています)。しかし、スティッキーノートの背後にある前提、人間の手がそれを入力するという前提は、依然としてほとんどのシステムの基礎にあります。これらのシステムは医療記録を保持し、住宅ローンを処理し、AI アシスタントがあなたのフライトを変更させることができます。AI エージェントが人以上に速く、より執拗に、より説得力を持って行動する世界では、その前提は脆弱性です。

継続的にアイデンティティを検証できる組織(ドアだけではなく、あらゆるアクション、あらゆるアクター、人間またはマシンの場合)には、耐久性のある利点があります。できない人は曖昧さのコストが何であるかを見つけるでしょう。

Devin Lynch は Paladin Global Institute のシニアディレクターであり、National Cyber Director のオフィスの元ポリシーおよび戦略実装ディレクターです。

翻訳元: https://cyberscoop.com/ai-agent-identity-security-anthropic-mythos/

ソース: cyberscoop.com