チェックされていないAIエージェントが3分の2の企業でサイバーセキュリティインシデントを引き起こしている

クラウド・セキュリティ・アライアンス(CSA)の研究により、3分の2の組織が過去1年間にAIエージェント導入に関連するサイバーセキュリティインシデントに見舞われたことが警告されています。

Token Securityと共同で実施された研究によると、企業ネットワーク上で動作するチェックされていないAIエージェントは、データ流出、運用の中断、財務上の損失を含む被害をもたらしました。

4月21日に発表されたCSAの論文「Autonomous but Not Controlled: AI Agent Incidents Now Common in Enterprises」は、大多数の組織がAIエージェントの廃止に関する戦略を策定していないことを警告し、サイバーセキュリティインシデントのリスクをさらに高めていると述べています。

報告書によると、回答者の68%がネットワーク上のAIエージェントの可視性について高い信頼を持っていると主張しています。しかし、すべての回答者の82%が過去1年間に以前は不明だったエージェントを発見したと述べています。

以前は不明だった未知のAIエージェントが最も多く発見された場所は、内部自動化環境と大規模言語モデル(LLM)プラットフォーム内でした。

「このギャップは運用上の可視性と完全なガバナンス保証の区別を強調しており、既知で制限されたエージェントに依存する制御モデルの有効性を制限しています」とCSA報告書は述べています。

サイバーセキュリティとインフラストラクチャチームが従業員がネットワークに導入したAIエージェントを認識していない場合、これらのAIエージェントが安全に導入されていることを確認することはほぼ不可能になります。これはすでにサイバーセキュリティインシデントをもたらしています。

AIエージェントはデータ流出と運用の中断を引き起こしている

過去12ヶ月間に、65%の組織がAIエージェントの使用によって発生したサイバーセキュリティインシデントを少なくとも1件経験したことが、研究により判明しました。

AIエージェント関連のセキュリティインシデントの運用上の結果には、データ流出(61%)、運用の中断(43%)、またはビジネスプロセスにおける意図しないアクション(41%)が含まれました。

組織の3分の1をやや上回る35%がAIエージェントのアクションの結果によるセキュリティインシデントが財務上の損失をもたらしたと述べており、31%は顧客向けまたは内部サービスの遅延を経験しました。

この論文は、AIエージェントインシデントがすでにデータ保護を含むコア事業機能、運用の継続性、財務パフォーマンス、およびサービス提供に影響を与えていることを警告しています。企業はAIエージェントの周りに管理を適用するための適切なリスク評価を実施していることを確認する必要があります。

「組織にとって、これはAIエージェントガバナンスを技術的な監視問題からビジネスリスク管理の懸念事項へとシフトさせます。エージェントの動作は、現在、孤立した自動化の課題として管理されるのではなく、より広いセキュリティ、コンプライアンス、および運用回復力の戦略に統合される必要があります」と報告書は述べています。

AIエージェント廃止におけるガバナンスが欠けている

AIエージェントのガバナンスが特に遅れている領域は、AIエージェントが廃止される際に何が起こるかに関するもので、ライフエンド・ガバナンスの周りに明確な管理不足があります。

5組織に1つだけがAIエージェント廃止のための公式プロセスを実施しており、AIエージェントが意図された目的を完了した後でもネットワーク内に残存する可能性があることを意味しています。

しかし、多くの場合、彼らはまだ認証情報、権限、または運用フックを保持しており、意図しないデータ流出またはデータ漏洩をもたらす可能性があります。CSA報告書は、より多くのAIエージェントがエンタープライズネットワークの一部になるにつれて、権限を保持している忘れられたエージェントの問題がサイバーセキュリティリスクを生み出す可能性があることを警告しています。

クラウド・セキュリティ・アライアンス、より強力なAIエージェントセキュリティとガバナンスを求める

CSAは、AIエージェントの周りのセキュリティとリスク管理に関する問題に対処することを求めています。

「AIエージェントセキュリティとガバナンスは、可視性、ライフサイクル管理、ポリシー、および監視にまたがる相互接続されたシステムを包含しています。基礎的な管理が導入されている一方で、一貫性とライフエンド管理のギャップが残っています」と、クラウド・セキュリティ・アライアンスの研究の補助副社長であるHillary Baronは述べています。

「エージェントがより大きな自律性を獲得するにつれて、ガバナンスはスケール時に管理を維持できるより統一された運用モデルへと進化する必要があります」と彼女は付け加えました。

これに対処するため、CSAは組織に対して以下のアドバイスを発行しました:

  • AIエージェント全体で可視性を維持する — SaaSプラットフォーム、内部システム、およびLLM環境全体で動作するエージェントが識別され、ガバナンススコープ内にあることを確認する
  • エージェント目的を定義および文書化する — 運用上の境界を設定し、アクセスをそのスコープに合わせるために意図された機能を確立する
  • ライフサイクルガバナンスを一貫して適用する — エージェントのライフサイクル全体にわたってオンボーディング、所有権、レビュー、および廃止プロセスを拡張する
  • リスクと認可に基づいてアクションを評価する — アクションリスクと明示的な人間の承認などの状況シグナルを使用して意思決定を導く
  • エージェント活動と監視を調整する — 定期的な監視からより継続的またはイベント駆動の検出モデルへと進化させる
  •  エージェントをエンタープライズリスクモデルに組み込む — AIエージェントをより広いセキュリティ、コンプライアンス、および運用回復力の枠組みの一部として扱う

翻訳元: https://www.infosecurity-magazine.com/news/unchecked-ai-agents-cause/

ソース: infosecurity-magazine.com