2025年7月16日Ravie LakshmananAIセキュリティ / 脆弱性
Googleは火曜日、自社の大規模言語モデル(LLM)支援による脆弱性発見フレームワークが、SQLiteオープンソースデータベースエンジンのセキュリティ脆弱性を、実際に悪用される前に発見したことを明らかにしました。
この脆弱性はCVE-2025-6965(CVSSスコア:7.2)として追跡されており、3.50.2より前の全バージョンに影響するメモリ破損の脆弱性です。これは、昨年GoogleがDeepMindおよびGoogle Project Zeroとの協力の一環として立ち上げた人工知能(AI)エージェントBig Sleepによって発見されました。
「任意のSQL文をアプリケーションに注入できる攻撃者は、整数オーバーフローを引き起こし、配列の末尾を読み取ることができる可能性があります」と、SQLiteプロジェクトの管理者はアドバイザリで述べています。
このテクノロジー大手は、CVE-2025-6965を「脅威アクターだけが知っており、悪用されるリスクがあった」重大なセキュリティ問題だと説明しました。Googleは脅威アクターが誰であったかは明らかにしませんでした。
「脅威インテリジェンスとBig Sleepの組み合わせにより、Googleは脆弱性がまもなく悪用されることを事前に予測し、事前にそれを阻止することができました」と、GoogleおよびAlphabetのグローバルアフェアーズ部門プレジデントのKent Walker氏は述べています。
「AIエージェントが実際に野生下での脆弱性悪用の試みを直接阻止したのは、これが初めてだと考えています。」
2024年10月には、Big SleepがSQLiteの別の脆弱性、クラッシュや任意コード実行につながる可能性のあるスタックバッファアンダーフローの発見にも関与していました。
この進展に合わせて、Googleは安全なAIエージェントの構築に関するホワイトペーパーも公開しました。そこでは、明確に定義された人間の管理者を持ち、能力を慎重に制限して潜在的な暴走や機密データの漏洩を防ぎ、行動が観察可能かつ透明であることが求められています。
「従来のシステムセキュリティ手法(古典的なソフトウェアによるエージェントの行動制限など)は、多用途なエージェントに必要な文脈認識を欠いており、実用性を過度に制限する可能性があります」と、GoogleのSantiago(Sal)Díaz氏、Christoph Kern氏、Kara Olive氏は述べています。
「逆に、純粋に推論ベースのセキュリティ(AIモデルの判断のみに依存する)は不十分です。なぜなら、現行のLLMはプロンプトインジェクションのような操作に依然として脆弱であり、十分に堅牢な保証を提供できないからです。」
エージェントセキュリティに関連する主要なリスクを軽減するために、同社は従来型の決定論的制御と動的な推論ベースの防御の両方の強みを組み合わせたハイブリッドな多層防御アプローチを採用したと述べています。
このアイデアは、エージェントの運用環境に堅牢な境界を設けることで、有害な結果、特にプロンプトインジェクションによる悪意ある行動のリスクを大幅に軽減することにあります。
「この多層防御アプローチは、AIエージェントの運用環境に強制的な境界を設けることで、最悪のシナリオを防ぎます。これは、エージェントの内部推論プロセスが高度な攻撃や予期せぬ入力によって損なわれたり、誤った方向に導かれたりした場合でも、ガードレールとして機能します」とGoogleは述べています。
「この多層的なアプローチは、純粋なルールベースのシステムだけでも、純粋なAIベースの判断だけでも十分ではないことを認識しています。」
翻訳元: https://thehackernews.com/2025/07/google-ai-big-sleep-stops-exploitation.html