コンテンツにスキップするには Enter キーを押してください

DeepSeek、Deep ResearchはAIセキュリティに深い変化をもたらす

Liam Crilly、F5のプロダクトマネジメントシニアディレクター

2025年5月13日

4分で読めます

頭のシルエット、側面図、"AI"ラベル付き、AIに関連する多数のアイコンに囲まれている; 暗い背景

出典: ElenaBs via Alamy Stock Vector

コメント

人工知能の世界は、2つの時代に分けられます: ChatGPT とDeep Logicです。 DeepSeekやGoogle、OpenAIのDeep Researchなどのプラットフォームは、エージェントシステムや論理ベースのモデルと共に、リアルタイム推論、多段階意思決定、動的データ取得を備えたこのシフトを実証しています。これらの高度なシステムは、推論中に思考の連鎖を構築し、洗練することができます。

従来のモデルが静的な重みから直接出力を生成するのとは異なり、エージェントモデルは最終的な応答を導く中間的な推論ステップを構築します。これにより、より洗練された文脈に応じた出力が可能になりますが、新たな攻撃ベクトルも導入されます。敵対者は、思考の連鎖注入攻撃を仕掛けることで、これらの中間プロセスを悪用できます。このようなシナリオでは、巧妙に作成された入力やプロンプトがモデルの内部推論を微妙に変更し、望ましい、潜在的に有害な結果に向かわせたり、内部の機密ロジックを露出させたりする可能性があります。例えば、攻撃者が誤解を招く情報を多段階のクエリに注入し、モデルがそれを推論プロセスに組み込むことで、最終的に誤った、あるいは危険な決定を下すことがあります。

同様に懸念されるのは、多くの推論駆動型モデルが外部データソースに依存していることです。DeepSeekやDeep Researchのようなシステムは、文脈と精度を向上させるために動的取得メカニズムを組み込むことがよくあります。しかし、この依存は外部データ供給チェーン内に脆弱性を生み出します。攻撃者は、データ自体を毒するか、送信中に傍受して変更することで、これらのデータソースを危険にさらすことができます。その結果、モデルが毒されたデータを取り込むと、不正確または悪意を持って歪められた情報に基づいて出力を生成する可能性があります。この種の外部データ中毒は、モデルが取得した文脈に対して持つ固有の信頼を悪用するため、検出と緩和が困難です。

関連記事:Google、テキサスに対する1.375億ドルの「歴史的」プライバシー訴訟を和解

ソフトウェア層を超えて、これらの高度な推論システムをサポートするハードウェアは独自のリスクを提示します。エージェントモデルの動的でリソース集約的な性質は、リアルタイムで複雑な計算を処理するために、GPUやTPUなどの特殊なアクセラレータを必要とすることがよくあります。これらのハードウェアコンポーネントは、処理中にのみ一時的に存在するデータである一時的な内部状態を管理します。しかし、これらの短命の状態でさえ、サイドチャネル攻撃に対して脆弱である可能性があります。悪意のあるアクターは、電力消費、処理時間、またはメモリアクセスパターンの変動を分析して、モデルの内部操作に関する機密情報を推測する可能性があります。このようなサイドチャネル漏洩は、モデルの重みや明示的な出力を直接明らかにするわけではありませんが、よりターゲットを絞った攻撃やモデルの推論経路の段階的な抽出を可能にする貴重な洞察を提供する可能性があります。

関連記事:RSACのスタートアップコンペティションでエージェントAIを上回る脆弱性検出

精密かつターゲットを絞ったソリューション

これらの多面的な課題に対処するには、精密かつターゲットを絞ったソリューションのセットが必要です。まず第一に、リアルタイムの異常検出システムを導入して内部推論プロセスを監視する必要があります。これらのシステムは、特に思考の連鎖において、確立された行動パターンからの逸脱をフラグ付けできる必要があります。中間推論ステップを分析することで、このような検出器は進行中の攻撃を示す可能性のある異常な操作や注入を特定できます。このプロアクティブな監視は、最終出力に影響を与える前に思考の連鎖注入攻撃を緩和するために不可欠です。

並行して、厳格な入力サニタイズプロトコルを確立する必要があります — 推論の初期段階だけでなく、対話全体を通じて継続的に行います。これには、推論中に取得される外部データの検証とフィルタリングが含まれます。文脈検証メカニズムは、外部ソースから取得されたデータが予想されるパターンや信頼できる参照と一致することを確認できます。データ取得および処理パイプラインの複数のポイントで堅牢なチェックを統合することで、モデルは中毒や文脈操作から保護されます。

関連記事:セキュリティがハッカーマーケットプレイスをどのように変えたか

もう一つの重要な領域は、APIエンドポイントとセッション管理のセキュリティです。推論重視のシステムは、敵対者が一連のインタラクションを通じて徐々に機密内部情報を抽出する可能性がある反復クエリを含むことがよくあります。厳格なレート制限、認証、およびセッショントラッキングは、このような反復抽出攻撃のリスクを大幅に減少させることができます。各インタラクションが安全に記録され、監視されることを保証することで、潜在的な脅威を迅速に特定し、隔離することができます。

ハードウェアレベルでは、サイドチャネル攻撃に対するインフラストラクチャのセキュリティが重要です。これには、物理的およびソフトウェアベースの防御の両方が含まれます。電力およびメモリアクセスの変動を最小限に抑えるハードウェア構成は、機密情報の漏洩を減少させることができます。推論中に差分プライバシー技術を採用することで、個々のデータポイントや内部推論ステップを難読化し、潜在的な攻撃者に利用可能な情報を制限することができます。

AIからのリスクは現実的

推論時のAIのための統一されたセキュリティフレームワークを構築することは、ソフトウェアエンジニアリング、データサイエンス、ハードウェアおよびネットワークセキュリティにまたがります。プラットフォーム、DevOps、NetOps、SecOpsチーム間のサイロは、分散アプリケーションとクラウドの重圧の下で既に崩壊しつつあります。推論AIはこれをさらに推し進めるでしょう。この新しいフロンティアを効果的に防御できる組織は、これまで以上に密接に協力し、推論AIシステムのように考えることを学ぶでしょう。

推論時のリスクは現実的で即時的です — それらは他のシステム制約と同じ規律で対処される必要があります。これはDeep Logicの時代の新しい現実です。

翻訳元: https://www.darkreading.com/vulnerabilities-threats/deepseek-deep-research-deep-changes-ai-security

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です