コンテンツにスキップするには Enter キーを押してください

NSA、CISAが組織にAIモデルで使用されるデータのセキュリティを強化するよう促す

出典: KT Stock via Shutterstock

新しい人工知能(AI)データセキュリティガイダンスは、AIアプリケーションで使用されるデータを保護するよう組織に促しています。これは、AIの利用が急増する一方でセキュリティが遅れているため、重要な考慮事項です。このガイダンスは、国家安全保障局(NSA)の人工知能セキュリティセンター(AISC)、サイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)、国家安全保障局(NSA)、および連邦捜査局によって共同で発行されました。

AIを活用したツールや大規模言語モデル(LLM)などの機械学習システムは、プロセスを自動化し、組織がより迅速に作業できるようにしますが、セキュリティはしばしば後回しにされます。セキュリティが不足しているだけでなく、多くの組織がリスクを過小評価しています — それらは豊富に存在します。

そのため、連邦機関は国際的なパートナーと協力して、AIシステムのトレーニングと運用に使用される機密および重要なデータを保護するためのベストプラクティスを文書化しています。このガイダンスは、AIデータセキュリティリスクの3つの主要分野に対処することを目的としています:サプライチェーン、悪意を持って改ざんまたは「配置」されたデータ、およびデータドリフト。これらのリスク領域が未解決のままだと、攻撃者がデータを操作してモデルのパフォーマンスを低下させる可能性があります。AIを運用に使用する組織は、AIの開発から展開までのライフサイクル全体でセキュリティ対策を講じる必要があります。 

関連:英国の小売業へのサイバー攻撃が米国の保険料を引き上げる可能性

遵守すべき10のベストプラクティス

組織はデータの出所を追跡し、保存および輸送中のデータの整合性を確認および維持し、データを保護して安全に保存し、継続的なデータセキュリティリスク評価を実施することが求められています。このリストは、システム所有者が「オンプレミスまたはクラウドで実行されるAIベースのシステムを構築および運用するために使用されるデータをより適切に保護する」ためのものです。

  1. 信頼できるデータを調達し、データの出所を追跡する。 使用されるデータソースが、AIシステムのトレーニングと運用に信頼できる、正確なデータに依存していることを確認します。出所追跡を実施し、悪意を持って改ざんされたデータの出所を特定し、データが操作されていないことを確認するために、安全な出所データベースを組み込みます。

  2. 保存および輸送中のデータの整合性を確認および維持する。データの整合性は、データの信頼性を維持するための重要な要素です。

  3. デジタル署名を使用してデータの改訂を認証する。デジタル署名は改ざんを防ぎ、データの元のバージョンは暗号的に署名されるべきです。組織は量子耐性のあるデジタル署名標準を採用するべきです。

  4. 信頼できるインフラを活用する。 ゼロトラストアーキテクチャに基づいて信頼できるコンピューティング環境を作成し、機密操作を隔離し、データを安全なエンクレーブに保持します。信頼できる環境は、オンプレミスおよびクラウドでAIアプリケーションを保護するために不可欠です。

  5. データを分類し、アクセス制御を使用する。 機密性と必要な保護措置に基づいてデータを分類する分類システムを使用してデータを分類します。AIシステムの出力は、入力データと同じレベルで分類されるべきであり、別のガードレールセットを作成するのではありません。

  6. データを暗号化する。 これには、データの静止時、転送時、および処理中のセキュリティが含まれます。AES-256暗号化は事実上の業界標準であり、量子コンピューティングの脅威に対して耐性があると考えられています。転送中のデータには、AES-256を使用したTLSやポスト量子暗号化などのプロトコルを使用します。

  7. データを安全に保存する。 NIST FIPS 140-3準拠を強制する認定ストレージデバイスにデータを保存し、データを暗号化するために使用される暗号モジュールが高度な侵入試行に対して高レベルのセキュリティを提供することを確認します。

  8. プライバシーを保護する技術を検討する。 データマスキングなどのデータ非個人化技術は、機密データを他の情報に置き換えることで、機密情報を公開せずにデータを使用できるようにします。可能であれば、AIモデルのトレーニングと開発を促進するためにデータマスキングを使用します。差分プライバシーは、データセットまたはクエリのプライバシーレベルを定量化する数学的保証を提供するフレームワークです。フェデレーテッドラーニングなどの分散学習技術は、ローカルインスタンス間でのデータ共有を制限しながら、複数のローカルデータセットでAIシステムのトレーニングを許可します。

  9. データを安全に削除する。 暗号消去、ブロック消去、またはデータ上書きなどの安全な削除方法を使用して、システムの再利用または廃棄前にデータを消去します。

  10. 継続的なデータセキュリティリスク評価を実施する。 進化する脅威と脆弱性に対応するためにデータセキュリティ対策を継続的に改善し、セキュリティインシデントから学び、新しい技術に遅れずについていき、堅牢なセキュリティ体制を維持します。業界標準のフレームワークには、NIST SP 800-3r2、リスク管理フレームワーク(RMF)、およびNIST AI 100-1、人工知能RMFが含まれます。

関連:サイバーリスク計算機が評価の推測を排除

組織はガイダンスを実施できるか?

関連:サイバーリスク計算機が評価の推測を排除

AIはサプライチェーンに導入されると多くのリスクをもたらします。組織はAIモデルをトレーニングするために大量のデータを供給しますが、それはエラーの余地を残し、脆弱性を導入し、データ漏洩を引き起こす可能性があります。したがって、組織がリスクを理解し、第三者がデータをどのように利用するかを理解することが重要です。デジタル署名、データの整合性、およびデータの出所に関するベストプラクティスがあります。

NSAがデータセキュリティを強化するためのガイダンスを発表したことは心強いですが、これは信頼できるAIシステムを構築するための基盤です。実践を大規模に実施することは、組織にとって費用がかかり、リソースを大量に消費する可能性があると、DarktraceのセキュリティおよびAI戦略ディレクターであるマーガレット・カニンガム博士は述べています。

「より強力なインセンティブや説明責任がなければ、一部の組織は必要な投資を行うことをためらうかもしれません。業界が成熟するにつれて、インセンティブと期待を調整し、責任ある実践が単に推奨されるだけでなく、現実的に採用されることを確保することが重要です」とカニンガムは述べています。

一方で、BeyondTrustのチーフセキュリティアーキテクトであるキンナード・マクウェイドは、NSAとCISAのガイダンスのほとんどは、今日、適度な投資と集中で達成可能であると述べています。他の要素、たとえば量子安全な暗号化などは、より理想的であり、将来の予算サイクルで実現する可能性が高いと彼は付け加えます。

「ほとんどのCISOにとっての大きな盲点は、LLM特有のリスクです。特に、誰も気づく前にモデルをねじ曲げる可能性のあるデータ中毒です」とマクウェイドは言います。「トレーニングデータへの特権アクセスを制御し、人間と非人間のアイデンティティの両方に対して最小特権を強制し、異常な行動を継続的に監視することは、組織が今日取ることができる実用的で達成可能なステップです。」

翻訳元: https://www.darkreading.com/cyber-risk/nsa-cisa-gudnceai-secure-data-ai-models

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です