Image

AIツール、技術、能力への投資競争が続く中、サイバーセキュリティのリーダーは、AIを組み込んだソフトウェアが安全かどうかだけでなく、AIデータセンター自体が安全かどうかも厳しく精査することが極めて重要です。

AIデータセンター開発への投資は急速に増加しています。2025年6月、アマゾンはペンシルベニア州だけで200億ドルの投資をAIデータセンターキャンパスに行うと発表し、2025年7月にはメタが最初のマルチギガワットデータセンターPrometheusが2026年に稼働開始予定であると発表しました。米国のAIデータセンターへの政治的支援も、トランプ大統領の新たなAIアクションプランにより、企業や運営者に対する規制の障壁を取り除いており、米国内外でのAI技術スタックやデータセンター開発を後押ししています。

ほぼすべての関係者が認識している課題のひとつは、エネルギー需要の増加です。今後5年間で約612テラワット時の電力が必要となり、地球温暖化の悪化、すなわち世界の二酸化炭素排出量が3~4%増加することが懸念されています。

しかし、あまり知られていない課題として、AIデータセンターが直面するサイバー脅威の拡大があり、これにより運営者や企業ユーザーに対して評判、財務、規制面でのリスクが高まっています。

従来のデータセンターと同様に、AIデータセンターもハードウェア、ネットワーク、ストレージ、データ、ソフトウェアの各コンポーネントを含み、DDoS攻撃ランサムウェアサプライチェーン攻撃ソーシャルエンジニアリング攻撃など、一般的なサイバー攻撃の標的となります。データセンターはまた、サイドチャネル攻撃に対して脆弱であることでも悪名高いです。サイドチャネル攻撃とは、システムのプロセスや実行に関する情報を収集したり、影響を与えたりするサイバー攻撃であり、ファンからCPUまでのデータセンターハードウェアがCPUレベルの活動やデータアーキテクチャ、利用状況などの機密情報を漏らす可能性があります。例えば、2025年7月にはAMDがサイドチャネル攻撃を許す4つの新たなプロセッサ脆弱性を発見しました。

AIデータセンターが直面するリスク

しかし、従来型と比べて、AIデータセンターはハードウェア、データ、目的の違いにより、さらに広範な脅威に直面しています。

大規模データセンターはCPUとGPUを使用しますが、AIデータセンターは常にGPUを使用します。これはAIワークロードがより多くの計算能力を必要とし、GPUが並列処理を可能にするためです。アプリケーション固有集積回路(ASIC)やフィールドプログラマブルゲートアレイ(FPGA)も、AIワークロードを効率的に計算・処理するためにカスタマイズ可能な強力なハードウェアです。GoogleはAIやディープラーニング専用のASICであるテンソルプロセッシングユニット(TPU)を開発しました。これらの強力なリソースもCPU同様にサイドチャネル攻撃に脆弱です。2025年1月には、TPUXtractという、TPU特有のサイドチャネル攻撃が発見され、データ漏洩を悪用し、攻撃者がAIモデルのパラメータを推測できることが明らかになりました。

一般的なサイバー攻撃やサイドチャネル攻撃に加えて、GPUはメモリレベルの攻撃に対してより脆弱です。GPUは常に十分なメモリ分離がなされているわけではなく、メモリが誤ってプロセス間で引き継がれることで、攻撃者がAIモデルの重みや学習データにアクセスできる可能性があります。また、GPUのメモリ上で悪意のあるコードを実行し、従来のCPUセキュリティツールを回避するGPU特有のマルウェアも存在します。

データ面では、AIデータセンターがAIモデル、重み、学習データを保有しているため、モデルの流出、機密データの損失、モデルレベルの脅威のリスクに直面します。AIモデル情報の漏洩は、モデルの完全性や機密性を危険にさらします。モデルレベルの脅威には、データポイズニング攻撃やモデルポイズニング攻撃(モデルの破損)、モデルインバージョン攻撃やモデル盗用攻撃(モデルや学習データの情報漏洩)などが含まれます。破損したモデルは、クライアントの業務に影響を及ぼす偏った、または誤った出力をもたらす可能性があります。

最後に、AIが国家安全保障や経済競争力にとって重要であることから、AI能力の構築とソブリンAI(自国でAIモデルや基盤インフラを開発・利用・管理する能力)の確保をめぐる世界的な競争が始まっています。この競争により、AIデータセンターは高度な外国勢力によるサイバー活動の標的となっています。

AIデータセンターは稼働前から、サプライチェーン攻撃や破壊工作のリスクにさらされています。多くのコンポーネントが中国企業によって独占的に開発されているためです。稼働後は、国家支援の脅威アクターがAIデータセンターに侵入し、モデルを盗むための高度な能力を持っています。特に多くの商用データセンター運営者は、こうした攻撃に対抗する備えが十分ではありません。さらに、これらのAIデータセンターの多くは世界中で建設されており、例えば米国とアラブ首長国連邦の共同プロジェクトでは、米国外で最大のAIデータセンターが建設されています。懸念されるのは、ペルシャ湾地域が中国のデジタルシルクロード2.0の一部であり、中国の5G技術や都市規模の監視プログラムが、同地域に建設されたAIデータセンターへの中国政府のアクセスを可能にする恐れがあることです。

サイバーセキュリティリーダーが考慮すべきこと

これらの拡大する脅威を踏まえ、サイバーセキュリティリーダーや意思決定者は、AIデータセンター運営者が、ハードウェア、データ、地政学的リスクを含むすべてのセキュリティ層にわたってAIデータセンターを保護するための技術的対策を義務付ける企業ポリシーを実施しているかどうかを厳しく精査する必要があります。こうしたポリシーの例としては、AIデータセンターに導入されるハードウェアを厳密に検査してサプライチェーンのセキュリティリスクを低減すること、計算リソースにファラデーケージやシールドチャンバーを設置してサイドチャネル攻撃を緩和すること、継続的なAI監査やモニタリングを実施してモデルのバックドアや脆弱性を特定し、AIの自己流出に対抗すること、外国の脅威アクターがAIデータセンターに侵入しないよう採用プロセスに投資することなどがあります。

また、AIツールを導入する前に、サイバーセキュリティリーダーはAIワークロードをホストするデータセンターの所在地を把握し、AIデータセンターのサプライチェーンをマッピングする必要があります。この情報を活用して、地理的な位置やサプライチェーンが、国家支援による活動や監視によってセキュリティリスクを高めていないかを評価すべきです。

特に、トランプ大統領の新たなAIアクションプランの発表によりAIデータセンターのセキュリティに対する政府の監督が不十分な状況では、企業のサイバーセキュリティリーダーがAIデータセンターの企業および技術ポリシーを見直し評価する責任が一層重要になります。


ニュースレターに登録する

編集部からあなたの受信箱へ

下記にメールアドレスを入力して開始してください。

Image

著者 Seungmin (Helen) Lee

寄稿ライター

Seungmin (Helen) Leeは、Next Peak社のインテリジェントサイバーリサーチ部門ディレクターおよびサイバーリスク上級エンゲージメントマネージャーです。同社の地政学的サイバーリスクポートフォリオを監督し、提案からステークホルダー管理までサイバーリスクコンサルティング業務を担当しています。また、New Americaの2025年#ShareTheMicInCyberフェローとして、サイバーセキュアなAIデータセンターの研究を行っています。コロンビア大学で国際安全保障とサイバーセキュリティ政策を専攻し、MIAと政治学の学士号を取得しています。

さらに表示

翻訳元: https://www.csoonline.com/article/4051849/the-importance-of-reviewing-ai-data-centers-policies.html

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です