生成AI(GenAI)は、巧妙なサイバー脅威からデータやインフラを守るとされています――理論上は。しかし、現実はどうなのでしょうか?

SomYuZu – shutterstock.com
GenAIの活用により、CISOには新たなチャンスが生まれています。従来の防御手法が限界に近づく中、サイバー犯罪者もすでにその可能性に気づき、攻撃の強化に利用しています。これにより、デジタル世界ではすでにダイナミックなAI軍拡競争が始まっています。
ハッカーは、OnionGPT、WormGPT、GhostGPT、FraudGPT、HackerGPTなど、人気AIプラットフォームの亜種を使って、悪意ある特別な適応型ツールを開発しています。これらのハッカー用LLM(大規模言語モデル)は、倫理に基づくセキュリティ対策を回避し、ターゲットの言語を話せなくても説得力のあるフィッシングメールを生成します。また、マルウェアの作成や、巧妙なソーシャルエンジニアリングスクリプトの開発にも利用されています。
AIを活用したソーシャルエンジニアリングは、ディープフェイク技術も含め、攻撃者が本物のようなテキストを作成したり、自動チャットを行ったり、リアルタイムの音声・ビデオ会議で他人になりすますことを可能にします。
データの汚染
新たな脅威として、LLMデータポイズニングがあります。これは、ハッカーがトレーニングデータセットやリアルタイム情報を改ざんし、バックドアや不正なコードを仕込む手法です。一度このように汚染されると、AIモデルは有害なコンテンツを再現するようになり、セキュリティに重大な影響を及ぼします。
モスクワを拠点とする偽情報ネットワーク「Pravda」は、この攻撃手法の一例です。数百万の記事を生成し、AIチャットボットの回答に影響を与えようとしています。この巧妙な攻撃により、主要な西側AIシステムが感染し、約33%のケースで誤った情報を返すようになりました。
AIによるサイバー防御シールド
CISOがこれらの巧妙なAI主導の攻撃を防ぐには、AI自体が最も価値ある防御手段となります。AIシステムはコンテンツを分析し、行動パターンや異常、言語的な兆候を素早く検出し、継続的な学習と新たな脅威への適応を可能にします。
AIによる脅威防御の有効性は、サイバーセキュリティのあり方を大きく変えつつあります。最新の評価では、AI主導のセキュリティソリューションと従来型のソリューションの間に顕著な性能差があることが示されています。先進的なAIプラットフォームは高い防御率を達成しています:
- マルウェア検知率:99%
- フィッシング試行の検知率:99%
- 侵入試行の検知率:98%
これらの数字は、従来手法を用いた製品と大きく異なります。従来型の製品の中には、マルウェアのブロック率が67%、フィッシングが56%、侵入試行が43%にとどまるものもあります。
AIによるセキュリティ・コーパイロット
脅威の検知だけでなく、AIはサイバーセキュリティの業務を大幅に効率化します。管理者は、複雑化するセキュリティポリシー、絶え間ないCVE警告、そしてオンプレミス、クラウド、リモート、モバイルなど多様なIT環境での一貫したセキュリティ確保という課題に直面しています。
AI主導のコーパイロットは、ポリシーの作成・管理・修正をより効率的に行うことを可能にします。これらのインテリジェントなアシスタントは、新たな脆弱性を迅速に特定し、ネットワーク、クラウド、エンドポイント、ブラウザ、モバイルデバイス、メールセキュリティに対して的確な対策を提案できます。
最新の評価によれば、こうしたコーパイロットは明確で実行可能な対策指針を提供し、高いパフォーマンスを示しています。この能力により、管理者の作業時間が短縮され、システムの使いやすさも向上します。CISOが技術部門と経営層の橋渡し役を担いやすくなり、GenAIへの投資のメリットを説得力をもって説明できるようになります。
自動化されたセキュリティ分析
実際の運用において、AIはセキュリティポリシーの分析・自動化・実装で優れた力を発揮します。高性能なソリューションは、分析から実装までのプロセスを完全に自動化します。これにより、正しいルール配置の特定に時間を要したり、ポリシーの直接変更機能が不足している従来型ツールとの差別化が図られます。
脆弱性の評価と修正において、先進的なAIは防御状況を正確に確認し、推奨事項を提示する完全かつ関連性の高い回答を提供します。
シャドーAIという課題
企業ネットワークへのAIサービスの広範な導入は、チャンスとリスクの両方をもたらします。CISOにとっては、関係者全員に状況を明確に示すための信頼できる数値が重要です。AI導入は生産性向上をもたらす一方で、重大なセキュリティ上の課題も生じます。分析によれば、企業デバイスから生成AIサービスに送信される80件のリクエストのうち1件(1.25%)が機密データ漏洩の高リスクを伴い、さらに7.5%が潜在的に機密性の高い情報を含んでいます。
さらに、CISOにとって古くて新しい課題が「シャドーAI」です。これは、従業員が無許可で利用するAIツールを指し、セキュリティホールやコンプライアンス問題、不統一なデータ管理につながります。この現象は、過去の技術革新で見られたシャドーITの課題と同様に、進歩が組織のガバナンスを上回り、新たな攻撃ベクトルを生み出しています。
倫理的配慮と社会への影響
サイバーセキュリティへのAIの急速な統合は、倫理的・社会的な懸念も引き起こします。主な懸念点は以下の通りです:
- バイアスと公平性:バイアスのあるデータで訓練されたAIアルゴリズムは、差別的な結果を生む可能性があります。例えば、正当な活動を誤って悪意あるものと判定するなど、公平性や差別の問題を引き起こします。
- 透明性と説明責任:多くのAIアルゴリズム、特にディープラーニングモデルはブラックボックスとして動作し、内部ロジックが不透明でAIツールへの信頼を損ないます。
- プライバシー対セキュリティ:AIのデータ処理能力は、過度な監視やプライバシー侵害の懸念を生み、システム保護と個人のプライバシー権のバランスが求められます。
- 説明責任と意思決定:AIシステムが自律的に意思決定を行う場合の責任の所在は複雑で、サイバーセキュリティ専門家、開発者、企業に影響します。
- 雇用の喪失:AIによる脅威検知の自動化は、サイバーセキュリティ分野での雇用喪失を招く可能性があり、再教育やスキル転換が必要です。
責任あるCISOは、AIの開発・導入が倫理的ジレンマにも対応するよう常に注意を払っています。戦略としては、明確な倫理的枠組みの策定、多様なステークホルダーの関与、多様なトレーニングデータの活用、人間による監督、透明性のある意思決定などが挙げられます。
サイバーセキュリティにおける規制の現状
サイバーセキュリティ分野のAIに関するグローバルな規制環境は断片的かつ急速に変化しており、安全かつ倫理的な利用を保証するためのガバナンス枠組みが求められています。リスクベースのフレームワークは、AI規制の重要なトレンドであり、AIシステムをその潜在的影響に基づいて分類し、常に比例した規制措置を講じることが求められます。
例として、2025年に完全施行予定の欧州連合のAI法は、リスクベースの規制モデルです。違反した場合は多額の罰金が科される可能性があります。
研究開発の進展
AIはサイバーセキュリティ研究を大きく前進させ、検知メカニズムの向上や複雑なシステムへのアクセス性向上をもたらします。これにより、大規模なパターン認識、戦術・技術・手順(TTP)の効率的な抽出、高度な相関・特定機能を通じて、高度で持続的な脅威(APT)の検出が強化されます。
AIは人間の能力を補完する
人工知能は、現代のサイバーセキュリティの基盤となりつつあります。理論的な概念から実用的なツールへと進化し、AIはデジタル全体で防御・検知・運用効率を向上させます。LLMは大量のデータを分析し、実用的な知見へと変換することを可能にします――データが構造化され、文脈が明確であれば、人間のセキュリティ専門家との共生関係が生まれます。AIは人間の能力を補完し、専門家が戦略的思考に集中できる余地を生み出し、AIは膨大なデータに潜む日常的な脅威に効率的に対応します。
ただしCISOは、表面的な主張にとどまらず、実際のセキュリティ運用におけるAIの能力を評価しなければなりません。それによってのみ、各ソリューションの実力をしっかりと見極めることができます。
各ベンダーによるAIの適合性や機能性の違いは、複雑なセキュリティ環境で実際に価値を発揮する、インテリジェントかつシームレスに統合されたソリューションを慎重に選ぶことの重要性を強調しています。単にサイバー防御におけるGenAIブームに乗るためだけに、安易にAIソリューションを選ぶべきではありません。
CISOが、AI主導のサイバーセキュリティへの堅実かつ計画的な投資の利点を関係者全員に納得させることができれば、AIは「デジタルなやりとりがより安全で、強靭で、信頼できる未来」を実現するという約束を果たせるでしょう。(jm/jd)
ニュースレターを購読する
編集部から直接あなたの受信箱へ
下にメールアドレスを入力して始めましょう。
翻訳元: https://www.csoonline.com/article/4027333/genai-als-security-gamechanger.html