新しいガートナーの調査によると、過去12か月間にディープフェイク攻撃を経験した組織はほぼ3分の2(62%)に上ります。
これらのディープフェイク攻撃には、従業員とのビデオや音声通話中に誰かになりすますソーシャルエンジニアリングや、顔や声の生体認証などの自動認証を悪用するものが含まれます。
ガートナー・リサーチのシニアディレクター、アキフ・カーン氏はInfosecurityに対し、ディープフェイク技術の継続的な進化により、このような脅威は今後さらに増加すると語りました。
日常ツールへのディープフェイク検出機能の統合が必要
彼によると、現在この分野で最も広く使われている手法は、ディープフェイクとソーシャルエンジニアリングの組み合わせです。例えば、経営幹部になりすまして従業員に多額の資金を攻撃者の口座に振り込ませるといったものです。
「これはより厄介です。なぜなら、ソーシャルエンジニアリングは攻撃者にとって常に信頼できる手法だからです。そこにディープフェイクが加わると、従業員は本当に異常を見抜く最前線に立たされます。自動化された防御だけに頼ることはできません」とカーン氏は説明します。
この脅威から守るために、カーン氏は、ベンダーがMicrosoft TeamsやZoomなどのツールにディープフェイク検出機能を組み込むといった新しい技術的ソリューションの導入を組織に促しました。
「これは比較的新しいもので、大規模な本番環境での導入例はまだ多くありません。そのため、実際に運用された際にどれほど効果があるかは今後の検証が必要です」と彼は注意を促しました。
短期的には、カーン氏は一部の組織がディープフェイクに特化した効果的な意識向上トレーニングプログラムを実施していると述べました。これには、企業幹部のディープフェイクを作成し、従業員向けのシミュレーションに使用することも含まれます。
もう一つの側面は、支払い承認などの業務プロセスの見直しです。カーン氏は、こうした攻撃を検知するためにアプリケーションレベルでの認証を導入することを推奨しています。
「つまり、CFOが電話で送金を依頼し、支払いが財務アプリケーションで設定されても、CFO自身がそのアプリケーションにログインし、理想的にはフィッシング耐性のある多要素認証(MFA)を使って、その取引を実際に承認する必要がある、ということです」とカーン氏は述べています。
AIアプリケーションへの攻撃の増加
ガートナー セキュリティ&リスクマネジメントサミット2025で発表されたレポートによると、過去12か月間にAIアプリケーションのプロンプトを悪用した攻撃を経験した組織は32%に上ることも明らかになりました。
これらの攻撃には、プロンプトインジェクション(攻撃者が大規模言語モデル(LLM)に偏ったり悪意のある出力を生成させるもの)が含まれます。

カーン氏はInfosecurityに対し、これらの結果はガートナーがクライアントとAIアプリケーションへの攻撃について行った会話と一致していると語りました。
「約3分の2は攻撃を経験していないと答えています。これは、この脅威が存在するものの、組織が直面する最大の脅威ではないという健全な現実チェックです。しかし、約5%の回答者が重大なインシデントを経験したと答えているため、真剣に受け止める必要があります」と彼はコメントしました。
カーン氏は、AIアプリケーションを守るために、シャドーAIや、企業が承認・開発したツールへのアクセス管理など、いくつかの分野にセキュリティリーダーが注力することを推奨しています。
ガートナーはこのレポートのために、北米、EMEA、アジア太平洋地域の302人のサイバーセキュリティリーダーを調査しました。
翻訳元: https://www.infosecurity-magazine.com/news/deepfake-attacks-hit-twothirds-of/