生成AIはフィッシングを高速かつ高度にパーソナライズされた脅威へと変貌させました。2025年、攻撃者はもはや稚拙な文法や汎用的なテンプレートに縛られることはありません。彼らは今や、音声ディープフェイク、完璧なメール、ライブななりすましを駆使し、警戒心の高いSOC(セキュリティオペレーションセンター)ですら容易に突破します。防御側にとって、この波がどのように展開し、それをどう阻止するかを理解することが今、極めて重要です。

トレンドの概要
生成AIは、スパムフィルターや人間の分析者ですら見抜くのが難しいほど洗練されたコンテンツを生み出します。Kasperskyのレポートによると、2025年第2四半期には1億4200万件以上のフィッシングリンクがクリックされており、これはGenAIが信頼できる送信者を模倣し、リアルタイムで説得力のあるメッセージを作成できる能力による増加とされています。
シャドウフィッシングも急増しています。Sift Digital Trust Indexによると、個人データの漏洩は186%増加し、フィッシング事件は2025年第1四半期に466%急増しました。これは、人間の手を介さずに文書を作成・送信する自動化キットによるものです。Q2 2025 Digital Trust Index。この変化は、生成AIを使う攻撃者がフィッシングキャンペーンの規模と信憑性の両方を劇的に高めていることを示しています。
キャンペーン分析
ディープフェイク恋愛詐欺 ― ハリウッドの声のクローンで43万ドルの損失
南カリフォルニアの女性が、俳優スティーブ・バートンのディープフェイクを使った恋愛詐欺で43万ドル以上をだまし取られました。詐欺師たちはFacebook MessengerからWhatsAppに移行し、極めてリアルな映像と音声のなりすましで信頼を築き、彼女に自宅を売却させるよう仕向けました。L.A. Woman Loses Life Savings After Scammers Use AI to Pose as “General Hospital” Star。この事例は、AIディープフェイクが感情的・理性的なフィルターをすり抜け、共感を大規模に悪用できることを示しています。
米国高官の音声ディープフェイクが世界的な警戒を引き起こす
2025年半ば、米国国務長官のAI生成音声なりすましが世界的な安全保障警報を引き起こしました。この偽の音声は高官への通信に使われ、国家レベルの欺瞞や地政学的操作への懸念を高めました。AI voice deepfake of US Secretary of State triggers global security alert。この事件は、生成AIがもはや金融詐欺にとどまらず、国家の信頼や外交にも脅威を及ぼしていることを示しています。
LLMによるスピアフィッシングは人間の攻撃者と同等の効果
2024年の学術研究では、大規模言語モデル(LLM)が生成したスピアフィッシングメールと、人間が作成したメール、対照群を比較しました。AI生成メールのクリック率は54%で、人間の攻撃者(54%)と同等、ベースライン(12%)を大きく上回りました。Evaluating Large Language Models’ Capability to Launch Fully Automated Spear Phishing Campaigns。これは、LLMによる自動化がソーシャルエンジニアリングの効果において人間の創造性に匹敵することを証明しています。
検知ベクトルとTTPs
生成AIによるフィッシング手法は、テキスト・音声・映像を横断して融合し、複数のベクトルを悪用します。LLMが作成したスピアフィッシングメールは、従来のキーワードや文体ベースの検知をほとんど回避します。セキュリティチームは、ユーザーの通常の通信から逸脱したメッセージを特定する行動異常検知や、引用ベースのスコアリング、やり取りパターンの異常検知へとシフトする必要があります。
音声ディープフェイクは、電話を使ったソーシャルエンジニアリングを悪用します。発信者の書類(バッジやスクリプトなど)は一致していても、声のトーンやタイミングが異なる場合があります。検知戦略には、音声バイオメトリクス、「チャレンジレスポンス」方式、特に高額や感情的な依頼に対する二次確認が必要です。
業界の対応と法執行
2025年7月、Kasperskyは第2四半期に1億4200万件以上のフィッシングリンククリックをGenAIの利用によって阻止したと発表しました。AI-powered phishing attacks are on the rise and getting smarter。この自動抑止の規模は、検知インフラも比例して拡大する必要があることを示しています。
一方、Pindropの報告によると、保険業界での合成音声攻撃は475%増加し、銀行詐欺コールも149%増加しました。いずれもディープフェイク音声生成が原動力です。Pindrop’s 2025 Voice Intelligence & Security Report。これらの知見は、新たなベンダー提携や、本人確認サービスへの音声ディープフェイク検知の初期統合を促しています。
CISOプレイブック
- 標準的な通信パターンから外れた異常なメールやコンテンツリクエストを検知する行動検知を導入する。
- 高リスクな操作にはMFA(多要素認証)を必須とし、リクエスト実行前に別チャネル(例:ビデオや帯域外確認)で検証する。
- コンタクトセンターでは音声バイオメトリクスシステムやランダムな音声応答チャレンジを統合し、ディープフェイク音声を検知する。
- 生成型フィッシングの兆候(不自然な文脈、過度に洗練されたトーン、発信者IDの不一致など)を認識できるようスタッフを訓練する。
終わりに
生成AIはフィッシングとソーシャルエンジニアリングを根本的に変えました。もはや防御側が改ざんされたコンテンツを検知できるかどうかではなく、信頼を損なう行動を検知できるかどうかが問われています。最も効果的な防御は、疑わしいコンテンツだけでなく、チャネルを横断して異常を監視するシステムとチームから生まれます。
常に多層的な検証で疑わしい通信を検知し、不正が疑われる場合は確立された法的手順に従って対応してください。
翻訳元: https://www.darknet.org.uk/2025/09/generative-ai-in-social-engineering-phishing-in-2025/