Googleはそのゲミニ AIモデルをデプロイして、悪質な広告を大規模に検出・ブロックすることにより、サイバー犯罪者との戦いを強化しました。
Googleの2025年広告安全レポートによると、同社は83億件以上のポリシー違反広告をブロック・削除し、AI駆動型システムが有害なコンテンツの99%以上をユーザーに到達する前に停止しました。
脅威行為者は生成AIを使用して、マルウェアを拡散したり、認証情報を盗んだり、金融詐欺を促進したりする詐欺的な広告を大量生産するようになっています。
これらのキャンペーンは正当なサービスを模倣することが多く、従来のキーワードベースのフィルターでは検出しにくいものになっています。
疑わしいキーワードや画像をスキャンするのではなく、Geminiは広告の背後にある意図を評価し、攻撃者が防御をバイパスするのを大幅に困難にします。
GoogleのAI駆動型セキュリティシステムは、リアルタイムで数千億のシグナルを処理して悪質な動作を識別します。
このレイヤード アプローチにより、Googleは広告のライフサイクルの早い段階で脅威を検出でき、多くの場合キャンペーンが承認される前に検出します。
2025年レポートは、広告ベースのサイバー脅威の拡大する規模を強調しています:
Googleはまた広告主検証プログラムを強化し、脅威行為者が広告エコシステムに入るのを防ぐために身元検証を要求しました。
大規模な悪用を防ぐにはスピードが重要です。2025年後半までに、ほとんどのレスポンシブ検索広告は即座にレビューされ、悪質なコンテンツは提出時にブロックされます。
このリアルタイム実行は、ゼロデイ広告悪用キャンペーンがユーザーに到達するのを防ぐのに役立ちます。
Googleは2026年を通じてこの機能を追加の広告フォーマットに拡張する計画をしており、攻撃者の機会の窓をさらに狭めます。
Geminiはまた、Googleのインシデント対応能力を強化しました。ユーザー報告の分析を自動化することにより、セキュリティチームは前年比で4倍以上の報告に対応しました。
同時に、AI駆動型の精度が偽陽性を削減しました。不正な広告主停止が80%低下し、より強力なセキュリティ制御が正当なビジネス運用と共存できることを示しています。
全体的に、GoogleのGemini AI使用は広告セキュリティの大きな進化を示しており、大規模な自動化と文脈的インテリジェンスを組み合わせて、ますます高度化する脅威行為者に対抗しています。
翻訳元: https://cyberpress.org/google-uses-gemini-ai-to-stop-malicious-ads-blocks-8-3-billion-ads/