Googleのセキュリティチームは、Gemini AIモデルを使用して24時間体制で有害な広告を検出・停止していると、Googleは主張しています。
「悪意のある行為者は生成AIを使って大規模に詐欺的な広告を作成しており、Geminiはリアルタイムでそれらを検出・ブロックするのに役立っています」とGoogle広告プライバシー・安全担当VP兼GMKeerat Sharma氏が述べています。
「当社のモデルは、アカウント年齢、行動の手がかり、キャンペーンパターンを含む数千億のシグナルを分析し、脅威が人々に到達する前に阻止します」とSharmaは付け加えています。
マルバタイジングはGoogle広告ネットワーク全体で継続的な問題であり、攻撃者は有料広告を悪用して正規のブランドになりすまし、ユーザーをマルウェアダウンロードまたはフィッシングサイトに誘導しています。
Googleは数百万のウェブサイト上で数十億の広告を配信しています。自動チェックがあっても、単に量の問題で一部の悪質な広告が通り抜けます。
「2025年には、80億件を超える広告をブロック・削除し、2,490万のアカウントを停止しました。これには詐欺に関連する602百万件の広告と400万のアカウントが含まれます」と同社は2025年広告安全報告書で述べています。

(出典:Google)
地域別データでは、同社は米国で17億件の広告を削除し330万の広告主アカウントを停止、英国で6億7,570万件の広告と593,000のアカウント、EUで16億件の広告と200万のアカウントを削除したと報告しています。
Googleによると、最新のAIモデルは意図に焦点を当てることで、従来のキーワードベースのシステムを超えています。これにより同社は、自動チェックをバイパスするように設計された広告を含む、より複雑で難しい脅威を検出できます。
同社は、Geminiがユーザーフィードバックの処理方法を改善し、2025年に前年比4倍以上のレポートに対してチームが対応できるようになったと述べています。
この迅速な対応は、脅威が通り抜けた場合にそれをより早く停止し、セキュリティチームが人間の判断が必要なケースにより多くの時間を費やすことを可能にします。
翻訳元: https://www.helpnetsecurity.com/2026/04/17/google-gemini-harmful-ads-blocking/