Rob Wright, シニアニュースディレクター, Dark Reading
2025年8月27日
読了時間:3分
出典:GK Images(Alamyストックフォト経由)
Anthropicは、サイバー犯罪者が同社のエージェンティックAIコーディングツールを悪用し、大規模なデータ窃取および恐喝キャンペーンを自動化したことを明らかにしました。これは、脅威アクターがAIを武器化する手法における「新たな進化」を示しています。
本日公開された8月の脅威インテリジェンスレポートで、AnthropicはClaude大規模言語モデル(LLM)がさまざまな悪意ある活動に悪用された複数の事例を明らかにしました。中でも特筆すべきは、最近阻止された「高度なサイバー犯罪オペレーション」GTG-2002がClaude Codeを悪用し、短期間で世界中の少なくとも17の組織に対してデータ恐喝攻撃を行ったという事例です。
Anthropicはこのキャンペーンの深刻さについて遠慮なく言及しています。同社は脅威インテリジェンスレポートを発表するブログ記事の中で、GTG-2002が「前例のないレベル」でAIを利用したと述べています。さらに、このキャンペーンはAI支援型サイバー犯罪の転換点であり、脅威アクターがAIツールを単なる補助ではなく、実際の攻撃の実行に利用し始めていると警告しています。単なる支援にとどまらず。
Claude Codeによる恐喝攻撃
脅威インテリジェンスレポートによると、GTG-2002はキャンペーンにおいてClaude Codeを広範囲に活用し、まず数千のVPNエンドポイントをスキャンして脆弱なターゲットを自動的に調査し、さまざまなAPIを用いたスキャンフレームワークの作成まで行いました。
「攻撃者は、自身の好む運用TTP(戦術・技術・手順)をCLAUDE.mdファイルに記載し、Claude Codeがユーザーの意図に沿った形でプロンプトに応答できるようガイドとして利用していました」とAnthropicはレポートで述べています。「しかし、これはあくまで好みのガイドであり、実際のオペレーションではClaude Codeを用いて戦術的・戦略的な意思決定も行っていました。ネットワークへの侵入方法、どのデータを持ち出すか、心理的にターゲットを狙った恐喝要求の作成方法などです。」
Anthropicによれば、GTG-2002のオペレーションはネットワーク侵入時のリアルタイム支援や、権限昇格や横方向移動のガイダンスなど、アクティブな侵入活動の直接的な運用支援にもClaude Codeを利用していました。さらに、このAIコーディングツールは自動的な認証情報の収集やデータ持ち出し、マルウェアや検知回避ツールの作成にも使われていました。
「Windows Defenderの検知を回避するためにChiselトンネリングツールの難読化バージョンを作成したほか、Chiselライブラリを全く使わない全く新しいTCPプロキシコードも開発しました」とレポートには記載されています。「初期の回避策が失敗した場合、Claude Codeは文字列暗号化、アンチデバッグコード、ファイル名偽装など新たな手法も提供しました。」
このアプローチにより、脅威アクターは個人記録、医療データ、財務情報、政府の認証情報、その他の機密情報を盗むことが可能となりました。
Anthropicによれば、同社のAIモデルは身代金要求にも協力しており、要求額が50万ドルを超えることもありました。
「Claudeは『キーボード上』の操作だけでなく、持ち出した財務データを分析して適切な身代金額を算出し、被害者のマシンに表示される視覚的に警告的なHTML身代金メモを生成し、これをブートプロセスに組み込んで表示させていました」とレポートには記載されています。
緩和策と対応
Anthropicによれば、GTG-2002の攻撃はデータの暗号化は行わず、データ窃取と恐喝のみが特徴でした。同社はこの活動に関連するアカウントを停止し、今後の悪用防止のため追加措置を講じました。
「本件を受けて、この種の活動に特化したカスタム分類器の開発を開始し、同様の行動が標準の安全対策パイプラインで検知されるよう新たな検出手法も導入しました」と同社は述べています。
脅威インテリジェンスレポートでは、他にも北朝鮮の工作員がClaudeを使って偽IT労働者詐欺を拡大した事例や、サイバー犯罪者がAI生成の新しいランサムウェアを構築した事例など、最近の悪用例が挙げられています。
しかし同社は、GTG-2002の活動が「バイブハッキング」への転換を示していると強調しています。これは、脅威アクターがLLMやエージェンティックAIを使って実際の攻撃を実行する段階に入ったことを意味します。「このオペレーションは、AIが技術コンサルタントとアクティブなオペレーターの両方として機能し、個人の手作業ではより困難かつ時間のかかる攻撃を可能にするという、AI支援型サイバー犯罪の憂慮すべき進化を示しています」とレポートは述べています。
Anthropicのレポートは、AI関連のもう一つの懸念すべき動向、すなわちAIモデルによって動作する初のランサムウェア亜種の発見にも続いています。ESETの研究者によると、「PromptLock」と名付けられたこのランサムウェアサンプルはVirusTotalで発見され、OpenAIのgpt-oss:20bモデルによってローカルで動作していたことが判明しました。