ゴーストブリーチ:AI媒介ナラティブが新たな脅威ベクトルになった仕組み

ある企業が、大規模なデータ侵害を受けたと主張するニュース記事を目にします。詳細は具体的で、技術的で説得力があります。しかし、侵害は起こりませんでした。システムは危険にさらされていません。データは取得されませんでした。言語モデルがストーリー全体を生成し、ゼロから妥当な詳細を埋めました。会社が何が起こっているのかを理解する前に、著名なメディアの記者がその記事を取り上げ、コメントをリクエストします。数時間以内に、会社は声明を起草し、架空のイベントに対処するために通信チームを動員しています。

2番目のインシデントは実際のことから始まります。数年前、ある企業は広くメディアで報道された本物の侵害を受けていました。インシデントは調査され、解決し、クローズされました。その後、元々それについて報道したメディアの1つがウェブサイトを再設計しました。古い記事は新しいURLと更新されたタイムスタンプを受け取り、検索エンジンはそれらを新しいコンテンツとして再インデックスしました。AI搭載のニュースアグリゲーターがシグナルを拾い、それを進行中のストーリーとしてフラグを立てました。会社は数年前に解決されたインシデントに関する問い合わせに対応していることに気づきました。

[編集者注:著者はインシデントの完全な詳細を保留しています。なぜなら完全な開示は害をもたらす可能性があるためですが、CyberScoopは著者とともにインシデントが実際に発生したことを確認しました]。

3番目のインシデントはさらに別の次元を導入します。サイバーセキュリティ出版物は、英国のある企業に約10億ポンドの損失をもたらしたビジネスメール妥協攻撃についてのストーリーを報道しました。記事はよく知られたセキュリティ研究者を引用していました。しかし実際には、彼は出版物と話していませんでした。AIが引用を生成し、完全な自信を持って彼に割り当て、出版物はそれらを事実として報道しました。

これら3つのケースは、ほとんどの組織がまだ準備できていない脅威を露呈しています。AIは、何もないところから説得力のあるセキュリティインシデントを捏造する能力を開発しました。技術的な詳細、名前が付いたソース、完全な危機対応をトリガーするのに十分な信頼性を備えています。この問題を遠い、または理論的なものとして扱う組織は、AI生成の虚構がいかに速く現実世界の緊急事態になるかを厳しい方法で学ぶリスクを冒しています。

もはや成立しない仮定

サイバー危機対応は常に単純な前提に基づいて構築されてきました。何か実際のことが起こり、その後あなたが対応するというものです。その前提は壊れています。AIシステムは、セキュリティチームが何かを確認する前に、クレームを生成、増幅、検証します。ナラティブがエコシステムに入ると、脅威インテリジェンスフィード、リスク評価プラットフォーム、自動化されたワークフローに取り込まれる可能性があります。虚構がシグナルになります。

セキュリティチームにとって、これは新しいクラスの偽陽性を作成します。誤設定されたツールからのノイズの多いアラートではなく、信頼できるように見える完全に形成された外部ナラティブです。幻想的な侵害は、内部調査、経営陣のエスカレーション、防御的なアクションをトリガーする可能性があります。時間とリソースは、起こったことのない何かを反論することに転用されます。

さらに悪いことに、実際の攻撃者の行動に影響を与える可能性があります。脅威行為者は、捏造された侵害ナラティブを前置きとして武器化することができます。「既知のインシデント」を参照するフィッシングメールはより信じられやすくなります。ITまたはインシデント対応チームになりすましはより効果的になります。ナラティブは攻撃サーフェスの一部になります。

セキュリティチームにとってこれが意味するもの

セキュリティチームは侵害の指標を監視することに慣れています。彼らは現在、ナラティブの指標を監視する必要があります。オープンソースインテリジェンスパイプラインはますます自動化されています。これらのパイプラインが虚偽の情報を取り込む場合、ダウンストリームシステムはそれに基づいて動作します。これにはSIEMエンリッチメント、サードパーティのリスク評価、さらには一部の環境での自動封じ込め決定が含まれます。

実際的な意味は、セキュリティチームが内部で何が起こっているかだけでなく、組織がどのように外部で表現されているかについての可視性が必要であるということです。これは従来の脅威インテリジェンスではありませんが、そのように振る舞います。早期検出は結果を変えます。

また、通信との統合をより厳密にする必要があります。虚偽のナラティブが出現すると、技術的現実と外部認識が異なります。両者を並行して管理する必要があります。

通信チームにとってこれが意味するもの

通信チームの場合、タイムラインは崩壊しています。「侵害」の最初のシグナルはSOCから来ないかもしれません。ジャーナリスト、顧客、または自動化されたアラートから来るかもしれません。

沈黙はもはや中立ではありません。ナラティブが存在する場合、AIシステムは利用可能な情報でギャップを埋めます。これは各反復で不正確さを強化することができます。応答は人間の聴衆だけでなく機械の消費用に設計される必要があります。明確で宣言的な言語。検証可能な事実。簡単に解析して再利用できる構造化ステートメント。目標は、情報供給チェーンで競争力のある存在を確立することです。

準備は極めて重要になります。迅速に配置できる事前承認言語。何かが発生する前に法務およびセキュリティとの確立された調整。

共有される意味

セキュリティチームと通信チームは、認識しているかどうかに関わらず、同じ環境で運営されています。幻想的な侵害は実際の運用上の混乱をトリガーする可能性があります。ベンダー関係は一時停止されるかもしれません。サードパーティシステムへの接続が切断されるかもしれません。規制当局が関心を持つかもしれません。市場が反応するかもしれません。これらのいずれも実際の妥協を必要としません。そしてこれはフィードバックループを作成します。外部ナラティブは内部アクションを駆動します。内部アクションが表示される場合、外部ナラティブを強化します。

そのループを壊すには、スピード、調整、明確さが必要です。

制御メカニズムとしてのAI監査

この新しい環境で最も効果的な制御の1つは、体系的なAI監査です。AIシステムがあなたの組織、あなたのセキュリティ体制、および任意の主張されたインシデントをどのように説明するかについて定期的にテストします。これにより、マシンが「信じる」ことの可視性が得られてから、その信念が広がります。組織は虚偽のナラティブを早期に特定して修正し、ツール、意思決定、および攻撃者の行動に伝播する前に修正できます。また、正確な情報が存在する必要がある場所を強調しています。ただオンラインのどこかにではなく、AIシステムが優先する情報源に。

考え方のシフト

これはインシデント対応からナラティブ対応へのシフトをマークします。セキュリティチームは、すべてのアラートを潜在的に捏造されたものとして扱う必要があります。通信チームは、実際に起こったこととは独立して形成されるナラティブに準備する必要があります。両者は、認識だけが実際の結果をトリガーできるという理解で動作する必要があります。この環境では、虚偽のナラティブを検出して対応する能力は、実際の侵害を検出して対応する能力と同じくらい重要です。

Mary Catherine Sullivanは、FTIのStrategic Communications部門内のDigital & Insightsのシニアディレクターです。彼女は、メッセージテスト、聴衆研究、デジタル通信分析、および評判リスク評価を専門とする通信およびデータサイエンスリーダーです。FTI Consultingのデータサイエンスチームの一部として、彼女は、メディアエコシステム、利害関係者の談話、および聴衆の反応を分析するための最先端の人工知能、自然言語処理、機械学習、および統計モデルを開発しています。複雑な評判環境を乗り切るクライアントの情報に基づいた防御可能な意思決定をサポートしています。

Brett Callowは、FTI Consultingのサイバーセキュリティおよびデータプライバシー通信のシニアアドバイザーです。20年以上のサイバーセキュリティポリシーおよび法律の理解と豊富なサイバーセキュリティ通信経験により、Brettの専門知識は業界内、政策立案者、およびメディアによって広く認識されています。彼は最も注目度の高いランサムウェアインシデントのいくつかに関与しており、全米情報長官室とアスペン研究所を含むパネルおよび政策関連の議論に参加しており、Royal United Services InstituteのRansomware Harmsプロジェクトの諮問委員会を務めています。

翻訳元: https://cyberscoop.com/ai-generated-breach-narratives-ghost-threat-vector-op-ed/

ソース: cyberscoop.com