
セキュリティと人工知能は長年にわたって好ましい組み合わせです。今、生成AIはセキュリティをより多くの人々にアクセス可能にしました。
AIが1960年代から存在する広い分野であることについてはすでにカバーしており、またあなたのAIワークロードを保護するためのヒントも提供しました。
この記事では、AIがクラウドワークロードをセキュアにするためにどのように既に使用されているかについての複数の例を提示し、コインの反対側について議論します。また、サイバー犯罪者がAIをどのように使用しているかについても簡潔にカバーします。
セキュリティのためのAIの強み
AIは本質的に統計と確率に基づくコンピューティングです。
そのため、入力が明確に定義されていないファジー論理とパターン認識に優れており、わずかなバリエーションでも従来のコンピューティングを狂わせる可能性があります。このバリエーションへの耐性により、AIは以前に見たことのないシナリオに適応することができます。また、パターン認識により、AIは複数のソースからのデータを相関させるのに優れています。
セキュリティに適用すると、AIは異常な動作にフラグを立てるタスク、影響を受けたワークロードのタグを読み、その環境が本番環境か開発環境かを意味的に識別して、そのセキュリティイベントがどの程度重大であるかを判断するのに役立ちます。
AIとセキュリティは長い歴史を持っています
AIはセキュリティのための実証済みの技術です。
コンピュータビジョンはセキュリティカメラで侵入者とペットを区別するために使用されます。また、携帯電話の指紋センサーと顔認識にも使用されています。
スパムフィルターは常に統計に基づいていました。最初はベイズ確率を使用していました。現在はニューラルネットワークと機械学習を使用しています。同様に、銀行は現在、機械学習を使用して不正な活動にフラグを立てています。
同じ技術がランタイムプロファイリングに使用され、コンテナで実行すべき予期されたプロセスを識別し、予期しないものにフラグを立てます。
免責事項:これらの技術の一部は最初は人工知能と見なされていましたが、時間とともに、私たち(人間)はAIと見なされるべきことの基準を上げ続けています。
生成AIはセキュリティをより多くの人々にアクセス可能にしています
これまで、インフラストラクチャを保護するにはセキュリティエキスパートである必要がありました。
インフラストラクチャの攻撃面を削減したいセキュリティエンジニアの役割を見てみましょう。
セキュリティツールは最も重大な脆弱性の優先順位を付けるのに優れています。彼らは以下を知っています:
- 脆弱性の深刻度。
- 影響を受けたリソースが使用されているかどうか。
- 修正が利用可能かどうか。
ただし、脆弱性の実際の影響を理解し、インターネットを操作して修復ステップを見つけ、修正を実装するには、深い技術的専門知識が必要です。
セキュリティを実装するためのソフトウェアエンジニアとしてのLLMの使用
LLMはこのプロセスをより多くの人々にアクセス可能にしました。
現在、影響を受けたリソースを担当するソフトウェアエンジニアはこのすべてを処理でき、セキュリティエンジニアがより技術的な領域に焦点を当てる時間を解放します。
ソフトウェアエンジニアは脆弱性のリストにアクセスし、最も重大なものについてAIに情報を尋ねるでしょう:
- セキュリティエンジニア: CVE-2025-22871の影響を受けているワークロードはどれですか?
- AI: リスク露出に関するコンテキスト付きのワークロードの概要を提供します。また、完全なリストへのリンクと、UIで同じデータを取得するためのクエリも含まれています。
- SE: coresワークロードについて教えてください。
- AI: ワークロードが実行されている場所と同様のワークロードに関するコンテキストを提供します。
- SE: このクエリを説明できますか?
- AI: クエリのステップバイステップの説明を提供します。
- SE: このCVEを修正すべきですか?
- AI: 悪用可能性、露出時間、修正の入手可能性に基づくリスク評価の後、はいと答えます。また、いくつかの修復ステップも提供します。
説明を求め、インフラストラクチャについて利用可能な情報を考慮に入れた個人化された応答を取得できることはゲームチェンジャーです。考えてみてください。代替案はインターネットを検索し、どの情報があなたの特定のユースケースに適用されるかを分類するために時間を費やすことです。
イベント調査中のコンテキスト取得のためのMCPの使用
A MCPサーバはLLMが理解できる形式でプラットフォームに関するコンテキストを提供します。その後、LLMがプラットフォームと相互作用できるようにアクションを利用可能にします。
最近、セキュリティエンジニアがGitHub MCPを使用してセキュリティアラートのソースを調査する方法を示しました。会話は以下のようになります:
- セキュリティエンジニア: 最新の5つの高度なセキュリティイベントは何ですか?
- AI: タイムスタンプ付きのセキュリティイベントのリストを返します。最初の1つは「重大なシステムパスへの権限のない書き込み操作」と読みます。
- セキュリティエンジニア: 最初のイベントに焦点を当ててください。そのコードのリポジトリは「sysdig-articles」です。コード内のどこで起こっていますか?
- AI: 問題を引き起こしているファイルと行を正確に特定します。また、コードが何をするかについての簡潔な説明も提供します:/etc/hostsファイルが編集されています。
- セキュリティエンジニア: これはセキュリティリスクですか?
- AI: ほぼ正確な説明を伴う肯定的な応答を提供します。
- セキュリティエンジニア: このコードをKubernetesクラスタで実行しています。この機能のネイティブな代替案はありますか?
- AI: 複数の選択肢と「hostAliases」の使用方法に関する詳細な説明を提供します。
- セキュリティエンジニア: GitHubでこのセキュリティ問題を修正できるようにイシューを作成してください。コードの著者に割り当ててください。含める内容:セキュリティ問題に関するすべての情報、問題を引き起こしているソースコードへのリンク、Kubernetesの解決策を提案します。
- AI: 要求されたとおりにイシューを作成し、そのURLを返します。
繰り返しますが、AIエージェントがセキュリティエンジニアが問題を特定し、開発チーム向けの詳細なイシューを作成するのを支援する方法は、ゲームチェンジャーです。LLMがなければ、セキュリティエンジニアは問題を理解するために一時停止することすら検討しないでしょう。これは、2つのチーム間に余分な摩擦を引き起こす可能性があります。
悪質な行為者も生成AIから利益を得ています
セキュリティエンジニアとソフトウェアエンジニアの両方にセキュリティをより多くの人々にアクセス可能にしているAIの方法を見てきました。
残念ながら、同じことがサイバー犯罪者にも当てはまります。
ソーシャルエンジニアリングの側面では、ディープフェイクの使用が増加しています。これらは指令に詐称するために使用され、また求職者が自分の本当の姿を隠すためにも使用されています。
攻撃者がAIを使用してマルウェアを書いたり、攻撃中にそれらを支援したりしているという多くの証拠はありません。結局のところ、彼らは彼らの方法を明かさないことを好みます。ただし、エンジニアが自分のタスクを自動化するために使用する同じツールは、サイバー犯罪者にも利用可能です。彼らがこれらのツールを活用していないと考えるのは素朴です。
これまでの攻撃は主にジェネリックで無差別でした。攻撃者がターゲットにした特定の脆弱性がない限り、ほぼ安全です。ただし、マルウェアが特定のインフラストラクチャに適応する、より個人化されたアプローチが見始まる可能性があります。現在のAI技術はまだ限定的ですが、信じられないペースで進化し続けています。
ランタイム保護は以前よりも重要です
予期しないことを期待します。
AIがサイバー犯罪者が新しいゼロデイ脆弱性を発見するのを支援する場合、マルウェア署名に依存することができたのはずっと前です。
また、AIは完璧ではありません。AIに大きく依存すると、意図しないセキュリティギャップが残る可能性があります。
ランタイム検出を強化する必要があります。防御の最後の砦がこれほど重要になったことはありません。
ノイズ、意図しない結果
コーディングとセキュリティをすべての人にアクセス可能にすることの結果は、より多くの人々がバグ報奨金プログラムに参加していることです。
これらのプログラムは通常、ソフトウェアの脆弱性を見つけて報告するセキュリティ研究者に報酬を与えます。ただし、それらは貪欲なレポーターによってハイジャックされたようです。彼らは無意味なものを送信し、開発者が実際の問題を調査するために使用できる時間を奪っています。
事態は手に負えなくなり、curl は報告に報酬を与えるのをやめ、提出プロセスを調整しました。
セキュリティのためにAIを使用する場合の主な課題
現在のAI技術にはいくつかの制限があることを忘れないでください。あなたはそれを代替品ではなく補完と考えるべきです。
AIはガードレールが必要です
AIが多くのタスクで成功する方法は印象的です。ただし、この成功率は場合によっては十分ではありません。
テキストを要約するときに1%失敗することは許容可能です。車の運転中にそれほど多く失敗することは悲劇です。
同様に、悪質な活動の1つのインスタンスでもフラグを立てられないことは、インフラストラクチャ全体を危険にさらす可能性があります。前に述べたように、ランタイム保護は、あらゆるギャップをカバーするためにますます重要です。
AIはノイズを生成しすぎる可能性があります
エラー率について。これは実際には、あなたがしばしば調整できるメトリックです。ただし、精度とノイズのバランス行為です。疑わしいものに対してアラートを発するようにAIを設定すると、すべての重要なセキュリティイベントが表示されますが、誤検知の山の下で溺れるリスクもあります。ただし、確実な場合にのみ報告するようにAIに指示する場合、物事が明確でないセキュリティイベントの一部を逃します。
AIエラーは見つけにくい
従来のコンピューティングが明確なエラーで失敗する一方、Gen AIはエラーメッセージで正直に答えるよりも応答を与えることを優先します。エージェントはこれらの間違った答えを完全な信頼を持って提供します。懐疑的なままでいて、彼らの仕事をダブルチェックしてください。
AIは監査できません
AIモデルはブラックボックス、数値マトリックスの大規模なコレクションであるため、実際には中に入って彼らがどのように機能するかを見ることはできません。
物事を機能させるために、それらは非決定論的であり、それらの動作をデバッグするのは困難です。
その結果、セキュリティ上の欠陥がある場合、またはモデルが毒殺された場合、手遅れになるまで検出されません。
要するに
AIとセキュリティは数十年にわたって勝利の組み合わせです。
現在、生成AIはセキュリティの世界をより多くの人々にアクセス可能にしています。
新興技術と同様に、AIは特効薬ではありませんが、その強みを活用し、その制限を軽減すれば、あなたは成功します。
翻訳元: https://webflow.sysdig.com/blog/ai-is-the-present-of-security
