AIが書いたソフトウェアが慎重なセキュリティチームに問題をもたらす

ダイブブリーフ

新しいレポートは、サイバーセキュリティ実務者がAIコーディングツールを信頼する前に確認する必要があることについて説明しています。

Image

ダイブブリーフ:

  • AIを使用してコードを書く企業は、セキュリティテスト企業ProjectDiscoveryが水曜日にリリースしたレポートによると、すべての組織が対応する準備ができていると感じるわけではない深刻なセキュリティリスクを生み出しています。レポートによると
  • ProjectDiscoveryが発見したところによると、セキュリティ要員はAIをプロセスに統合する前に、監査証跡とアクセス制限を望んでいます。「彼らはこの技術に反対しているわけではありませんが、それがその場所を得るためには獲得する必要があります。」
  • このレポートは、企業の世界におけるAI革命の最も争点の多い側面の1つを強調しています。つまり、AI支援コーダーとその作業を保護する責任のある人々の間の緊張です。

ダイブインサイト:

「大量のAI生成コードがセキュリティチームを襲い、その波は大多数の組織が吸収できるより速く構築されています」とProjectDiscoveryはそのレポートで述べました。「エンジニアリングチームは前例のないスピードで出荷しており、セキュリティチームはその上昇する波の前に立っています。」

レポートによると、サイバーセキュリティ実務者の38%だけが、AIのためにレビューする必要があるコードの量の増加に良く対応していると述べており、ほぼ60%がタスクがより難しくなっていると述べています。中規模企業のセキュリティ要員は、大手企業の同等の人々よりもこのプレッシャーをより感じました。これは、より大手企業がこの作業に充てるためのリソースの量を反映しているかもしれません。

このレポートは、北米および西ヨーロッパの中堅から大企業の200人のサイバーセキュリティ専門家に対する調査に基づいています。ProjectDiscoveryは、回答者のほぼ半分がセキュリティアーキテクチャで働いており、半分以上が「セキュリティ製品の選択または承認」に役割を果たしていると述べています。

防御者はコードを書くためにAIを使用することから生じるいくつかのリスクについて懸念しており、企業の秘密の露出(回答者の78%がこれを主な懸念として挙げている)、信頼できない依存関係からのサプライチェーンリスク(73%)、および「ビジネスロジックの脆弱性」などが含まれています。ハッカーが正当な機能を悪用する可能性があるアプリケーション設計の欠陥(72%)。

秘密の漏洩についての議論の中で、ProjectDiscoveryは2025年の全米サイバーセキュリティ同盟レポート を引用しました。従業員の43%がAIツールに機密の会社データを入力したことを認めたと報告しています。

ヨーロッパの回答者は、アメリカの同等の人々よりも秘密の漏洩を主な懸念として挙げる可能性が高かった(87対72%)。これは、欧州連合の一般データ保護規則(GDPR)の厳しいプライバシー要件を反映しているかもしれません。

翻訳元: https://www.cybersecuritydive.com/news/ai-coding-security-concerns-projectdiscovery/818319/

ソース: cybersecuritydive.com