コンテンツにスキップするには Enter キーを押してください

NIST、AIシステムのセキュリティ制御オーバーレイに関する意見募集

連邦機関は、さまざまなAIユースケースに関するガイダンスを組織に提供する計画です。

An artist's rendering of 3D shapes with AI, signifying a creative display of technology.

BlackJack3D(Getty Images経由)

米国国立標準技術研究所(NIST)は、企業がさまざまな種類の人工知能システムを安全に導入する方法に関するガイダンスを策定する計画について、一般からの意見を募集しています。 

NISTは木曜日、同機関で広く使用されているSP 800-53フレームワークに基づき、AIシステムのセキュリティ制御オーバーレイを作成するためのコンセプトペーパーを公開しました。これらのオーバーレイは、企業がさまざまなテストケースにおいて、技術および使用データの完全性と機密性を維持しつつAIを導入できるよう支援することを目的としています。

同機関はまた、コミュニティからのフィードバックを収集するためのSlackチャンネルも開設しました。

「人工知能(AI)技術の進歩と新たなユースケースは、新たな機会と同時に新たなサイバーセキュリティリスクももたらします」とNISTのペーパーは述べています。「現代のAIシステムは主にソフトウェアですが、従来のソフトウェアとは異なるセキュリティ上の課題をもたらします。」

このプロジェクトは現在、以下の5つのユースケースに基づいています:

  • 生成AIの適応と利用 ― アシスタント/大規模言語モデル
  • 予測AIの利用とファインチューニング
  • AIエージェントシステムの利用 ― 単一エージェント
  • AIエージェントシステムの利用 ― 複数エージェント
  • AI開発者向けのセキュリティ制御

企業環境におけるAI利用の急速な拡大は、職場の生産性向上の機会を生み出す一方で、技術が安全に導入できるかどうかについて深刻な懸念も引き起こしています。

研究者たちは、悪意ある行為者がAIエージェントを利用してデータを盗んだり破壊したりする複数の方法を特定しています。最近ラスベガスで開催されたBlack Hatカンファレンスでは、Zenity Labsの研究者が、ハッカーが主要なAIエージェントを乗っ取り、重要なワークフローの操作などの攻撃に悪用できることを実演しました。

AIは攻撃のためのツールにもなり得ます。7月には、カーネギーメロン大学の研究者が、大規模言語モデル(LLM)が自律的にサイバー攻撃を実行できることを明らかにしました。

翻訳元: https://www.cybersecuritydive.com/news/nist-input-control-overlays-securing-ai/757909/

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です