コンテンツにスキップするには Enter キーを押してください

AIがGRC戦略をどのように変えているか

CISOは、AIリスクを管理しつつ組織のイノベーションを支援する必要があるという難局に立たされています。今後の道筋は、GRCフレームワークの適応にあります。

企業がサイバーセキュリティをガバナンス、リスク、コンプライアンス(GRC)に組み込む中で、既存のGRCプログラムを見直し、生成AIやエージェント型AIの利用拡大とリスクが適切に対応されているかを確認することが重要です。これにより、企業は引き続き規制要件を満たすことができます。

「[AIは] 非常に破壊的なテクノロジーであり、『これがAIだ』と箱に入れて定義できるものではありません」と、ISACA理事会メンバーであり、オーストラリア証券投資委員会(ASIC)のCISOであるジェイミー・ノートン氏は述べています。

AIリスクを定量化するのは難しいですが、AIの導入が組織のリスク領域をどのように拡大・変化させているかに関するデータがヒントになります。Check Pointの2025年AIセキュリティレポートによると、エンタープライズデバイスから生成AIサービスに送信されたプロンプトのうち80件に1件(1.25%)が機密データ漏洩の高リスクを含んでいました。

CISOは、イノベーションを求めるビジネスの要求に対応しつつ、これらのリスクを考慮してAI導入のセキュリティを確保するという課題に直面しています。「純粋なセキュリティの観点からは、シャドーAIが『ガードレールなしで自由に使える文化』になるのを防ごうとしています」とノートン氏はCSOに語ります。

AIは一般的なリスクではない。では、GRCフレームワークはどう役立つのか?

ガバナンス、リスク、コンプライアンス(GRC)は、2000年代初頭にOpen Compliance and Ethics Group(OCEG)によって、不確実性への対応、誠実な行動、コンプライアンスの確保を通じて組織目標を支援するための重要な能力を定義する概念として生まれました。それ以来、GRCはコンプライアンス重視のルールやチェックリストから、より広範なリスク管理アプローチへと発展しています。データ保護要件、規制環境の拡大、デジタル変革の推進、取締役会レベルでの注目がGRCの変化を後押ししています。

同時に、サイバーセキュリティは企業の主要リスクとなり、CISOは規制要件の遵守や効果的なガバナンスフレームワークの確立を支援してきました。今やAIの拡大に伴い、この新たなリスクカテゴリをGRCフレームワークに組み込む必要があります。

しかし、業界調査によれば、AIに対するガードレールの整備はまだ道半ばです。2025年Lenovo CIOプレイブックによると、エンタープライズAI GRCポリシーを完全に施行している組織はわずか24%です。同時に、AIガバナンスとコンプライアンスが最優先事項であることもこのレポートで明らかになっています。

業界調査は、CISOがAIリスク管理を早急に強化する必要があることを示唆しています。これは、リーダーシップがリスクを大きく動かさずに成果を求めていることに起因します。

AuditBoardのCISOであるリッチ・マーカス氏によれば、CISOは生産性向上と強力な新興テクノロジーの活用という二重の使命を持ちながら、ガバナンス、リスク、コンプライアンスの義務も維持しなければならないという厳しい立場にあります。「CISOはAIを活用したり、AI導入を加速させて生産性向上を実現するよう求められています。しかし、間違ったやり方でビジネスを危機にさらしてはならないのです」とマーカス氏は述べています。

AIのリスクを認識したうえで導入を進めるために、マーカス氏はCISOが単独で動くのではなく、組織全体でリスク管理への信頼と賛同を醸成することを勧めています。「AIリスク管理を成功させるために最も重要なのは、協調的な姿勢で状況に臨み、『私たちは皆同じ立場であり、あなたたちの足を引っ張るためにいるのではない』というメッセージを広めることです。」

このアプローチは、組織内でAIがどのように、どこで使われているかの透明性を高めるのに役立ちます。サイバーセキュリティリーダーは、AIが現在どこで使われているか、また新たなAI導入の要望がどこで生じているかを把握できるよう、運用上のセキュリティプロセスを確立すべきだとノートン氏は述べています。

「今やあらゆる製品に何らかのAIが組み込まれており、AIのさまざまな形態を横断的にすべて拾い上げているガバナンスフォーラムは存在しません」と彼は言います。

ノートン氏は、CISOがAIツールの種類を定義し、相対的なリスクを把握し、生産性やイノベーションの潜在的なメリットとバランスを取るための戦略的・戦術的アプローチを開発することを提案しています。セキュア・バイ・デザインプロセス、IT変更プロセス、シャドーAI発見プログラム、リスクベースのAIインベントリや分類などの戦術的手法は、小規模なAIツールに対処する実践的な方法です。「日常的に使われるAI、つまり製品やSaaSプラットフォームに組み込まれているAIは、監督が必要な要素を特定する戦術的アプローチで管理できるかもしれません」とノートン氏は述べています。

戦略的アプローチは、Microsoft CopilotやChatGPTのような主要なツールによる大きなAI変革に適用されます。これらの「大物」AIツールは、社内のAI監督フォーラムを使って管理する方が、他の多数のAI追加ツールよりも容易です。

こうしてCISOは、煩雑で実行不可能なプロセスを作ることなく、最もインパクトの大きいリスクにリソースを集中できます。「目的は、何もできなくなるほど複雑にすることではありません。組織は通常、迅速に動きたいものです。ですから、AIを許可するか、リスクが高ければ防止するかを判断するための比較的軽量なプロセスを適用するのです」とノートン氏は述べています。

最終的には、セキュリティリーダーがガバナンスとリスクを活用し、組織全体のGRCフレームワークの一部としてAIにセキュリティの視点を適用することが求められます。「多くの組織には、環境全体のリスクを統括するチーフリスクオフィサーなどがいますが、セキュリティもその議論に加わるべきです」とノートン氏は言います。「今やCISOが『イエス』か『ノー』かを言う時代ではありません。私たちは、特定の行動に伴うリスクを可視化し、組織や経営陣がそのリスクについて意思決定できるようにする役割を担っています。」

既存フレームワークをAIリスク管理で適応させる

AIリスクには、データの安全性、AIツールの悪用、プライバシーの考慮、シャドーAI、バイアスや倫理的課題、幻覚や結果の検証、法的・評判上の問題、モデルガバナンスなどが含まれます。

AI関連リスクは、GRCの柱に統合することで、組織のリスクポートフォリオ内の独立したカテゴリとして確立すべきだと、Check PointのAIテクノロジー担当VP、ダン・カルパティ氏は述べています。カルパティ氏は、4つの柱を提案しています:

  • エンタープライズリスク管理:AIリスク許容度の定義とAIガバナンス委員会の設置。
  • モデルリスク管理:モデルのドリフト、バイアス、敵対的テストの監視。
  • オペレーショナルリスク管理:AI障害時のコンティンジェンシープランや人による監督のトレーニング。
  • ITリスク管理:AIシステムの定期的な監査、コンプライアンスチェック、ガバナンスフレームワーク、ビジネス目標との整合。

これらのリスクをマッピングするために、CISOはNIST AIリスク管理フレームワークやCOSO、COBITなどの他のフレームワークを参照し、ガバナンス、コントロール、リスク整合性というコア原則をAIの特徴(確率的出力、データ依存性、意思決定の不透明性、自律性、急速な進化など)に適用できます。新たなベンチマークであるISO/IEC 42001は、AIのライフサイクル全体にガバナンスとリスク管理を組み込むための構造化されたフレームワークを提供します。

これらのフレームワークを適応させることで、AIリスクの議論を高め、AIリスク許容度を組織全体のリスク許容度と整合させ、堅牢なAIガバナンスを全事業部門に浸透させることができます。「車輪の再発明をするのではなく、セキュリティリーダーはAIリスクを具体的なビジネスインパクトにマッピングできます」とカルパティ氏は述べています。

AIリスクはまた、詐欺や誤った意思決定による財務損失、データ漏洩による評判毀損、バイアスによる不公平な結果や顧客不満、レガシーシステムとの統合不良やシステム障害による業務中断、法的・規制上の罰則などの可能性にもマッピングできます。CISOはFAIR(情報リスク要因分析)などのフレームワークを活用し、AI関連イベントの発生確率、金銭的損失の推定、リスクエクスポージャーメトリクスの算出が可能です。「リスクを定性的・定量的両面から分析することで、ビジネスリーダーはセキュリティリスクと財務基準をよりよく比較・評価できます」とカルパティ氏は述べています。

さらに、新たな規制要件に対応するため、CISOは規制案の監視、パブリックコメント期間の追跡、新基準の早期警告、施行前の準備が必要になるとマーカス氏は述べています。

業界ネットワークや同業者との連携は、CISOが脅威やリスクをリアルタイムで把握するのに役立ちますし、GRCプラットフォームのレポート機能は規制変更の監視に役立ちます。「現場でどんなリスクが顕在化しているか、他組織を守った要素は何かを知ること、そして業界全体で重要なコントロールや手順を構築することが、長期的にこうした脅威へのレジリエンスを高めます」とマーカス氏は述べています。

ガバナンスはGRCフレームワークの重要な要素であり、CISOはAIの責任ある利用に関する組織ルールや原則の策定に重要な役割を担っています。

ガバナンスポリシーの策定

リスク定義やコンプライアンス管理に加え、CISOは新たなガバナンスポリシーの策定も求められています。「効果的なガバナンスには、AIの許容利用ポリシーが含まれるべきです」とマーカス氏は述べています。「評価プロセスの初期アウトプットの1つは、組織の『ルール・オブ・ザ・ロード』を定義することです。」

マーカス氏は、AIツールの利用可否を「赤・黄・緑」の信号機システムで分類することを提案しています。これは従業員に明確な指針を与え、技術的好奇心のある従業員には安全な探索の場を提供し、セキュリティチームには検知・施行プログラムの構築を可能にします。さらに、イノベーションに対して協調的なアプローチを提供できます。

「緑」のツールは審査・承認済み、「黄」は追加評価や特定用途が必要、「赤」は必要な保護がなく従業員の利用は禁止です。

AuditBoardでは、マーカス氏とチームが、独自データの保護や入出力の所有権保持などを含むAIツール選定基準を策定しています。「企業として、自分たちが重視する基準を策定し、それを新しいツールやユースケースの評価基準として活用できます。」

CISOとそのチームは、指針となる原則を事前に定義し、何が重要かを会社に教育し、その基準を満たさないものを排除することで、チーム自身による自己管理を促すことを推奨しています。「AIツールがCISOの元に届く時点で、関係者は期待される基準を理解している状態になります」とマーカス氏は述べています。

具体的なAIツールやユースケースについては、マーカス氏とチームは「モデルカード」と呼ばれる1ページのドキュメントを作成し、AIシステムのアーキテクチャ(入力、出力、データフロー、想定用途、第三者、システムの学習データなど)を記載しています。「これにより、リスクアナリストは、そのユースケースがプライバシー法や要件、セキュリティのベストプラクティス、ビジネスに適用される新たな規制フレームワークに違反していないかを評価できます」とCSOに語っています。

このプロセスは、潜在的なリスクを特定し、組織内のステークホルダーや取締役会に伝えることを目的としています。「数多くのユースケースを評価すれば、共通するリスクやテーマを抽出し、それらを集約してリスク軽減策を策定できます」と彼は述べています。

チームは、どの補完的コントロールを適用できるか、どこまで適用できるかをAIツールごとに検討し、そのガイダンスを経営陣に提供できます。「これにより、個別のユースケースやリスクに関する戦術的な議論から、組織全体の『AIリスク』に対応する戦略的な計画へと議論がシフトします」とマーカス氏は述べています。

ノートン氏は、今やAIの魅力的なインターフェースが誰でも簡単に利用できるようになったため、セキュリティチームはこれらツールの裏側で何が起きているかに注目する必要があると警告します。戦略的リスク分析、リスク管理フレームワークの活用、コンプライアンス監視、ガバナンスポリシーの策定により、CISOは組織のAI活用を導くことができます。

「CISOとして、私たちはイノベーションの妨げになりたくはありませんが、無秩序に突き進んでデータが漏洩することがないよう、ガードレールを設ける必要があります」とノートン氏は述べています。

ニュースレターを購読する

編集部からあなたの受信箱へ

下記にメールアドレスを入力して開始してください。

翻訳元: https://www.csoonline.com/article/4016464/how-ai-is-changing-the-grc-strategy.html

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です