AIが企業環境で果たす役割が拡大する中、最高情報セキュリティ責任者(CISO)が効果的なAIガバナンスを推進する重要性が高まっています。新たなテクノロジーに対するガバナンスは常に難しいものですが、効果的なガバナンスはさらに困難です。多くの組織がまず取る本能的な対応は、厳格なポリシーを策定することです。ポリシー文書を作成し、制限事項を周知し、リスクが抑えられることを期待します。しかし、効果的なガバナンスはそのようなものではありません。AIの利用を日々形作り、変革的な変化を安全に導きながらもイノベーションのスピードを損なわない「生きたシステム」でなければなりません。
CISOにとって、AI時代におけるセキュリティとスピードのバランスを見つけることは極めて重要です。このテクノロジーは、インターネットの登場以来、企業が直面する最大の機会であると同時に最大のリスクでもあります。ガードレールなしで急ぎすぎれば、機密データがプロンプトに流出したり、シャドーAIが蔓延したり、規制の隙間が責任問題となる可能性があります。一方で、慎重になりすぎると、競合他社が強力な効率化によって先行し、太刀打ちできなくなります。どちらの道を選んでも、CISOの職を危うくする結果につながりかねません。
そのため、CISOはAI導入をセキュリティ部門が妨げる「NOと言う部門」になってはいけません。むしろ、組織のリスク許容度やビジネスの優先事項にガバナンスをマッピングし、セキュリティ部門が真の収益創出の推進役となる道を見つけることが重要です。本記事では、CISOがこの転換を実現し、安全なAIの大規模導入を可能にするAIガバナンスプログラムを推進するための3つの要素を紹介します。
1. 現場で何が起きているかを理解する#
2022年11月にChatGPTが登場した際、私の知る多くのCISOは、従業員に「してはいけないこと」を伝える厳格なポリシーを急いで発表しました。機密データの漏洩が現実的な懸念であったことを考えれば、これは善意からの行動でした。しかし、「文書から逆算」したポリシーは理論上は優れていますが、実際にはほとんど機能しません。AIの進化が非常に速いため、AIガバナンスは「現場から前進」するマインドセットで設計し、組織内で実際に何が起きているかを考慮する必要があります。そのためには、CISOがAIそのもの、どこに組み込まれているか、どのSaaSプラットフォームがAIを有効化しているか、従業員がどのように業務に活用しているかを基礎から理解することが求められます。
AIインベントリ、モデルレジストリ、部門横断的な委員会はバズワードのように聞こえるかもしれませんが、セキュリティリーダーがAIリテラシーを高めるための実用的な仕組みです。例えば、AI部品表(AIBOM)は、AIモデルに供給されるコンポーネント、データセット、外部サービスの可視化を提供します。ソフトウェア部品表(SBOM)がサードパーティ依存関係を明確にするのと同様、AIBOMはどのデータが使われているか、その出所、導入されるリスクをリーダーが把握できるようにします。
モデルレジストリは、すでに使用されているAIシステムに対して同様の役割を果たします。どのモデルが導入されているか、最終更新日、パフォーマンスを追跡し、「ブラックボックスの乱立」を防ぐとともに、パッチ適用、廃止、利用拡大の判断材料となります。AI委員会は、監督責任がセキュリティやITだけに偏らないようにします。多くの場合、指定されたAIリードやリスク担当者が議長を務め、法務、コンプライアンス、人事、事業部門の代表者が参加します。これにより、ガバナンスは縦割りの指示から、セキュリティとビジネス成果を橋渡しする共同責任へと変わります。
2. ポリシーを組織のスピードに合わせる#
現場から前進するポリシーがなければ、セキュリティリーダーは現実的に実行できないコントロールを規定してしまいがちです。私のCISOの同僚の例でこれを目の当たりにしました。従業員がすでにAIを試していることを知り、彼は複数のGenAIアプリケーションの責任ある導入を推進しました。しかし、新たにCIOが着任し、GenAIアプリが多すぎると感じたため、CISOは全GenAIを禁止し、全社共通のプラットフォームが選定されるまで利用を停止するよう指示されました。1年後、そのプラットフォームはまだ導入されておらず、従業員は未承認のGenAIツールを使い、組織はシャドーAIの脆弱性にさらされていました。CISOは実行できない一律禁止を強いられ、実現可能な解決策を講じる権限もないまま批判にさらされていました。
このような事態は、ポリシーが実行可能なスピードよりも早く策定されたり、組織の導入ペースを見越せていない場合に起こります。紙の上では決断力があるように見えるポリシーも、リーダーシップの交代やAI機能の組み込み、従業員による新ツールの自然な活用方法に適応できなければ、すぐに時代遅れになります。ガバナンスは柔軟に適応できなければならず、そうでなければセキュリティチームが不可能なことを強いられるリスクがあります。
今後は、ポリシーを「生きた文書」として設計することが重要です。ビジネスの進化とともに実際のユースケースに基づき、測定可能な成果に合わせて進化させるべきです。ガバナンスはポリシーだけで終わらず、標準、手順、ベースラインへと落とし込み、日々の業務を導く必要があります。そうして初めて、従業員は安全なAI導入が実際にどのようなものかを理解できます。
3. AIガバナンスを持続可能にする#
強力なポリシーやロードマップがあっても、従業員は引き続き正式に承認されていない方法でAIを使い続けるでしょう。セキュリティリーダーの目標はAIを禁止することではなく、責任ある利用を最も簡単で魅力的な選択肢にすることです。そのためには、購入品でも自社開発でも、従業員にエンタープライズグレードのAIツールを提供し、不安定な代替手段に頼る必要がないようにすることが必要です。また、従業員がガードレールを回避するのではなく、守ることに価値を感じられるよう、ポジティブな行動を強調し強化することも重要です。
持続可能なガバナンスは、AIの活用とAIの保護、この2つの柱からも生まれます。これはSANS Instituteが最近発表したSecure AI Blueprintでも示されています。AIを効果的にガバナンスするには、CISOはSOCチームがAIをサイバー防御に効果的に活用できるようにすべきです。例えば、ノイズの自動削減や情報付加、脅威インテリジェンスとの検知結果の検証、エスカレーションやインシデント対応時にアナリストが関与し続けることなどです。また、SANS Critical AI Security Guidelinesで示されているように、AIシステムを敵対的脅威から守るための適切なコントロールを整備することも必要です。
SANS Cyber Defense Initiative 2025でさらに学ぶ#
今年12月、SANSはワシントンD.C.で開催されるLDR514: セキュリティ戦略計画・ポリシー・リーダーシップコースをSANS Cyber Defense Initiative 2025で提供します。このコースは、一般的なガバナンスのアドバイスを超え、ビジネス主導のセキュリティプログラムを構築し、組織を安全なAI導入へ導きたいリーダー向けに設計されています。実行可能なポリシーの作成方法、ガバナンスとビジネス戦略の整合、セキュリティを文化に根付かせる方法など、AI時代に組織を安全に導くための知識を学べます。
AIガバナンスをビジネス推進力に変えたい方は、こちらからSANS CDI 2025にご登録ください。
注:本記事はSANS InstituteフェローのFrank Kim氏による寄稿です。
翻訳元: https://thehackernews.com/2025/09/how-cisos-can-drive-effective-ai.html