出典: vectorpouch(Adobe Stock Photoより)
トレイ・フォードはこれを以前にも目にしてきた。エンジニアリングチームは最新のAIツールを探求して突き進んでいる一方で、セキュリティ部門はまだ息を整えようとしている。
「セキュリティチームが人手不足でないことはありません」とBugcrowdのアメリカ地域CISOであるフォード氏は語る。「そして突然、ゲームチェンジャーとなる新しいものが現れます。でも、『これをやろう』という急なマインドセットが生まれるのです。」
AI搭載ソリューションの導入を急ぐあまり、多くの組織が基本を飛ばしてしまっています——その最たるものが正式なAIポリシーの策定です。最近のISACAの調査によると、世界中の3,029人のデジタルトラスト専門家を対象にした結果、AIに関する正式かつ包括的なポリシーを持つ組織はわずか28%でした。これは昨年の15%よりは良いものの、組織でAIの導入が広がっている現状を考えると依然として低い数字です。実際、同じISACAの調査では、回答者の81%が「自組織の従業員は許可の有無にかかわらずAIを利用している」と考えています。
このポリシーの欠如は、単なるガバナンスの問題ではなく、セキュリティ上の問題でもあります。
「ガバナンスはしばしば倫理やバイアスに焦点を当てますが、本当のセキュリティ脅威を見落としがちです」とAIセキュリティプラットフォームStraikerの共同創業者兼CEO、アンカー・シャー氏は言います。彼は、プロンプトインジェクション攻撃、幻覚、サードパーティモデルの脆弱性、ITの可視性外で動作するシャドウAIツールなど、見過ごされがちなリスクを指摘します。これらのギャップが組織を危険にさらしており、攻撃者はすでにその悪用方法を学び始めているのです。
AIポリシーには何を含めるべきか?
まだポリシーを策定していない場合、どのように始め、何を含めるべきでしょうか?現代のAIポリシーは単なる「やるべきこと・やってはいけないこと」のリスト以上のものが求められます。イノベーションのための枠組みを提供し、安全のためのガードレールを設け、許容される利用の明確な境界を定義する必要があります。シャー氏は、すべてのAIポリシーに以下のような中核要素を含めるべきだと述べています:
-
許容される利用の定義とビジネス目的
-
データ処理およびプライバシーのガイドライン
-
セキュリティおよび安全管理
-
透明性と明確な期待値
「原則に基づきつつ、明確で実施可能な管理策と結びつけてください」とシャー氏は言います。これには顧客の個人情報(PII)漏洩の制限、過度に権限のあるAIエージェントの制限、リスクに応じた要件の差別化(例:マーケティング文書と医療データの違い)などが含まれます。
アカマイ・テクノロジーズ元CSOで現在は経営コンサルDUHAのCEOを務めるベテランセキュリティリーダー、アンディ・エリス氏は、ツールに特化しすぎたり柔軟性のないポリシーの策定を避けるよう助言しています。生成AI市場は依然として急速に進化しているため、政策担当者は時代遅れとなり無視されるポリシーを作ってしまうリスクがあると彼は指摘します。代わりに、SaaS組み込み型AI、コンテンツ生成ツール、社内データと連携するAIシステムなど、ツールをカテゴリー分けし、それぞれに対応したポリシーを作成することを提案しています。
「セキュリティリーダーは組織のリーダーと早い段階で関わり、GenAIのロードマップ策定を支援すべきです」とエリス氏は言います。「後からモグラ叩きをするのではなく、これらのツールから安全にビジネス価値を得ることに注力しましょう。」
フォード氏も同意し、「これは独断で行うべきではありません。ビジネス部門と連携して行う必要があります」と述べています。
最も強力なポリシーは、責任ある利用を可能にし、製品やR&Dチームを早期に導き、罰則ではなく指導の仕組みを取り入れています。
それはまた、人はミスをするという現実を認識することも意味します。
「私たちは十分な睡眠が取れていません。カフェイン不足や空腹、気が散っていることもあり、ただ仕事を終わらせようとしているだけです」とフォード氏。「善意で手を抜いてしまい、危険なミスをすることもあります。」
ポリシーを実践に移すには
ポリシーが策定されたら、その実施が重要です。しかし、それは単なる事後対応ではいけません。シャー氏は、人々が実際に働いている場所——開発者ツール、オフィスソフト、従業員のブラウザ——に管理策を組み込むことを推奨しています。管理策は、働き方に組み込まれてこそ機能し、後付けでは効果が薄いと彼は言います。継続的なトレーニングは役割ごとにカスタマイズし、リアルタイム監視、自動レッドチーミング、不適切なAI利用を検知・対応する明確なプロセスで支えるべきです。
「まずはコアとなるポリシーを作り、その上に部門ごとの管理策やレビューを重ねていきましょう」と彼は言います。
そして、自分のポリシーが従業員の危険な行動を完全に防ぐと考えてはいけません。エリス氏は、ChatGPTやGeminiのようなツールを全面的に禁止することは逆効果になりうると述べています。
「公的なAIツールの利用を監視し、保護する方が、全面的な禁止より効果的です」とエリス氏は言います。代わりに、安全で承認された代替手段を提供し、従業員がそれらから逸脱した場合の検知や指導プロセスを構築することを推奨しています。
変化し続けるAIへのポリシー対応
EU AI法や米国の州レベルの提案など、世界的なAI規制が形作られる中、企業は自社のポリシーを適応可能に設計しなければなりません。
「柔軟性が鍵です」とシャー氏。「規制は進化し続けますし、管理策も同様であるべきです。」
NISTのAIリスク管理フレームワーク、OWASPのLLM Top 10、ISO/IEC 42001といった枠組みは、基準の確立に役立ちます。しかしシャー氏、フォード氏、エリス氏は皆、ポリシーは「生きた文書」であるべきだ——定期的に更新され、状況に応じ、企業全体のリスク管理に統合されるべきだ——と意見が一致しています。
「最悪の事態とは何か、そしてそれにどう対処するのか?」とフォード氏。「そして、最も頻繁に発生する損失シナリオは何か?」
フォード氏は、AIポリシーは単なるコンプライアンスのためではなく、先見性のためだと述べています。そして、組織がリスクを増やすことなくAIの力を活用したいのであれば、その取り組みは今すぐ始める必要があるのです。