CoChatがシャドウAIに対抗するためのAI協調プラットフォームを立ち上げ

シャドウAIは、定義上、IT部門とセキュリティ部門の両方から目に見えず、制御されていません。

シャドウITは長年のセキュリティ上の懸念事項です。その主な原因は、従業員がパフォーマンスを改善しようとすることです。つまり、仕事をより上手くこなすことです。その結果は、未知で管理されていないリスクの導入であり、それは問題になる可能性があります。 

今日、シャドウITはシャドウAIに変わりつつあります。従業員が個人のパフォーマンスを改善するために静かに導入するツールは、ますますAIツールになっています。その効果は同じですが、未知で管理されていないエージェントAIの潜在的な力によってリスクは増幅されます。

2026年4月の第1週に立ち上げられたCoChatは、エンタープライズAIのシャドウに可視性と統治をもたらすために設計されたプラットフォームです。これは、従業員に主要な基礎的LLMへのアクセスを提供し、ユーザーが複数の分断された生成AIおよびエージェントAIのサイロを確立する必要をなくすことで実現されます。 

個人の知識をLLMに基づかせることの危険性は、それらの応答がまだ正確であることが保証されていないということです。異なるユーザーが異なるLLMを使用する可能性があり、これらの異なるLLMは同じ質問に対して異なる答えを提供する可能性があります。

シャドウAIの危険性は、IT部門もセキュリティ部門も、組織の他の部門も、これらのユーザーが個人の判断を使用していないが、外部の未知のLLMに基づいて彼らの知識を根拠づけていることに気づいていないということです。

従業員はまた、自律的なアクションの未知の可能性を持つエージェントシステムをインストールしています。ここで、CoChatはLLMとエージェント間に制御層を提供し、エージェントのアクションを「指示する」LLMの推論を検査します。「指示」が危険と見なされる場合(たとえば、機密データが第三者に暴露される可能性、または個人またはエンタープライズデータの削除など)、CoChatは自律性を一時停止し、ユーザーにプロセスを明示的に承認または拒否するよう求めます。

CoChatは、エージェントシステムが1つなしで動作するように設計されている場合でも、ループ内に人間を強制します。OpenClawを考えてください。これはシャドウAIの目的に直接役立つ自律パーソナルアシスタントです。個人のパフォーマンスの向上。推定によると、OpenClawは約300万人のアクティブユーザーを持っています。歴史は、少なくとも比喩的には、即座の妨げられない充足を要求する無道徳的な心を持っていることを示唆しています。そしてこれは問題になる可能性があります。

「人々はAIから最大限の価値を得る必要性に苦しみを感じており、彼らのパフォーマンス生産性を向上させたいと考えています」と、CoChatのCEOであるMarcel Folaronはコメントしました。「そのため、彼らはOpenClawやその他のローカルインストール型ツールなどの自動化されたAIツールに目を向けますが、必ずしもITの知識があるわけではありません。これは非常に危険な可能性があります。これらのツールはシステム上のすべてにアクセスでき、適切な制御メカニズムがないと、暴走する可能性があります。」

エージェントシステムのLLMは、完璧であることが保証されていない独自の推論力を使用して、ユーザーへのさらなる参照がない可能性がある次のアクションをエージェントに指示します。LLMはエージェントのアクションを導く推論を実行します。動的で適応的でステートフルなエージェントは、LLMの推論に基づいて応答し、アクションを実行します。人間の監視がないと、これは非常に悪い結果になる可能性があります。

「危険と判断するアクションを特定した場合、そのアクションを遅延させます。ユーザーにそのアクションを承認または拒否するよう求め、次のアクションはエージェントシステムによって自動的に実行されるのではなく、ユーザーによって指示されます」と彼は続けました。

CoChatの目的は、エンタープライズシャドウAIへの可視性を提供し、それに対する統治を課し、目に見えない孤立した運用のサイロではなくAIチームワークを促進することです。「CoChatは、トップAIソリューションを安全なワークスペースにシームレスに取り込み、チームがより効果的に協力でき、これらのツールをより高い透明性と確信を持って使用できるようにします」とFolarunは述べました。

ある意味では、Slackの使い方で理解することができます。Slackは個人をチームワークに関与させるチャネルを提供します。メンバーが他人が間違った方向に進んでいると思う場合、彼らは懸念を提起でき、問題を議論することができます。CoChatでは、異なるLLMおよびエージェントシステムのパフォーマンスを見ることができます。比較することもできます。 

個々のユーザーは、LLMのユーザーを喜ばせるという固有の欲求によってだまされる可能性があります。ユーザーが望んでいると思われる応答を提供するために。しかし、プラットフォーム上の他のメンバーはこれに異議を唱え、彼らの懸念を提起する可能性があります。 

CoChatは、各ユーザーが選択したLLMおよびエージェントシステムを実行することを許可し、幻覚およびエージェントシステムへの潜在的なミスディレクションを判断するために複数のLLMの使用を促進します。しかし、それはプラットフォームであるため、単にループ内に人間を確保するだけでなく、各ループに複数の人間を許可します。プラットフォーム経由で使用されるAIは技術的にはシャドウAIのままである可能性がありますが、可視性、透明性、統治の層が適用されます。

CoChatは基本的には、チームワーク用に設計されたAI協調プラットフォームです。ユーザーが主要なAIモデル、カスタムアシスタント、および自律エージェントとの共有チャットで協力できるようにします。AIワークフローを彼らが既に使用しているツールに接続します。ただし、潜在的に危険な自律アクションを中断します。 

AI Risk Summitで詳細を確認してください | Ritz-Carlton, Half Moon Bay

翻訳元: https://www.securityweek.com/cochat-launches-ai-collaboration-platform-to-combat-shadow-ai/

ソース: securityweek.com