Image

出典: Westend61 GmbH(Alamyストックフォト経由)

AIコンテンツ作成アプリの開発企業Vyro AIは、同社の3製品(ImagineArt、Chatly、Chatbotx)から116GBもの機密ユーザーデータを誤って漏洩させてしまいました。

この情報漏洩を最近発見したCybernewsの研究者によると、このデータベースは2月にIoT(モノのインターネット)検索エンジンによって最初にインデックス化されており、攻撃者に数か月間見られていた可能性があります。

漏洩したデータには、ユーザーがアプリケーションに入力したAIプロンプト、ベアラー認証トークン、ユーザーエージェントなどが含まれていました。

Cybernewsの研究者によれば、このパキスタン拠点の企業は、ポートフォリオ全体で1億5000万回以上のアプリダウンロード数を誇ります。中でもChatlyが最も人気があり、10万回以上ダウンロードされています。

「この漏洩は重大です。ユーザー行動の監視や、ユーザーがAIモデルと共有した機密情報の抽出、さらにはユーザーアカウントの乗っ取りが可能になってしまいます」とCybernewsの研究者は今週のブログ記事で述べています。

この漏洩は本番環境と開発環境の両方に関わっており、常時2日から1週間分程度のログが含まれていました。特に懸念されるのは漏洩したトークンで、アカウント乗っ取り犯にとって非常に有用であり、漏洩データを悪用してユーザーを自分のアカウントから締め出すことが可能になります。

「乗っ取りが発生すると、全チャット履歴や生成画像へのアクセス、さらにはAIトークンの不正購入などに悪用される可能性があります」と研究チームは述べています。また、一部のユーザーが機密情報を入力していることを考えると、このような漏洩は特に深刻な情報流出につながる可能性があると付け加えています。

企業はAI導入の扉を開いている

AIブームが続く中、企業はこぞってAI活用に乗り出しています。しかし、同時にセキュリティへの警戒も強化する必要があります。

例えば、Harmonic Securityの新たな分析によると、4月から6月の間に300のGenAIツールやAI搭載SaaSアプリケーションに提出された100万件のプロンプトと2万件のファイルのサンプルのうち、22%のファイルと4%以上のプロンプトに機密情報が含まれていたことが判明しました。

これには、ソースコードやアクセス認証情報、M&A関連文書、顧客や従業員の記録などが含まれ、その多くがチャットボットとの会話で入力されています。

Harmonicの研究者は、企業がGenAIシステムにどのようなデータが入力されているかを監視し、利用状況の可視化を進めて今後このような脅威を軽減すべきだと助言しています。

「まず、企業は無責任なAI利用のリスクについて従業員を教育すべきです。多くの従業員は何が起こりうるかすら知らないからです」とCybernewsのセキュリティ研究者Aras Nazarovas氏は述べています。「次に、企業は従業員向けに安全なAIソリューションを導入すべきです。例えば、ChatGPTの代わりに自社運用のLLMを使えば、LLMと共有した情報が社外に出ることはありません。」

もしChatGPTやGemini、Copilotなどしか利用できない場合は、AIモデルに機密情報を共有しないよう制限するポリシーやガイドラインを策定すべきだと彼は付け加えます。

「もしChatGPTとのプライベートな会話がGoogleに公開されるかもしれないと知っていれば、人々はチャットボットに対してそれほど率直にはならないでしょう」とNazarovas氏は言います。「機密性やプライベートなデータを気軽に共有してしまうのは、人間が介在していないという認識からくるプライバシー感覚によるものです。」

翻訳元: https://www.darkreading.com/cyberattacks-data-breaches/vyro-ai-leak-cyber-hygiene

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です