コンテンツにスキップするには Enter キーを押してください

オープンウェイトの中国AIモデルがLLMにおけるプライバシー革新を推進

透明な頭蓋骨を持つロボット

出典: Chombosan via Alamy Stock Photo

解説

クラウドで提供される大規模言語モデル(LLM)が市場にあふれる中、データプライバシーはエンドユーザーにとって大きな問題であり、モデルにデータを入力した後はデータを制御できないからです。

1月にDeepSeekのオープンウェイトLLMが世界市場を揺るがし、わずか2か月後には追加の中国AI参入者であるManus AIとBaiduのERNIEが続きました。これらはどちらも今年後半にオープンウェイト(モデルのパラメータが公開されており、開発者が内部を変更してモデルをより効果的に構築できることを意味します)になる予定です。多くの人にとって、最初の警鐘はこれらのAIアプリがユーザーデータを中国のサーバーに送信する可能性に関するものでした。しかし、OpenAIやMetaといった西洋企業のチャットボットでも状況は改善されていません。実際、クラウドで提供されるLLMのサプライヤーは、ユーザープライバシーをほとんど無視しています。

これは重要です。なぜなら、AIチャットボットは私たちのブラウジングパターンやソーシャルメディアの投稿から私たちの興味や行動を推測する必要がないからです。代わりに、私たちは従来のアプリケーションよりもはるかに多くの個人情報をLLMチャットボットに自発的に開示しています。残念ながら、新しい技術が登場し、多くの人が市場での初を目指し、新しい億万長者が誕生し、プライバシーが(再び)忘れ去られるという通常のパターンに従っているようです。

関連:TenableがAIセキュリティスタートアップApexを買収

しかし、今回は異なるかもしれません。3つの進展、すなわち、いくつかの有能なオープンウェイト中国モデルからの競争、エッジコンピューティング、そして積極的な規制の執行のおかげです。

ユーザープライバシーオプションを増やすための3つの要素

OpenAI、Anthropic、Googleのような企業はモデルのウェイトを公開しておらず、これがエッジ展開やユーザーがデータをローカルに保持するオプションを大幅に制限しています。中国のサプライヤーからのオープンウェイトモデルがクローズドウェイトモデルに匹敵する能力を示しているため、西洋企業にはウェイトを公開し、ユーザーに代替案を提供する圧力がかかっており、それがユーザーのプライバシーを保護するLLMのオプションを増やすことになります。

より多くのエッジコンピューティングの処理能力により、AIモデルをクラウドに依存せずにデバイス上でローカルに実行することが可能になります。より小さく、より効率的なモデルは、すでにスマートフォンや他の低計算デバイスで実行可能です。モデルがそれほど大きくならないと仮定すると(おそらく人間が生成したデータが不足しているため)、パフォーマンスの高いローカルモデルがすぐに標準となり、ユーザーはデータをより制御できるようになるかもしれません。

技術的な解決策だけでは十分でないかもしれません。そのため、世界中の規制当局がAIモデルの個人データ処理に適用される既存の規制を積極的に執行し、ガイダンスを提供し、新しいルールを追加しています。イタリアのデータ保護当局はすでにOpenAIに対してプライバシー規則違反で1,500万ユーロの罰金を科し、DeepSeekをブロックしました。また、アイルランドの規制当局はGoogleのAI慣行を調査中です。EUのEDPBはAIモデルにおける個人データの使用について意見を述べており、EU AI法のいくつかの規定はすでに段階的に導入されています。そして、それはヨーロッパだけではありません。オーストラリアはAIモデルのトレーニングに関するガイドラインを発行しており、カナダも同様です。さらに、ブラジルはMetaに対してLLMトレーニングを変更するよう2024年8月に強制しました。

関連:NSA、CISAがAIモデルで使用されるデータのセキュリティを促す

サイバーセキュリティ専門家が今取るべきステップ

サイバーセキュリティ専門家は、内部ユーザーと顧客のプライバシーを改善するために、今すぐ3つのステップを取ることができます。

まず、オープンウェイトモデルへの切り替えを検討してください。これらのモデルはより大きな制御を提供し、開発者はクローズドウェイトモデルのランダムな動作の変化を見逃すことはありません。

第二に、オープンウェイトLLMへの切り替えが実現不可能な場合、潜在的なコンプライアンスの課題や訴訟に備えてください。クローズドウェイトAI企業はデータを自由に扱うことができ、ユーザーデータがどのように処理されるかを完全に把握するのが難しくなります。

第三に、AIまたはMLを組み込んだ製品を提供するソフトウェアサプライヤーに対して、より多くの透明性を要求してください(おそらくほとんどの企業がそうです)。彼らが使用するモデル、そのモデルがどのようにライセンスされているか、顧客データを他者が利用可能なモデルのトレーニングに使用しているかどうか、そしてEU AI法のような特定のAI規制にどのように準拠するかについて、具体的な質問をしてください。

関連:サイバー・レジリエンスの3つの重要な柱

ユーザーデータが敵対的な管轄に渡る危険性についての地政学的な威嚇を別にしても、オープンウェイトの中国生成AIモデルからの競争は、エッジコンピューティングと積極的な規制の執行と組み合わさることで、ユーザーがこれらのモデルの力にアクセスしつつ、プライバシーの妥協を減らすための触媒となる可能性があります。

翻訳元: https://www.darkreading.com/cyber-risk/open-weight-chinese-ai-models-drive-privacy-innovation-llm

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です