AIプロンプトの機密性と虚偽引用が研究者の懸念を招く

文献レビューとアイデア生成のために商業的なAIツールを使用する学術研究者は、未発表の研究質問、ドラフト仮説、および専有ドメイン知識をデータ処理方法を理解していないシステムに送信しています。

15人の研究者を対象とした思考発話研究では、ResearchRabbitやElicitAIなどのツールにおける未解決の機密性と出力検証の問題を管理するため、これらのユーザーが構築した回避策が記録されています。

Image

テキサス大学オースティン校とMicrosoftの研究者によって実施された研究では、参加者が文献探索、統合、アイデア出しタスクを完了する際をリアルタイムで観察しました。これらのギャップは、生成AIの従業員使用を管理するエンタープライズセキュリティ機能に精通した懸念と密接に対応しています。

開示ベクトルとして扱われるプロンプトコンテンツ

15人の参加者のうち2人は、プロンプトコンテンツの機密性について直接的な懸念を提起しました。一人の参加者は、AIプラットフォームが「あなたが共有するプロンプトをトレーニングに活用し、あなたの研究質問または研究データをリークする可能性がある」と述べました。別の参加者は「自分の個人データがどのくらい保存されているのか、どこに保存されているのか、および誰がアクセスできるのかを知らない」と指摘しました。

その数は少ないですが、基礎となる行動はサンプル全体に広がっていました。参加者は定期的にドラフト研究質問、進行中の作業の説明、および未発表の分析フレームをツールに入力しました。この研究では、これをエンドユーザーがAIベンダーを収集、保存、または再利用される入力に対して責任を持たせることができる見える場がない制度的説明責任問題として説明しています。

従業員のAI使用を管理する組織にとって、その並行性は直接的です。内部ドキュメント、コード、または戦略計画を商業LLMに貼り付けるスタッフは、保持、トレーニング再利用、およびアクセス制御に関する同じ不透明性にさらされています。

出力検証ギャップが大量の手動レビューを推進

15人の参加者のうち9人は、AI生成コンテンツの出所を確定する際の困難を報告しました。検索パイプライン、トレーニングデータのカバレッジ、およびキュレーションロジックは不透明であり、ソースを確認することが不可能でした。一人の参加者は、ソースと基礎となるデータを確実に報告できないため、ツールのブラックボックスの性質を厳密な作業の制限として説明しました。

7人の参加者は幻覚を個別の精度問題というより透明性の失敗と見なしました。この研究は2つの障害モードを特定しています。帰属転位は、正確な情報が間違ったソースと結びついている場合に発生します。合成ブレンディングは、単一の出力に捏造された主張を正当な引用と一緒に統合し、検証を遅く、エラーが発生しやすくします。

ある研究者は、存在しない引用についてChatGPTに異議を唱え、謝罪とそれに続くより多くの捏造参照を受け取ったことを説明しました。同じ研究者は別の障害モードに注意しました:存在するが話題に関係がない引用。この研究はこれを完全な捏造とは異なる由来の問題と呼んでいます。

補償として、すべての15人の参加者は、著者名や出版会場の認識などのソーシャルクレディビリティヒューリスティックを含む緩和戦略を開発しました。8人は冗長な手動検証にデフォルトし、名前、日付、および引用を繰り返しチェックしました。10人はAI使用を低リスクのタスクに制限し、コア分析作業をツール外に保ちました。

エンタープライズAIガバナンスへの示唆

研究に記録された補償戦略は時間を消費し、新しいスタッフが欠いている可能性があるドメイン専門知識に依存しています。著者は、初期段階の研究者は自信を持って述べられているが根拠の薄い出力に誤解させられやすいことに注意し、キャリブレーションするためのベースラインの知識が少ないためです。

社員が専門知識の外のタスクにLLMを使用する企業環境でも、同じダイナミクスが現れています。自信を持った出力と不透明なソースの組み合わせは、エラーが検出されずに伝播する条件を作成します。

著者は、検証パイプライン、メタデータ露出、およびベンダーからのより明確なデータガバナンス開示によってサポートされる、より遅く、より慎重なAI導入を推奨しています。研究の限界には、小規模なサンプル、学術のみの参加者プール、およびデータ収集以降に研究されたツールの両方が更新されたという事実が含まれます。著者は、ユーザー実践とベンダーポリシーがどのように発展するかを追跡するための長期的で自然主義的な研究を求めています。

翻訳元: https://www.helpnetsecurity.com/2026/04/29/ai-prompt-confidentiality-researchers/

ソース: helpnetsecurity.com