出典:Andriy Popov(Alamy Stock Photo経由)
法制度が法廷で人工知能(AI)を責任を持って活用できる日はいつか来るでしょうが、その時はまだ訪れていません。多くの場合、AIが幻覚、ユーザーエラー、知識のギャップによって法制度に懸念をもたらすことが、事例を通じて明らかになっています。
昨年のグッドイヤーに対する訴訟では、原告側弁護士のブランドン・モンク氏が、生成AI(GenAI)を使って作成した書面を事実確認せずに提出し、存在しない判例や引用が多数含まれていました。米テキサス州連邦地方裁判所は判決で、「モンク氏がどのような法的調査を行ったのか(もし行っていれば)不明である」と述べ、GenAIのみに依存したことを指摘しました。裁判官はモンク氏に2,000ドルの罰金と、法分野におけるGenAIに関する講座の受講を命じました。
AIブームによって浮かび上がってきたのは、単なる技術的な問題だけではなく、法分野のユーザーにとって信頼の危機を生み出していることだと、Securiti社のAIガバナンス担当副社長カサンドラ・マルディーニ氏は説明します。
「この技術は真実性には関心がありません」とマルディーニ氏は言います。「すべては確率に基づくアルゴリズムであり、それはしばしば真実をもたらしますが、技術自体はとにかく答えを出そうとするため、必ずしも正しい答えを出すことに重きを置いていないのです。」
AIに関する課題や懸念に対処できなければ、法曹界の信頼性が損なわれる可能性があります。例えば、AIが証拠の捏造に使われる可能性もあると、Enterprise Strategy Groupの主席アナリスト、タイラー・シールズ氏は警告します。
しかし、より大きな懸念は蔓延する幻覚です。偽の引用や引用文を含む書面を提出すれば、弁護士が新たな依頼人を獲得するのは難しくなるでしょう。事実確認が不十分な場合、AIは架空の判例を作り出し、それが書面に含まれてしまうこともあります。裁判所が幻覚やディープフェイク、合成されたAI生成証拠を見抜けなければ、裁判所の信頼性も危機にさらされます。
「この瞬間を法曹界全体として真剣に受け止めなければ、信頼性の危機に陥る可能性があると思います」とマルディーニ氏は警告します。
AIリテラシーの促進
AIはさまざまな職業にとって強力なツールであることが証明されており、弁護士もその例外ではありません。例えば、AIは弁護士が数千件の法的書類を迅速に分析したり、交通事故の映像を強化したりするのに役立ちます。
この技術は、法律事務所が調査に費やす時間を削減できると、Corvus Insuranceのサイバーアンダーライティング担当副社長ピーター・ヘドバーグ氏は述べています。ヘドバーグ氏は、これにより利益率の削減にもつながる可能性があると付け加えます。
「課題は、AI、特にLLM(大規模言語モデル)はまだ子犬のようなもので、あなたを喜ばせ、聞きたいことを伝えようとすることです」とヘドバーグ氏は言います。「アルゴリズムは真実を伝えるために設計されているのではなく、ユーザーとしてあなたを引き留めるために設計されています。」
LLMを責任を持って使うには批判的思考が不可欠ですが、ユーザーにはそのスキルが不足しています。ヘドバーグ氏はまた、怠惰を利用しようとする傾向もあると述べています。
「現時点では、法律実務に効果的なツールではありません」とヘドバーグ氏は言います。「ChatGPTが調査や時間短縮に役立つ場面はあると思いますが、そのアウトプットを業務の一部にすべきではないと考えます。」
法分野でAIを安全に使う鍵はリテラシーだとマルディーニ氏は言います。弁護士や裁判官は、AIが何をできるのか、法的応用における技術の強みと弱みがどこにあるのかを理解する必要があります。
「どこで弁護士や裁判官として、私たち自身のデューデリジェンスや裁量を挟む必要があるのかを理解することが重要です」とマルディーニ氏は強調します。
デューデリジェンスには、自分自身や他の関係者の作業内容を事実確認することが含まれます。これは、AIリテラシーの欠如が何度も証明されているため、特に重要です。
この微妙な問題は、今年初めに弁護人クリストファー・カチュロフ氏が、幻覚を考慮せずにGenAIで完全に作成した書面を提出した事件で顕著になりました。さらに深刻なのは、約30件の誤りが見つかったことに対し、カチュロフ氏が「法的権威への引用がなぜ不正確だったのか」について説明できなかったことです(裁判所命令による)。
AIはまず成熟が必要
ディープフェイク動画やGenAIによる証拠生成が関与する事件の報告が続く中、法分野では責任あるAI活用の最適な方法を模索し続けています。多くの専門家にとってまだ新しい概念であるため、解決すべき課題もあります。昨年、ある裁判官はAIで強化された映像証拠を「刑事裁判における新しい技術」として却下しました。懸念は「不当な先入観」や陪審員の混乱の可能性に集中していたと裁判所文書は伝えています。問題の一部は、法律が常に技術の進歩に追いつこうとしていることにあり、特に技術の進歩が非常に速い場合はなおさらです。弁護士、裁判官、陪審員には教育が不可欠です。なぜなら、一般的な陪審員が証拠が本物かどうかを見分けられる可能性は低いからです。さらに、マルディーニ氏は、どれだけの陪審員がデータの出所を理解しているのか疑問を呈しています。
「私たちはまだ準備ができていないと思います」と彼女は述べ、AI証拠の認証を扱う連邦証拠規則901条は「良い出発点だが十分ではない」と付け加えました。
パラリーガルや他の下位スタッフも責任を問われる必要があります。彼らはChatGPTやGeminiのようなGenAIツールが求めた情報を何でも提供することを認識しているかもしれませんが、その結果について考えないかもしれないとシールズ氏は警告します。要するに、AIは人間を模倣しようとしますが、人間が間違いを犯すように、AIも間違いを犯すと彼は付け加えます。
訓練されていないユーザーがデータプライバシー上の懸念を引き起こす行動をとる可能性もあります。法律事務所は、特にデータ漏洩が増加する中で、クエリを行う際にどのようなデータをサードパーティのSaaSシステムに入力するかに注意しなければなりません。
「多くの場合、人々は単に知らないのです」とシールズ氏は言います。「そして一度効率化が見つかると、それを元に戻すのは難しいのです。」
専門家からの提言
GenAIが証拠を生み出すなどの悪意ある利用を完全に防ぐことはできませんが、AIによるエラーを減らし、正当性を高める方法はあります。それには、徹底した教育、適切なAI利用を規定する倫理規定の義務化、GenAI技術の利用に関する継続的な法教育が含まれます。例えば、弁護士、裁判官、陪審員にデジタル透かしや暗号学的検証、AI検出プロトコルについて教え、法的プロセスの最初から組み込むことなどが挙げられます。
「私たち社会は今まさにその地点にいると思います。裁判官、陪審員、弁護士が技術と向き合うだけでなく、人間そのものが自分の人生のあらゆる側面に影響を与えうる非常に高度な技術と向き合っているのです」とマルディーニ氏は述べ、人間が持つ深い理解が技術には欠けていると指摘します。「まさに転換点です。」