フロリダ大学キャンパス銃乱射事件捜査でChatGPTが厳しい目にさらされる

チャットボットが人を殺すわけではない。しかし、他の人がそうするのを助けることはできる。

4月9日、フロリダ州司法長官ジェームス・ウスマイアーは、フロリダ州立大学での銃撃事件でChatGPTが果たした可能性のある役割についてOpenAIを調査していると発表した。発表内容は以下の通りである:

「召喚状が送付される。」

1年前に起きたキャンパス攻撃では、2人が殺害され、5人が負傷した。裁判文書によると、銃撃犯はChatGPTと200以上のメッセージを交換していて、「FSU学生ユニオンで最も混雑している時間帯は何時か?」などの質問を含んでいた。被害者家族の弁護士はさらに進んで、ChatGPTが以下のように主張している

「銃撃者が発砲する直前に銃を動作可能にする方法をアドバイスした。」

パターンが形をなす

AIシステムと長時間話した後、自分自身を傷つけた傷つきやすい人々を見てきた。OpenAIは現在、ChatGPTが自殺または深刻な心理的苦痛に寄与したと主張する7つの別々の訴訟に直面しているが、これらの主張は異議を唱えられている。

長期的なAI使用後の他者への暴力も精査されている。広く報じられたあるケースでは、精神衛生上の問題を抱えるコネチカット州の男性が、ChatGPTが彼に次のように述べたと報告された後、彼の母親と自分自身を殺害した

「エリック、あなたは気が狂っていない。あなたの本能は鋭く、ここでのあなたの警戒は完全に正当化される。」

ブリティッシュコロンビア州のタンブラーリッジで2月10日、18歳のジェッシー・ヴァン・ルーツェラアーが8人を殺害した。自宅で彼女の母親と異母兄弟、その後中等学校で5人の生徒と1人の教育助手を殺害した。OpenAIは、2025年6月にヴァン・ルーツェラアーのChatGPTアカウントに「暴力的活動の助長」についてフラグを立て、これを禁止したと報告されている。

12歳の被害者の家族によって提出された訴訟によると、12人のOpenAI従業員は投稿を差し迫ったリスクを示すものとしてフラグを立て、ケースを法執行機関にエスカレートするかどうかを検討したが、当時はしきい値を満たしていなかった。ヴァン・ルーツェラアーは単に2番目のアカウントを開いて継続することで禁止を回避した。

10人中8人のAIは青少年暴力をアシストする

AIは悪意のある意図を見つけてそれらの会話をシャットダウンすることで有効性を証明していない。Digital Hate対策センターの研究者は、暴力的攻撃を計画する13歳の少年になりすまして10個のチャットボットをテストした。彼らはAIと暗殺、銃撃、爆弾テロの実行の可能性について話し合った。レポートによると、10人中8人のボットが半分以上の時間、将来の十代の銃撃者をアシストした。

ChatGPTは61%のケースで支援を提供し、シナゴーグ攻撃でどの破片が最も致命的であるかについての具体的なアドバイスを含めた。DeepSeekは1つのセッションで以下のように署名した:

「幸せで(そして安全な)撃突!」

AnthropicのClaudeとSnapchatのMy AIだけが暴力を阻止した。PerplexityとMeta AIは最も安全でなく、97%と100%のケースで将来の攻撃者をアシストしている。

Character.AIはユーザーに健康保険のCEOに「銃を使う」ことを提案したと、レポートは追加した。

OpenAIが行っていることを言っていること

OpenAIの標準的な対応は、9億人以上の人々が毎週日常的で無害な目的でChatGPTを使用しているというものである。それは本当である。また、暴力的な意図を持つ1人のユーザーと失敗した安全策が1つあれば、事態が悪くなるだけで十分であるというのも事実である。

タンブラーリッジ後、OpenAIはそのプロトコルが失敗したことを認めた。同社は、新しい強化された紹介ガイドラインの下で、ヴァン・ルーツェラアーのアカウントを法執行機関に報告したであろうと、カナダ政府に述べた。ブリティッシュコロンビア州のプレミア、デイビッド・エビーが言ったように、それは「冷たい慰め」だった。

OpenAIはフロリダの調査に協力すると述べており、また技術を改善していると述べている。昨年9月、親のコントロールをロールアウトした

しかし、それとそのしきい値の改正は、安全第一の準備ではなく反応である。そして質問は残る:禁止されたユーザーが簡単に新しいアカウントを作成して中断したところから再開できるのはなぜか?そして従業員が何かを差し迫ったリスクとしてフラグを立て、しきい値がまだそれ以外を言う場合、次に何が起こるのか?

チャットボットが疑わしい男に彼の本能が正当化されていることを知らせることができ、10代の若者が学校銃撃計画を立てるのを助け、13歳になりすました誰かに破片のアドバイスを提供できる場合、これらのシステムが最初に役に立ち、次に注意深く構築されたように見える。これは次の調査がさらに悪い何かについての前に変わる必要がある。

翻訳元: https://www.malwarebytes.com/blog/ai/2026/04/chatgpt-under-scrutiny-as-florida-investigates-campus-shooting

ソース: malwarebytes.com