「人命がすでに失われている」:数百人のGoogle従業員が署名した公開書簡でCEOに拒否を要求…

Image

  • Google従業員が軍事AI使用への懸念からCEOに公開書簡に署名
  • AI開発者は自分たちの技術が「機密目的」に使用されることを望んでいない
  • Googleは現在ペンタゴンとの契約交渉を進めている

600人を超えるGoogle従業員が、CEOのスンダル・ピチャイに対してAI技術を軍事目的で使用しないよう求める書簡に署名している。

この公開書簡は職員の深刻な倫理的懸念を強調し、「我々が重要な役割を担う技術の悪用により、すでに人命が失われ、国内外で市民的自由が危険にさらされている」と述べている。

「AIに従事する者として、これらのシステムは権力を集中させることができ、誤りを犯すことを私たちは知っています」と書簡は述べた。「この技術への我々の接近性は、その最も非倫理的で危険な使用を強調し防止する責任を生み出すと感じています」。

記事は以下で続きます

もう一つの「サプライチェーン・リスク」指定?

3月、AnthropicのCEOダリオ・アモデイはペンタゴンがClaudeモデルの使用を許可することを拒否しました。「大量国内監視」と「完全自動兵器」に使用される可能性があるという懸念からです。これにより国防長官ピート・ヘグセスはその企業を「サプライチェーン・リスク」と宣言しました。

その直後、OpenAIはAnthropicが残したギャップを埋めるために立ち上がりましたCEOのサム・アルトマンは軍事目的でのChatGPT使用を許可する意思があると思われることに対し、内部および外部から批判を受けています。

ペンタゴンとの新しいOpenAIの契約には、AnthropicがClaudeについて懸念していたのと同じChatGPTの使用を許可する多くの抜け穴がありました。契約は修正され、OpenAIのモデルは「米国市民または国民の意図的な追跡、監視、監視に使用されない。これには商業的に取得された個人情報または識別可能な情報の調達または使用を含む」と述べられました。

その直後、サム・アルトマンは従業員に、ペンタゴンがOpenAIは軍がAI技術をどのように使用するかについて「運用上の決定を下す」ことができないと述べたことを伝えました。

現在、Google従業員はAI企業の従業員とAIツール使用に反対する一般市民の数が増加することに参加しています。「今、誤った判断をすることはGoogleの評判、事業、および世界での役割に修復不可能な損害をもたらすでしょう」と、書簡は述べています。

2018年のGoogle職員を含むプロテストに続いて、同社はそのAI原則を修正し、「害を引き起こす可能性がある」場所ではAIツールを配置しないこと、および監視または武器のためにAIツールを「設計または配置」しないことを述べています。これらの条項は2025年2月4日にそのAI原則から静かに削除されました。



翻訳元: https://www.techradar.com/pro/security/human-lives-are-already-being-lost-open-letter-signed-by-hundreds-of-google-employees-requests-ceo-reject-unethical-and-dangerous-us-military-ai-use

ソース: techradar.com