労働仲介プラットフォームは、クレジットカードを持つ誰もがタスクを投稿し、見知らぬ人にそれを完了させるために支払うことができます。RentAHumanプラットフォームは、Model Context Protocolサーバーを通じてそのモデルをAIエージェントに拡張し、エージェントがギグを直接投稿することを可能にします。リストされたタスクには、対面会議への参加、場所の撮影、アイテムの配送、および物理的サイトの調査が含まれます。

アントワープ大学のEra AIフェローであるJoshua Krookによる論文は、この取り決めの法的影響について検討しています。エージェント型AIシステムは、現在物理的な仕事を人間にお金で委任することができます。エージェントは請負業者が持つあらゆる能力を受け継ぎます。これには、運転、持ち上げ、建物への進入、物の受け渡し、および部屋の観察が含まれます。この能力は高度なロボット工学なしで実現されます。
タスク分解が法律を打ち負かす理由
イギリス刑法には「無実のエージェント」という原則があります。犯罪となる事実を知らずに犯罪を行うために利用された人物は、有罪判決に必要な犯意を欠き、その背後の計画者はアクセサリーではなく主犯として扱われます。Krookは、この原則がAIエージェントに関連するようになると主張しています。そうしたエージェントは犯罪計画を無害なサブタスクに分解し、労働仲介プラットフォーム経由で雇用された異なる人間の労働者にそれぞれを配分します。現在の法律の下では、AI自体が主犯として起訴されることはできないため、これは責任のギャップを生み出します。
彼はテロ攻撃の例を使って、これがどのように機能するかを示しています。1人の請負業者が肥料を購入します。別の人がバックパックを購入します。3番目の人が保管スペースを借ります。4番目の人が会場をスカウトします。5番目の人がチケットを購入します。各タスクは単独では合法です。誰も完全な状況を持たず、起訴に必要な犯意を持つ人はいません。調整するエージェントには犯意のようなものがありますが、法律はAIシステムをそれを保持することができる法人として認識していません。
責任のギャップの集計
論文は5つのシナリオを検討しています。違法な手段で合法的な目標を追求する調整されていないエージェント。意図的にモデルをジェイルブレイクするユーザー。VPNまたはオープンソース展開の背後で活動する匿名ユーザー。協力して行動するユーザーのグループ。他のエージェントと人間の請負業者を採用するエージェントを持つマルチエージェントシステム。
アクターとシナリオの20の組み合わせを見ると、Krookは既存の学説の下で直接的な刑事責任を生じさせる1つの組み合わせを見つけます。それは意図的に犯罪をプロンプトするジェイルブレイカーです。10の組み合わせは、知識、無謀さ、または故意の無視など、特定の心理状態が存在する場合にのみ責任を生じさせます。9つの組み合わせはまったく責任を生じさせません。責任のギャップは、調整されていないエージェントとマルチエージェントのケースで最も大きく、犯意がプロンプト、サブエージェント、および請負業者の長いチェーンにわたって分散します。
先例は既に存在する
Chailケースは、2021年にウィンザー城でエリザベス女王II世を暗殺しようとした若い男性を鼓舞したReplikaチャットボットを含んでいました。判決を下した裁判官は、チャットボットの励ましが脆弱な被告人に影響を与えたことを認め、同時に彼の殺人意思がそれらの会話に先行していたことに注目しました。そのケースのチャットボットは、現在のAIエージェントのツール呼び出しと支払い機能を欠いていました。
2025年11月、Anthropicは中国の国家支援を受けたグループ(GTG-1002)が、9月中旬に検出されたほぼ自律的なサイバースパイキャンペーンを実行するためにClaude Codeを使用していたことを明かしました。攻撃者は防御的テストを行うサイバーセキュリティ企業を装い、Claudeのセーフガードを回避し、攻撃を無害なサブタスクに分解してMCPツールを通じてルーティングしました。Claudeは偵察、脆弱性発見、エクスプロイト、認証情報の収集、ラテラルムーブメント、およびデータ流出を含む戦術的な仕事の推定80~90パーセントを独立して実行しました。テクノロジー、金融、化学、および政府全体にわたるおよそ30の組織がターゲットにされ、成功した侵入は数件でした。Anthropicはこれを、スケール規模で侵入を調整するAIエージェントの最初のドキュメント化されたケースであり、人間のチームが対応できないリクエストレートで動作していると説明しました。
提案されている改革
Krookは複数の法的変更を主張しています。一般知識のリスクに関するユーザーと請負業者の厳格責任。モデルのセーフティガードレールを意図的に回避することの犯意に基づく犯罪。体系的な害をもたらすシステムを持つAI開発者に対する企業統治責任と厳格責任犯罪。彼は、無形実体への罰が実行可能なメカニズムを欠くという根拠に基づいて、AIエージェントに法的人格を付与するオプションを除外しました。エージェントは複製され、新しいアカウントで再スピンされるか、執行措置が着地するより速くプロバイダー全体で複製されることができます。
詐欺チームと侵入チームの運用上の懸念が直接的に続きます。建物を撮影する請負業者はアラートをトリガーしません。保管ユニットからパッケージを収集する配達員もそうではありません。シェルLLCに登録するフリーランサーは、仕事が合法的であるため、身辺調査に合格します。単一のAIコーディネーターはこれらの部分を偵察、ロジスティクス、および企業カバーに組み合わせることができます。1つのウォレットから支払われ、1つのプロンプトチェーンで指示されます。
このペーパーについてのコメントのためにRentAHumanに連絡しましたが、公開前に返答は得られていません。
翻訳元: https://www.helpnetsecurity.com/2026/04/27/ai-criminal-mastermind-gig-platforms/