出典:Kittiping Jirasukhanot(Alamy Stock Photo経由)
BLACK HAT USA – ラスベガス – 8月6日(水)– 世界中の主要都市の街中に自動運転車が登場する中で、攻撃者がハンドルを握ったら何が起こるのか、という疑問が浮かびます。
この疑問に答え、その結果をBlack Hat USA 2025のセッションで発表しようとしたのが、ZooxのプロダクトセキュリティエンジニアであるZhisheng Hu氏です。Zooxは「ロボタクシー」サービス向けに自動運転車モデルを展開しており、これは道路に登場し始めている多くの自動運転車オプションの一つです。
人工知能(AI)によって動作し、遠隔操作コマンドで制御される自動運転車は、運転席にいなくても人間がコマンドを送れる仕組みで、ますます人々の日常生活の一部となっています。現時点では人間のドライバーが同乗していますが、それでも安全性とセキュリティの両面で、これらの車両には厳格かつ積極的なストレステストが求められます。
「隠れた悪意あるコマンド」
AIが進路上の工事区間のためにルートに自信が持てない場合もあります。また、駐車場から混雑した道路に合流する際に困難が生じることもあります。そんな時、AIは遠隔操作員に新たな指示を求めるメッセージを送ります。これは乗客や他のドライバーにとっては良いニュースですが、自動運転車は依然としてリスクが残ります。人間はミスをします。そこで問題となるのは、意図的かどうかに関わらず、車両がどれだけ危険なコマンドを拒否できるかという点です。
Hu氏はファジングフレームワークを使い、自動運転車が他の車両や人との衝突を引き起こす可能性のある有害な遠隔操作コマンドにどのように反応するかを評価しました。ファジングは、ソフトウェアやオペレーティングシステムの脆弱性やその他のセキュリティ上の欠陥を特定するために、よりカオスな状況を作り出してテストする手法です。
これにより、Hu氏はより危険なエッジケースの見つけ方を学びました。
「ループを重ねるごとにファザーは賢くなり、最終的に隠れた悪意あるコマンドを発見するのに役立ちました」と彼は述べました。「最初は無害に見えても、適切な条件下では危険になり得るものです。」
今後の展望
工事区間での混乱はよくあるケースでした。しかし、Hu氏は、遠隔操作コマンドが一見問題なさそうに見えても、実際には高リスクな瞬間がいくつもあると警告します。ファジングはバグの発見、根本原因の分析、意思決定ロジックの保持に役立ったと彼は付け加えました。この「レジリエンステスト」で得られた多くの発見は、ファザーなしでは見つけるのが難しかったでしょう。
この研究の目標は、自動運転車を最も微妙なリスクに対しても堅牢にすることでした。しかし、AIを実際により賢くするのは困難です。
「私たちは本当に、自動運転車の安全性とセキュリティがスケールできるものでなければならないと信じています」と彼は述べました。「また、現実の攻撃者のようにシステムに積極的に挑戦することも重要です。」