Uber車のテスト中に人身事故.相手は死亡
- https://jp.techcrunch.com/2018/03/20/story-uber-self-driving-car-strikes-and-kills-pedestrian-while-in-autonomous-mode/
- https://jp.techcrunch.com/2018/03/22/2018-03-21-video-the-driver-of-the-autonomous-uber-was-distracted-before-fatal-crash/
- https://jp.techcrunch.com/2018/03/27/2018-03-26-uber-blocked-from-testing-self-driving-cars-on-arizona-roads/
自動運転中の死亡事故はこれが初めだ。Uberの事故からは事故責任と自動車保険に関して数々の疑問が生じている。自動車は自動運転モードだったが、運転席には安全を担保する役割のドライバーが着席していた。理論上、危険な状況が発生すればこのドライバーが事故を防止するために介入するはずだった。
そのビデオは、被害者が暗い通りを横切ろうとしたとき、Uberの自動運転によるVolvo XC90が時速60キロメートルで彼女にぶつかる様子を写している。そしてそのとき、自動運転車のお世話をすべき人物は、衝突の直前に下を向いている。その介助者が何に気を取られたのかは、よく分からない。また、明らかに自動運転車のセンサーの感知圏内を歩行速度で横切って行く被害者を、Uberのシステムが検出せず反応しなかった理由も、よく分からない。
- 車は自動運転モードでテスト中.ドライバーが1名同乗.
- 時間は夜十時頃.
- 快晴で,霧や砂嵐等,視界を遮るものはなかった.
- 道幅は広いが街灯は少なく,ヘッドライトが頼みの綱 → どうやら暗く見えるのは車載カメラの性能が低いせいらしい.
- 被害者の中年女性.黒っぽい服を着ていた.
- 彼女は買い物袋をぶら下げた自転車をおして,Uber車の左側から右側方向へ歩いて移動していた.だが渡りきれずにUber車の右前方に接触.
- Uber車のヘッドライトはロービームだった?
- Uber車のドライバーは前を見ていなかった?
場所は「730 N Mill Ave, Tempe, AZ 85281 アメリカ合衆国」のあたりらしい.marquee theater で検索すると出てきた.
- https://goo.gl/maps/zSavB5Mez7q
- https://www.nytimes.com/interactive/2018/03/20/us/self-driving-uber-pedestrian-killed.html
- https://twitter.com/EricPaulDennis/status/975898068976533504
軽く右へ曲がっているが,基本的には見通しの良い直線道路と思っていい.ここはmarquee theaterのおかげで,比較的人が横断することが多いポイントらしい.
情報は錯綜しているが,Uber側に問題がある可能性は高い.
- 相手は自転車を押してゆっくり動いている歩行者だ.それがUber車の左前方から正面をすぎて右前方までゆっくり歩いて横切っているのだから,位置関係から見て認識できないわけがない.*1 本来なら速やかに認識して減速か進路変更か適切な対応をしなければならなかっただろう.
- 車載カメラ(ドライブレコーダー?)で見えにくかったというのは問題ではない.見えにくいのであれば見えるようにより強力なライトを使うとかLiDARのような他のセンサーを組み合わせるとかするのが自動運転だ.
- 仮に自動運転車の機能としては赤外線カメラやLiDARで認識していたとしても,ロービームにすることはゆるされない.まだ完成品ではなく実験段階なので,同乗している人間のドライバーから歩行者が見えないと,いざという時の回避行動が取れないからだ.今回がまさにそのパターンではないか.
- ドライバーが注意力散漫でよそ見していた可能性についてはどうだろう.そもそも集中力の必用な仕事なのに,ワンオペでいいのか?もしPCなどの機器操作も必用なら,一人操縦は無謀.また1時間おきの休憩や仮眠は義務づけられているんだろうか.
平たく言えば,「見通しの良い直線道路で,快晴で霧などはなく視界良好で,路上をユックリ移動していた歩行者を,ほぼ正面からノーブレーキではねた」という実に単純な事故だ.
ハードウエアの故障でなければ,普通はソフトウエアの不備とドライバーのよそ見のコンボだろうな.ああいう相対速度がほぼ0kmの,横切り型の障害物検知は苦手だから.そういう意味ではTeslaの死亡事故の亜種かもしれん.障害物の大きさと犠牲者が異なるだけ.
カメラの見た目の明るさに欺されるなという記事も.
https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/
市販のカメラでもこのくらいは撮れるのだ.
ギリギリまで見えないなら地元民だって毎日のように同様の事故を起こしてるはずだ.そんなわけはない.Uberのカメラ画像が暗いか,さもなくばライトがロービームになっていたかではないか.だからまだ印象操作に踊らされてはいけない.
https://gigazine.net/news/20180322-uber-accicent-driver/
https://japanese.engadget.com/2018/03/21/uber/
http://www.itmedia.co.jp/news/articles/1803/22/news067.html
"Waymo executive claims his driverless technology would have seen the pedestrian killed by an Uber car"
http://www.latimes.com/business/la-fi-uber-pedestrian-waymo-lidar-20180325-story.html
Waymoは大きな事を言ってる.
あれが避けられないなら自動運転車を諦めるって事だから当然か.
https://jp.techcrunch.com/2018/03/27/2018-03-26-mobileye-chastises-uber-by-detecting-struck-pedestrian-in-footage-well-before-impact/
そこでMobileyeのCEO兼CTOのAmnon Shashuaは親会社Intelのブログで、同社のコンピュータービジョンソフトウェアが事故時の映像を分析した結果、被害者の人物を衝突の1秒も前に検出した、と述べている。
https://wired.jp/2018/03/23/uber-self-driving-crash-video/
このことから、Uberの安全ドライヴァー研修に関する疑問が浮上する。現在、Uberの安全ドライヴァー候補者は、“手動”の運転試験と筆記試験によって評価されている。その後、最初は専用のコースで、それから公道で3週間の運転研修を受ける。
「自律走行車の運転席にいるオペレーターの運動状態は、通常の人間が運転するクルマのそれとは大きく異なるものです」と、カーネギーメロン大学で自動運転を研究しているラージ・ラージクマールは述べる。「Uberのオペレーターに求められるのは、技術的な問題を特定して修正することだけではありません。Uberはオペレイターを、もっと異なるやり方で研修すべきです」
*1:初期の報道にあったような「死角から突然猛スピードで飛び込んできた」というわけではない.