ラスベガスの自動運転シャトルバスで軽微な事故
- http://jp.techcrunch.com/2017/11/09/2017-11-08-driverless-shuttle-in-las-vegas-gets-in-fender-bender-within-an-hour/
- https://gigazine.net/news/20171109-self-driving-shuttle-bus-crash/
- http://www.bbc.com/japanese/41926417
- https://www.cnn.co.jp/usa/35110207.html
- https://tandemthoughts.landlinemag.com/autonomous-vehicles/navya-self-driving-bus-crash-vegas/
- http://japanese.engadget.com/2017/11/12/1/
その事故はロボカーくんの落ち度ではなくて、運転手のいるセミトレーラーがバックしてきて接触したのだ。軽い接触であり、負傷者はいない。
路上で試験運行するほどの自動運転車には、障害物を避(よ)けたり、必要なら緊急停止する能力が必ずある。今回は、20トントラックがバックしてきたとき、ちょっと動いて避けるということが、できなかったようだ。
本来ならトラックから十分に距離を開けて止まるべきところを,近づきすぎたという問題.*1 人間のドライバーなら近づきすぎても横から追い抜いたり,後方の安全確認の後に数mバックするなどの柔軟な対応が可能だが、このタイプの自動運転バスにはそんな機能は実装されてない.*2
このタイプのは事前に決められた経路通りに巡回すること,信号を守ること,進行方向に障害物があれば停止することくらいしかできない.「トラックが道の真ん中でスピードを落としたから,この後バックで車庫入れする」と予測したり,「前の車がバックしてきたから,こちらもそれにあわせてバックする」のような高度な機能は最初から搭載されておらず,既知の制限事項の一つだと思う.*3 これは半ば専用の道路以外では運用できないし,難しい問題は事前に取り除いておく必要がある.そういう意味ではテスラやUberやGoogleのような,汎用型の自動運転車の事故とは区別して考えるべきだ.
むしろ興味深いのは,これは事前に予測できたことなのに,配達トラックがバックで駐車する場所を未然にチェックし,対策できなかったことだろうか.しかも既に試験運用もやっていたというのに.*4
法律的にはトラック運転手の過失だろうけど,自動運転的にはまだまだ改善の余地ありかな.*5
こんなトラックでもバックで車庫入れってするのね.それも誘導係もなしに.*6 *7
普通に考えれば,こういう所に近づきすぎたらいかんわな.
http://navya.tech/en/autonom-en/autonom-shuttle/
http://d.hatena.ne.jp/JavaBlack/20170113/p1
http://b.hatena.ne.jp/entry/s/gigazine.net/news/20171109-self-driving-shuttle-bus-crash/
- id:potohud あー、なるほど確かに自動運転が苦手そうな状況だな。 相手の車がやりたいことを認識して、それに対応するってかなり難易度高そう。
この手の(簡易?単純?)自動運転だと完全に対象外.Waymoでもどこまで認識しているのやら.
- id:kirifue 安全警察です。後ろを確認するだろと思って停止していたら、バックしてきてぶつけられたことなら2回あり(体験談)。人間は不完全なことを踏まえての自動運転テクノロジーが必要 #車 #事故
- id:chnpk すれ違えない細い道とかでこいつと鉢合わせたらどうしたらいいんだ。ひたすら道を譲らせられるのか。
- id:taji_hiro 複数運行したら、シャトルバス同士でデッドロック起こすだろ?
- id:kuniku (バックしないとすると)自動運転同士で止まったら動けなくなるんだろうか? バス側の過失(前方との車間距離不保持、警笛・注意喚起なし)はないのかな?
この手のシャトルバスは事前に計画した一筆書きのコースを,その通りにグルグル巡回するだけ.そういう事態は起きないように,コースが設定されている.
- id:napsucks テスラモデルSだと後ろから突っ込まれて急発進で自動回避する動画があるね。このバスはまだまだこなれてない感じ。
後ろから近づかれて加速するのと,前方から近づかれてバックするのは違うよ.
バックするのは逆走するということだから,安全確保義務がそんだけ重くなる.テスラなんかだと,後方確認用のセンサーは前方用より貧弱だったから,下手にバックすると事故の元.後ろにいる人間を轢き殺してからでは遅いのだ.
「その自動運転バスの公道走行は、「衝突事故」から始まった──「人間」が絡む課題の数々が浮き彫りに」
https://wired.jp/2018/01/28/las-vegas-shuttle-crash/
https://www.digitaltrends.com/cars/self-driving-bus-crash-vegas-account/
この際、すぐ後ろに別のクルマが来ていたので、後退できなかったという(バスに乗っていた男性の報告によると、後方には6mほどの余裕があり、人間の運転手であれば後退しただろうという)。シャトルバスは、配送トラックがゆっくりとバックしながらバスに当たるまで、その場でただ待機していた。
少なくともクラクションを鳴らすことはできたはずだが、ケオリスの説明によると、自動運転システムが予期しない方法でトレーラーが動いたため鳴らさなかったのだという。AAAのジョン・モレノは、「今回のケースは、われわれが回避しようと努力を続けている人的ミスの格好の例です」と述べている。
*1:たとえば人間のドライバーならトラックから10mあけて止まるところを,シャトルバスは通常と同じ2mの距離まで近づいて停止したとか,そういう話だ.
*2:「開発者はこういう事態を予想してなかったの?」という意見もあるが,当然予想していただろう.予想はしていたが実現が困難だったので実装しなかった.もし実装してたら,完成は10年以上も後れたかもしれない.
*3:Waymoの奴はその辺にも対応してるのだろうか?
*4:ソフトの改変は手間だが,運用でカバーすることはできたかもしれない。バスの前方に障害物があれば自動停止するんだから、1,駐車するより前の位置で一時停止.2,看板など目印になるものをトラックとバスの間に置く.或いは他の人が間に入る.3,トラックをバックで駐車.4,看板を除去.の順で処理すれば,駐車自体は可能だったはずだ.
*5:そういう意味ではUberの事故に近い.1,法的な責任は人間側にあって,自動運転車側に過失はない.2,しかし,もし自動運転車が「安全運転」していれば,簡単に回避出来た事故だった. http://d.hatena.ne.jp/JavaBlack/20170401/p1
*6:最初はラジコンのオモチャとかゲームとかCG合成とかを疑ったくらいだ.ラスベガスなんてカジノのある中心街を除けば田舎町みたいなもんだけど,それにしてもねえ.
*7:ドライバーは「見てなかった」どころか,ドライバーからは死角に入って「見えなかった」可能性もあるな.