2020年までの自動運転の実用化は不可能(知ってた)

それによりますと、課題としては自動運転車のセンサーが濃霧や降雪など悪天候のときに性能が低下するほか、山間部では自動運転車の走行に必要なGPSの精度が落ち込むことなどを挙げています。

そのうえで対策として、センサーやGPSの精度を補うために道路に磁気マーカーなどを埋設して車の位置を把握しやすくすることや、悪天候時には運行しないなど走行できる環境の制限を検討していくとしています。

そんなこと最初から分かってたこと.

https://b.hatena.ne.jp/entry/s/www3.nhk.or.jp/news/html/20191122/k10012187811000.html

  • id:ko2inte8cu 自動運転は、五輪には間に合わず。やっぱ無理でしたな

予想通りに.

  • id:dogear1988 自動運転の問題は、人間と違って、障害を認識出来なかったら最後まで認識しないまま走るところにあると思う。

Teslaがトラックにぶつかった奴なんかも同様だろう.*1 あれはLiDARがあれば検出できたタイプだけど,雨や霧ではあれと同じ結果になる可能性大.

  • id:pecan_fudge カメラ、LiDAR、ミリ波レーダの三本柱のうち、悪天候だとカメラが使えなくなりLiDARも影響受けるからなあ
  • id:vitamin_ace 今更感。LIDARだって雨の影響は免れないしな
  • id:nikunoki そりゃそうだよね。うちの車も先日の吹雪のときにはクルーズコントロール使えなくなったし。


  • id:augsUK Uberの事故前後まではLiDAR万能論だったのだが、人をひき殺す現実感がでたよね。あの車はカメラオンリー車だったとしても

そうだっけ.LiDARの制限事項については既知だったと思うけど.

とはいえライダーが全てを行うわけではない。例えば、それは標識の文字は平たいので読み取ることができない。そして、もし可視性が限られている場合には、比較的容易にシステムは混乱する。豪雪、濃霧、その他ユニットの視界を妨げるものに影響を受けるのだ。よって、ライダーは他のシステムと連携して動作する必要がある。

https://jp.techcrunch.com/2017/02/13/20170212wtf-is-lidar/

これが2017年2月の記事.Uberの死亡事故が2018年3月.

  • id:taruhachi 低下するのは当然。問題はどこまで低下するかであって、それに合わせてより安全運転よりのモードに移行すれば良い。可視光範囲外も使えるし、センサーも増やせるし、人間に対する優位性は悪天候下でもあると思う。

それは違うと思う.

センサーの機能が低下するのは人間と同じでも,「低下したことを検出すること」や「それに応じた事故処理」はプログラムには難しいから.センサーは同じでも,多様な状況下でのヒューリスティックな知的処理*2 においては人間の頭脳に軍配が上がる.「状況に合わせた安全運転」って,素人が考えるほど簡単ではない.

まして盲目状態での「安全モード」とは一体なんぞや.そしてそれにかかる開発費用と期間が一体どれほどのものになることか.

  • id:thesecret3 車ではなく道をインテリジェントにしたほうがいいのではないか。

それは結局,ゆりかもめポートライナーみたいな新交通システムになるわけで.

逆に路面にビーコンが埋め込まれてても一般道を走る場合は,道路を横切る自転車や子供の飛び出しを認識して自動回避するくらいの機能はいずれにせよ必要になる.それがたとえ悪天候時でもだ.

*1: http://javablack.hatenablog.com/entry/20160702/p1

*2:たとえば「カメラが白く霞んで見えるのは,カメラ故障ではなく霧のせいだ.」と画像から判断するようなことは.