自動運転ネタ:雪道を走るテスラが不安定,信号機認識,ファントムブレーキ
興味ぶかかったのでメモ.
「そんな走りで大丈夫か 自動運転で雪道を走るテスラが不安定すぎる ふらふらとまっすぐ走れない様子が恐ろしい」
https://nlab.itmedia.co.jp/nl/articles/2301/10/news129.html
その後も低速走行で進んでいると、雪に足を取られてかふらふらと安定しない様子が見られます。大きな道を直進するときも、まっすぐ走行できず、車体はガタガタと揺れており、ほとんどの場面で運転手がハンドルを操作していました。
本来であれば、もっとスムーズな走りをみせてくれるテスラの自動運転ですが、雪が降り積もっているという状況下ではまだまだ調整が必要な走り様子でした。
雪道が泣き所なのはテスラに限らないことは明記しておく.
基本がセンターラインしか見てないので,うっすら雪が積もってで路面が見えなくなると詰む.人間がやってるように町並みや電柱ガードレールなどを見て,総合的に判断することなどできないのだ.
「【自動運転】信号機認識に挑む / 走行画像15,000枚のアノテーションとYOLOXモデルによる深層学習実践」
https://zenn.dev/turing_motors/articles/70c5072c04d04c
信号認識は本当に難しいんだよ.規格統一してビーコンとか埋め込むにはコストがかかり過ぎるし.
信号機の認識が難しい理由として挙げられるものの一つが、コンテクスト(文脈)理解の困難です。
例えば、この写真はTURINGのデータセットで見つかったものです。右前のバスのガラスに信号機が反射して写っています。これはどのように理解すべきでしょうか。
人間は「この信号機は窓に反射している」というコンテクストから、この信号機の情報をどのように理解すればいいかを判断できます。しかしAIにとって、窓に反射した信号機と本物の信号機を区別することは容易ではありません。
以前有名となった事例に、「前方を信号機を積んだトラックが走っているために自動運転車が誤認識した」というものもあります。正しくコンテクストの理解ができている人間には信号機がトラックと共に移動するのはあり得ないとわかるのですが、AIはこれをまだ理解できていなかったのです。
コンテクスト理解はこのようなレアな場面でのみ必要なわけではありません。実は「どの信号機を見るべきか」という基本的な問題さえ、AIにとっては十分に難しいタスクとなります。下の画像で見るべきは右側の信号機ですが、これを判断するには「自分がこのあとどのように進むのか」という予測が必要になります。多くの人が自然にできることでも、AIにとっては非自明な問題です。
しかも,これですら問題の一部でしかない.
gigazine「イーロン・マスクが「完全自動運転」のベータ版を提供してから数時間後にテスラ車がクラッシュした様子を捉えた監視映像」
https://gigazine.net/news/20230112-tesla-crash-video/
https://theintercept.com/2023/01/10/tesla-crash-footage-autopilot/
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
— Ken Klippenstein (@kenklippenstein) January 10, 2023
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
高速道路(?)の追い越し車線側で,何もない所で急ブレーキをかけて停止.後続車が避けきれずに次々と玉突き衝突という形.まるで煽り運転なみの危険行為だろう.
テスラのブレーキで「危険を察知して回避」することもあるけれど,誤認識すればこういうリスクがあるのも当然の話.