· 

自動運転の事故原因について

自動運転の事故原因について

  2018.06.30

 最近になって、テスラとウーバーの自動運転車の事故の原因がかなりわかってきた。その記事はハッカデイというブログに載せられたものを、ギガジンが翻訳して示している。

 ちなみにハッカデイはIT関係のブログとしては有名な存在で、2007年にはコンピュータ・ワールド誌のギーク・ブログ・サイト15のうち、10位に選ばれている(ウィキペディアによる)。

 

・まずテスラだが、2018年3月23日の事故はクルマが車線の分離帯に衝突し、運転手が亡くなった。これはオートパイロット機能が、高速道路の出口に向かう白線を追いかけてしまい、その結果、車線の分離帯に衝突したたために生じた。興味あるのは、この事故の再現を、テスラのユーザが自分の車で、示していることだ(ユーチューブに載っている)。同じ状況を再現したユーザの何ともいえない顔が印象的だ(注:衝突の前に止めている)。

 テスラのクルマは、こうした事態を避けるために前方監視用レーダーを搭載しているが、これは誤検知が多いため、カメラからの情報を重視し、結果的に分離帯を見落としてしまったようだ。

 

 またウーバーの事故(2018年3月)も、クルマに搭載されていたLIDARシステムは、前方に自転車か道の乗り物のあることを衝突の6秒前に検知していたが、このシステムも誤検知が多いため、緊急ブレーキシステムが無効になっていたために生じたという。

 

 これは統計学でいう、第一種の過誤(情報が正しいのに、棄却してしまう)と第二種の過誤(情報が間違っているのに、正しいとしてしまう)のジレンマの問題だ。第一種の過誤を小さくしようとすれば、第二種の過誤の可能性が高まる。逆の場合は、逆だ。自動運転車の場合は、第二種の過誤(検知器の誤動作の可能性)を小さくするために、その情報を無視するようにプログラムして(情報が正しいのに、捨ててしまう)、結果的にそれが事故につながった。

 

 ではどうすれば良いか。一つの方法は、道路の分離帯などにワーニング・ランプ(人間には見えなくて良い)をつけて、クルマの判断を助けることだろう。これはたとえば日本の高速道路で言えば、逆走の可能性のあるとき、それをクルマに警告するシステムを道路に装備することと同じだ。すでに高速道路では、ETCをつけているかどうかを、料金所に入る前に、事前チェックしてクルマに教えてくれる。したがって、こうしたワーニングシステムの装備は、それほど技術的には難しくないだろう。

 

 もう一つの可能性は、判断に迷ったときには、周りに走っているクルマの動きに従うことだ。周りのクルマが急に方向を変えなければ、その流れに従えば良い。これはセル・オートマトンの考え方を応用したものだが、検討の価値はある。

 

(参考)

・ギガジン、「自動運転で発生した2件の死亡事故への『誤検知』の影響とは」、2018年6月20日

・hackaday.com,"Fatalities vs False Positives: The Lessons from the Tesla and Uber Crashes"2018.06.18