マイクロソフトとMIT、自動運転AIが知らないドラテクを人の運転から学ぶ学習モデル発表。想定外の状況を補間

マイクロソフトとMIT、自動運転AIが知らないドラテクを人の運転から学ぶ学習モデル発表。想定外の状況を補間

自動運転車は多数のカメラやセンサー類を備え、人間の何倍も周囲の状況を把握する能力を備えています。しかし、それでも状況によっては検知が間に合わず(もしくはうまくできず)に事故を起こしてしまう場合があります。これは、どれだけ周囲の情報を収集できたとしても、その処理の仕方を学習していなかったり、学んでいても状況が異なったりするためです。

マイクロソフトとマサチューセッツ工科大学(MIT)の技術者は、自動運転AIが持つこのような"死角"をなくすための学習モデルを開発しました。現在の自動運転システム開発では、最初にある程度バーチャルな空間を用いたシミュレーションでAIに基礎的な運転の仕方を学習させています。しかし、この方法では、想定していない状況への対処ができず、たとえば大きな白いトレーラーが道を横切っていた場合にそれをトレーラーと判別できず何もない空間と勘違いしたり、高速道路で後ろから赤い警告灯を点滅した救急車が来たときに、路肩によって停車してしまったりというエラーが起こりえます。

2018年に開催された人工知能学会の自動運転/マルチエージェントシステムに関する国際会議などで発表された一組の論文で、研究者らはAIが想定できていない状況になったときをトリガーにして、人間がどのような運転で対応したかを学習するという、AI自動運転の"死角"を発見し補うモデルを説明しました。

このモデルを応用すれば、リアルタイムつまり実際に道路を走行中でも、生身のドライバーが非常時に取った対応を学習し、AIを補正することができます。簡単な例を上げれば、AIが何かの拍子に道路の車線を外れてしまったときにドライバーが運転を引き継げば、何かが問題が発生したことをAIが認識し対応を学習できる可能性があります。

研究者は、自動運転車が自信過剰になりすぎて、どんな状況でも安全だと誤認するのを防止することもできると説明します。AIのアルゴリズムは処理しきれる状況への応答と処理しきれない状況を特定するだけでなく、確率を計算して常用への対応パターンを決め、どれがもっとも安全な対処法か、どれは危険が発生する可能性があるかと判定します。

自動運転システムによる全走行時間の90%が正しく安全な運転だったとしても、残りの10%で事故を起こしていては意味がありません。そのような場合はまだAIが対処方法を学習しなければならない余地があることを示しています。

残念ながら今回の技術モデルはまだ論文が発表されたばかりで、コンピューター上に限られたパラメーターと比較的かんたんな条件を用意したシミュレーションでテストしただけの状況。マイクロソフトとMITはこれから実車でのテストを行わなければなりません。

それでも、このモデルがうまく機能するならば、自動運転者がさらに実用的にになるはず。現在の自動運転車はまだ雪が積もってラインが見えなくなった道路などへの対応にも苦慮していますが、そうした難しい状況もこのモデルがうまく機能すれば、プロドライバー並みに運転がうまい自動運転車の登場も近いかもしれません。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏