ドライバーが安全に運転操作するための各種支援技術で豊富な開発実績を持つデンソーが、ADAS(先進運転支援システム)の開発に加え、自動運転関連の技術開発を急いでいる。自動車の安全性を追求する立場で見たとき、自動運転技術が作る未来はどうなるのだろうか。デンソー アドバンストセーフティ事業部長の隈部肇常務役員へのインタビューの後編では、自動運転関連での他企業との協業・共同開発の狙いや、技術開発における注力分野などを聞いた。

デンソーのポジションチャート


――デンソーでは、2016年から他企業との協業・共同開発の動きが目立つ(上図)。人工知能(AI)や画像処理関連だけでなく、移動サービスの会社への出資もある。こうした協業を積極的に進める狙いは何か。


隈部 協業にはいくつか狙いがある。例えば、開発のスピードを上げることだ。研究開発に費やす時間を買うという側面もある。すべてを我々が自前でやっていたのでは時間がかかってしまう。

ただし、スピードだけを求めているわけではない。目指すゴールが一つであっても、そこにたどり着くためのルートはいろいろある。いろいろなルートを研究するための協業もある。もちろん、協業したからといって自社開発をやめるわけではない。遠回りでも、自らが決めた方針でルートを見つけるべきだと考える領域もある。自分でコツコツやることが大事だと考えているので、研究開発においては複数ルートでゴールを目指すことはしばしばある。

協業のやり方もさまざまだ。例えばLiDAR(レーザーレーダー)については、個々の部品・技術はさまざまな企業のものを導入しているが、アセンブリをして商品化するところは自分でやっている。


――技術面で力を入れているのは何か。

デンソー アドバンストセーフティ事業部長 常務役員の隈部肇氏(写真:西田哲士)


隈部 今、一番注力しているのはセンサーデータを用いた画像処理の分野だ。画像処理の高機能化にはAIの応用が必要になってくるが、その実現に当たってはさまざまな分野での研究活動が欠かせない。それらすべてを我々だけで進めるのは難しいし、時間もかかる。今はさまざまな組織との協業を進めている。

AIに関しては、まずAIアルゴリズムの開発がある。これはパートナー企業や大学と進める。AIを育てる学習データの確保も重要だ。こちらは海外拠点やベンチャーと連携している。そしてAIを育てるには高速な計算機環境が必要になる。また、量産に当たってはハードウエア設計手法の研究も欠かせない。これらはパートナー企業と共同開発してセンサーに埋め込む計画だ。

画像処理の適用場面としては、ドライバーモニターと自動運転における周辺認識がある。ドライバーモニターでは、ドライバーの様子を常時カメラで撮影して画像情報を収集し、安全な運転操作が期待できる状況にあるかどうかを判断し、安全を確保できないと判断した場合に警告を出す製品を商品化している。AIを用いることで、モニターの精度を高めていく考えだ。


――協業でも力を入れている画像認識だが、新たな成果は出ているのか


隈部 大きな成果が出てきている。例えばこれまでの周辺認識では、人、クルマ、白線をそれぞれの辞書に照らして見比べて認識していた。今後は深層学習(ディープラーニング)を用いて、運転シーン全体を認識できるようになる。

道路とクルマを個別に認識するのではなく、「道路の上にあるクルマ」というシーンで認識する。シーンを認識することで、次のシーンの予測が可能になる。シーンに時間軸を組み合わせて解析・学習することで、クルマや人が、次にどちらに動くのかを学習できるようになるからだ。この予測により、自動運転の際に、自動車の安全な走行エリアとなるフリースペースの予測精度が高まる。安全な自動運転を実現するための大きな進歩と言えるだろう。


――深層学習を使うことで、これまでできなかったレベルの認識精度や予測精度を獲得できるというメリットはわかるが、運転操作においては、なぜその操作をしたのかという説明責任が求められる可能性がある。深層学習に基づく制御については、説明責任の観点で不安視する声もある。


隈部 確かに、深層学習のようなAI技術を用いると、精度を高めることができるものの、なぜそのような振る舞いをしたのかについて後から説明できないケースが生まれる危険がある。そこで我々は深層学習だけに頼るのではなく、「ルールベース」も取り入れることにした。

具体的には一定の条件に合致したときには、事前に定めたルールに従って操作する仕組みにする。こうすれば緊急時の自動運転操作について、説明責任を果たせるようになると考えている。