この記事をまとめると
■日産がドライバーレス運行試乗試乗会を行った
■今回の試乗会ではドライバーレスによる自動運転を体験することができた
■自動運転には高い安心感がある一方で自動運転車を取り巻く環境に課題があることを感じた
技術的にはもうほとんど実現している自動運転
クルマで移動する時間が読書や映画を楽しむ趣味の時間へと変わる。そんな近未来を思わせる新しいカタチの移動体験を叶える自動運転。日本で実現するにはまだ先の話かと思っていたら、案外すぐ目の前までやって来ていたのだ。
私がそう実感したのは、日産が行った横浜にある日産本社を起点に行った試乗会だ。その試乗会では、アプリでタクシーを呼び、移動するシーンを体験するというシンプルなものなのだが、なんとそのタクシーには “ドライバーがいない”のだ。無人タクシーこそ私が頭に思い描いていた近未来そのもの。さらに驚いたのが、試乗コースはマラソン大会のように封鎖や規制を一切行わない、日本初(日産調べ)となる一般車と混走するドライバーレス運行試乗だったのだ(※警察からの道路使用許可取得済み)。
日産のドライバーレス自動運転試乗会画像はこちら
さらに、当日の試乗コースには道路工事による車線規制や路上駐車、駐車場からの入退出するクルマなどを避けなくてはならないような難しいシチュエーションが多く見受けられた。
そんな高いハードルのもと、お客として私がアプリで自動運転車のタクシーを呼び、目的地まで移動(スタート/ゴールが同一となる約4kmのルート)を乗車体験することと、別視点として日産本社内に置かれた自動運転システムの遠隔監視操作者と一連のシステムの様子を見学することで自動運転技術の「今」を見ることができた。
日産のドライバーレス自動運転試乗会の監視室画像はこちら
こういった自動運転技術が進む背景には国の方針が大きく関わっている。この先さらに加速していく日本の高齢化&少子化社会を見越し、地域公共交通(主にバス)の維持や改善による運行の効率化や、今後増加するドライバー不足への対策として自動運転化への積極的な姿勢は世界から見ても非常に前向きなのが特徴といえる。国の目標として、2025年度には全国50カ所にドライバーフリーとなる無人自動運転移動サービスを展開することを掲げているが、今回の試乗会のように限定的な場所のみとなるようだ。そこで、自動運転にはレベルわけがあるのでここで触れておこう。
レベル1:ドライバーが主体で運転するなかで、システムがアクセル・ブレーキ操作またはステアリング操作のいずれかの運転支援を行う。
レベル2:ドライバーが主体で運転するなかで、システムがアクセル・ブレーキ操作およびステアリング操作の複数の運転支援を行う。
レベル3:特定の条件下(環境や領域)において自動運転システムが運転操作の全部を代替するが、困難な状況においてはドライバーが運転を替わる条件付きの自動運転を行う。
レベル4:特定の条件下(環境や領域)において自動運転システムが運転操作の全部を代替する。
レベル5:システムが運転操作の全部を代替する完全な自動運転を行う。
このように、レベル2までは運転支援システムとなるため、運転支援を受けている間はドライバーが常に状況を監視する必要がある。そして、レベル3からシステムが運転を行うようになるため「自動運転」の名称が使えるようになるのだ。レベル4以降は現在のタクシーのような利用が可能になり、運転に一切かかわらずに移動ができることになるのだ。
日産のドライバーレス自動運転実験車両の車内画像はこちら
本題に戻るが、今回の試乗会ではレベル4に該当する完全な無人車による自動運転移動サービスの体験というわけではなく、レベル4を想定した実証実験をするための遠隔型自動運転(レベル2相当)を使った実証となる。
いままでとの違いとして、2024年までのリーフを使ったレベル2実証試験ではセーフティドライバー(監視役)が運転席に着席し、その上で遠隔でシステムを常時監視するものだった。今回は助手席に保安員が同乗し、運転席には誰もいない状態での運行となり、何かが起きた際にはすべて遠隔で運転することが可能な状態での実証試験なのだ。
日産のドライバーレス自動運転を体験する番場さん画像はこちら
ここで今回の自動運転実証試験システムについて紹介しよう。
今回試乗で使用した実験車はセレナをベースにした最新型だ。開発には日本国内だけでなく、日産先進技術開発センター・シリコンバレーで開発された技術や、英国での自動運転研究プロジェクト「evolvAD」などで得られた知見を最大限活用している。従来の実験車のリーフと比べ、セレナのルーフ部には従来より性能が高いカメラ、レーダー、ライダーなどのセンサー類を複数搭載させ、車両を中心とした周囲360°を常時監視する。
日産のドライバーレス自動運転の実験車両画像はこちら
それらのセンサーによって建物やガードレールといった建造物や、クルマ、バイク、人などの動体も同時に検出し、システム(AI)が動くものと動かないものとを区別化する。リアルタイムでレーダーとライダーがセンシングしている様子を見るのは、私自身、初となるのだが、ライダーの解像度の高さに驚いた。歩いている人の手足の動きなども把握できるほどに詳細を捉えているのだ。もちろんライダーの照射先の物体の陰になる部分を捕捉することはできないが、セレナの高いルーフによって影の量が抑えられている印象があった。目線が低いクルマより高いクルマのほうが見通しよいのと同じだ。
これらのセンサーによって検出したリアルタイムデータを、高低差やカーブのきつさ、車線数や車線の幅などの事細かな情報を持つ3次元高精度地図データ(以降:HDマップ)上へ統合させ、車両に搭載されたAIが車外環境の認識や動体の行動予測による判断と制御機能が進化したことで、より正確な走行ができるようになった。
センサーによって検出されたリアルタイムデータ画像はこちら
さらに、走行ルート上で遭遇しうるシーンの動作を網羅的に検証し、冗長性技術を搭載し、異常時の即時停車機能を確立したことで、車内に運転者がいない状況でも安全性が確保されたのだ。ここでいう冗長性技術とは、何か不測の事態が起きた際にクルマが自己故障診断を行い、不具合が起きた別の回路を通じてクルマをその場に停止させることができるものだ。現時点ではその場に停止するシステムのみとなるが、将来的には安全な路肩へ移動して停止するなどを見込んでいるという。このような安全性が担保されたことによって無人による自動運転サービスが実現できるようになるのだ。