1.2 自動運転の「レベル」とは?

自動運転とは?

自動運転とは、人間が運転操作をしなくても、自律的に走行する機能のことで、センサーやカメラで周囲の環境を認識して、行き先を指示するだけで自律的に走行するものです。

2009年、Googleが自動運転乗用車を開発し、公道での実験を開始するようになってから自動運転技術に注目が集まり始め、いろんなメーカーが自動運転システムの商品化を発表しています。

ですが、各メーカーが発表された自動運転の技術レベルは人間が全く操作する必要のないものから、運転操作のみ自動化されたものまで様々なものがありました。

そのため自動運転といっても聞く人によっては、テスラのオートパイロットのような、アクセル操作やハンドル操作をアシストする運転支援システムの事を思い浮かべるかもしれませんし、ナイト財団のK.I.I.Tに搭載されているような完全自動運転を想像するかもしれません。

そのため、どの段階まで運転機能が自動化できているのか表す定義を作ろうという動きがおこりました。 この動きは2012年頃から本格的に始まり、世界各国の機関が定義を作成していました。

ですが、各団体が作る自動運転のレベルには若干の差がありました。
これを統一していく形で、2016年にSAE (米国自動車技術会)が作ったSAE J3016に書かれている”運転自動化レベル”に統一していく流れになりました。

この運転自動化レベルのことを自動運転レベルと呼ばれています。

日本ではJSAE(日本自動車技術会)が翻訳してJASO TP 18004”自動車用運転自動化システムのレベル分類及び定義”というタイトルで出しています。

自動運転レベルとは?

運転自動化レベルは0から5までの6段階あります。
簡単に言うと、次の通りになります。

・レベル0:何もなし
・レベル1:ハンドル操作か加速減速が自動
・レベル2:ハンドル操作と加速減速が自動
・レベル3:緊急時には人が運転しないといけない自動運転
・レベル4:特定の場所のみ自動運転
・レベル5:完全自動運転

レベル0:運転自動化なし

自動運転や運転支援のシステムがない、いわゆる普通の車です。
カメラやセンサーを使って警報を鳴らすシステムがついている場合もこのレベルになります。

レベル1:運転車支援

運転の一部を自動化することで、ドライバーの運転を支援します。
具体的には車のハンドル操作か加速・減速のどちらかをシステムが制御します。
システムが機能できない、あるいは作動が困難な場合はシステムを停止させて、すべての運転をドライバーが行います。

車線に沿ってハンドル操作を補助するレーンキープアシスト、速度と車間距離を制御するアダプティブクルーズコントロールがあり、2000年代はじめには、これらの機能を搭載した車はすでに登場していました。

レベル2:部分的運転自動化

複数の運転支援システムを搭載することで、車のハンドル操作と加速・減速両方をシステムが制御しています。

ハンドルとアクセル、ブレーキを自動制御する駐車支援システムや、同様に高速道路上で自動制御するシステムが実現しています。

ただし、レベル1と同じく、ドライバーはいつでも運転に介入できるようにしないといけません。

日産のプロパイロット、スバルのアイサイト、テスラのオートパイロットをはじめ、いろんな自動車メーカーが販売してます。

中には日産のプロパイロット2.0やスバルのアイサイトXの様なハンドルから手を離すことが可能なシステムも存在しています。
ハンドルから手を離せないシステムに比べて求められる技術力が高く、先進性が高いと評価されることから、これらを”レベル2.5″と呼ぶメディアも存在しますが、SAE上では「レベル2」となります。

レベル2まではどちらも運転機能の操作のみシステムが制御していて、認知、判断についてはドライバーが責任を負います。

レベル3:条件付き運転自動化

レベル2までは運転機能の”操作”のみ自動化されていましたですが、レベル3からは作動できる領域が限られるものの、運転機能の認知、判断、操作すべて自動になります。

なので、ドライバーは操作はもちろん、周囲の環境やシステムの動作の監視をする必要はありません。

ただし、システムが運転の継続が不可能と判断した場合、ドライバーに運転を代わってもらう必要があります。

この領域というのは場所、天気、時間帯、速度、道路状況などのことを指します。

・晴れの昼間の高速道路上だけ作動する
・天気は問わないけれど決められたルートしか作動しない
・ショッピングモールの出入り口から駐車場の間だけ作動する

この様に、一部のシーンに限って自動運転が出来るという事を示しています。

レベル4:高度運転自動化

レベル3との大きな違いはシステムが運転の継続が不可能と判断した場合、事故のリスクを最小限にするよう働くところです。

なので、車に乗っている人は運転する必要がなくなります。

ただし、レベル3と同様に作動できる領域は限られています。

2023年1月現在では、自動駐車システムや自動運転公共交通システムの実用化にむけて開発されていて、世界各国でタクシーや配送業みたいなサービスカー向けの実証実験が行われ、その枠組みの中で商用化をしている企業もいます。

レベル5:完全自動化

これまで人間が行ってきた運転操作は、すべての領域で制御できることが求められます。

みんながイメージするような自動運転がこれになると思います。

とはいえ、道路が冠水していたり、橋が崩壊していたりするような、”普通の車”ではまともに走行できない状況までは制御し続けることまでは求められません。

2023年1月現在、このレベルについて取り扱っている団体はほぼ存在しません。

求められる技術力が高いのも理由ですが、法律、社会受容性、倫理上の問題といった課題があり、レベル4ですら十分に議論しきれていない段階にあるためです。

なぜADASが自動運転レベルにあるの?


運転支援システムがレベルに入っている理由は、乗用車向けの自動車は運転支援システムを進化させて自動運転を開発していく流れになっているからです。

1990年代、日本、アメリカ、ヨーロッパで、ITS(高度道路交通システム)に自動運転技術を取り入れて交通事故や渋滞を無くそうとする計画が立ち上がり、高速道路を使った大規模な実験まで行いわれました。

実験自体はうまくいったのですが、いろいろ課題があってすぐに実現できないと判断されてしまい、2000年頃にはいずれの計画も凍結または縮小されてしまいました。

その一方、自動運転技術をドライバーの運転をサポートする機能としてなら使えるんじゃない?

となり、”先進的な”運転支援システム=ADAS(先進運転支援システム)として登場。
運転支援システムを発展させて自動運転を開発しようという流れになっていきました。

自動運転レベルの問題点

ただ、自動運転レベルにも問題点があります。

SAEの定義と法律で責任が異なる事です。

具体的には以下の2点が挙げられます。

  • レベル3でも運転手が責任を問われる可能性がある
  • レベル2でも製造元や販売店が責任を問われる可能性がある

レベル3でも運転手が責任を問われる可能性がある】

自動運転レベル3の場合、SAEの定義上ではシステム側に責任があるのに対し、2025年1月時点ではドライバーにあります。

先ほど、私は自動運転レベル3の説明について、こう書きました。

“レベル3からは作動できる領域が限られるものの、運転機能の認知、判断、操作すべて自動になります。

なので、ドライバーは操作はもちろん、周囲の環境やシステムの動作の監視をする必要はありません。”

これだけ見ると、”自動運転中に事故を起こしてもドライバーは一切の責任を取らなくても良い”と誤解する人がいると思います。

ですが日本の法律上、特に事故が起きた時の責任は安全運転義務が運転手にあるので、「必ず無罪になる」とは限りません。

これは、日本の道路交通法の上位にあたるジュネーブ道路交通条約が

「運転者は、つねに車両を適正に操縦しなければならない」

とされており、自動運転に対しても、このルールを守らないといけないからです。

このルールを守った上で自動運転を公道で走行することを法的に認めるにはどうすれば良いか考えた結果…

「自動運転システム(法律上の名称は”自動運行装置”)を使う=運転手が運転する」

となりました。

つまり、「自動運転システムを使う」と言うことは法律上、ハンドルやアクセル、ブレーキを使うのと同じってことになります。

では、なにをもって法律上「自動運転が認められる」と言っているのかというと…

「自動運転中にカーナビやスマホを注視しても”””違反にならない”””」

…です。

“違反にならない”というのは”事故を起こして良い”って意味ではありません…

つまり、法律上「自動運転中にカーナビやスマホを注視して事故を起こして良い」とは書かれていないので、事故の内容によってはドライバーに責任がいく可能性があります。

例えば、

  • 前を走行している車が急ブレーキをかけ、こちらのブレーキが間に合わずにぶつかってしまった時
  • 車線変更してくる車に対して、ブレーキを踏めば接触を回避できたのに、踏まずにぶつかってしまった時 (イメージ的には以下の動画の23:37で、ブレーキを踏まずに接触した感じです。)

こんな感じの事故を起こしてしまった時、自動運転中だったからと言っても、ドライバーに対して責任が問われる可能性があります。

【レベル2でも製造元や販売店が責任を問われる可能性がある】

SAEの定義上はもちろん、各国の法律上でも運転手が責任を持ちます。

その為、ADASを作動中に事故を起こした場合は運転手の責任になります。

ですが、場合によっては企業側が責任を問われる可能性もあります。

2025年1月時点では企業側が書類送検されたり、

自動運転、過信は危険 追突事故受け国が注意促す - 日本経済新聞
自動運転機能の過信が原因とみられる交通事故が昨年11月に千葉県内で起きたことを受け、国土交通省と警察庁は14日、自動車販売店などでつくる「日本自動車販売協会連合会」(東京・港)などに対し、自動車ユーザーらへの注意喚起を求める通達を出した。国...

裁判で和解するケースが確認できます。

Tesla settles lawsuit over Autopilot crash that killed Apple engineer
Tesla has settled a wrongful death lawsuit brought by the family of Apple engineer Walter Huang who died in a Model X cr...

また、自動運転HMIが実施した模擬裁判ではドライバーと企業の過失割合が6:4と重めの割合になっています。

https://www.jsae.or.jp/files_publish/page/1014/%E3%80%8C%E8%87%AA%E5%8B%95%E9%81%8B%E8%BB%A2HMI%20%E5%A7%94%E5%93%A1%E4%BC%9A%E3%80%8D%E3%80%80%E3%83%AC%E3%83%99%E3%83%AB2%20%E9%81%8B%E8%BB%A2%E8%87%AA%E5%8B%95%E5%8C%96%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%81%AE%E4%BB%AE%E6%83%B3%E4%BA%8B%E6%95%85%E3%81%AB%E5%AF%BE%E3%81%99%E3%82%8B%E6%A8%A1%E6%93%AC%E8%A3%81%E5%88%A4%E3%81%AE%E5%AE%9F%E6%96%BD%E5%A0%B1%E5%91%8A.pdf

仮に裁判となった場合、主に争点となるのは次の通りです。

1.設計上の欠陥
2.適切な説明がなされていたか
3.運転手の過失との兼ね合い

特に2番目の適切な説明がなされていたかについては、

・レベル2の運転支援システムは機能や性能が多様であり、ドライバーが全てを理解するのは困難
・システムがトラブルを起こした時に対応するのはなおさら困難
・しかし、代表的な事例をあらかじめドライバーに注意・説明・体験させるなどすることは可能

とされる可能性があります。

なので、取扱説明書を渡しただけでは説明は不十分とされ、メーカーは製造物責任法上の欠陥、販売店は説明義務違反を問われる可能性があります。


このように、SAEの定義と法律上での取り扱いが一致しておらず、混乱を招く可能性があります。

スポンサーリンク
一般論
シェアする
ソラ@自動運転をフォローする

コメント

タイトルとURLをコピーしました