「視線不要」運転の到来と責任問題
「視線不要」運転と呼ばれる新しいタイプの部分自動運転技術が、自動車業界で急速に普及しつつあります。先月、General Motors(GM)もこの技術の導入を表明しましたが、システムに問題が発生した場合の責任の所在については、明確な説明が不足しています。
GMのシステムは、自動運転の6段階スケールでLevel 3に位置付けられます。これは、ドライバーがハンドルから手を離し、特定の米国高速道路では道路から視線を外すことも許容されるものです。GMは2028年までにキャデラック・エスカレードIQからこのLevel 3システムを市場に投入する計画です。しかし、Level 3システムでは、ドライバーは依然として、システムから介入を求められた際に迅速に運転を代行する準備が必要であり、これに失敗した場合、事故の責任を問われる可能性があります。
広がるLevel 3への動きと法規制の現状
GMに加え、Ford、Jeepを傘下に持つStellantis、HondaもLevel 3技術に注力しています。Mercedes-BenzはすでにLevel 3システム「Drive Pilot」を導入していますが、これはカリフォルニア州とネバダ州の特定の高速道路でのみ合法です。ドイツや日本でも一時的な許容があるものの、Level 3はほとんどの場所で厳しく制限されており、法整備が追いついていません。
規制当局にとっての大きな課題は、自動運転システムと人間ドライバーの間で、どのように責任を割り当てるかという点です。Mercedes-Benzは、システムが作動中に発生した事故については責任を負うとしていますが、ドライバーが介入要請に応じなかったり、システムを誤用したりした場合は、ドライバーの責任となります。TeslaのLevel 2システムであるAutopilotやFull Self-Drivingでは、衝突の1秒未満前にシステムが解除されるケースが多数報告されており、責任の曖昧さが指摘されています。
Level 3の矛盾と人間の課題
Level 3の定義には矛盾が内在しています。ドライバーは運転から解放される一方で、迅速な介入のために常に準備を整えておく必要があります。計画的な移行(例えば、マッピングされたゾーンへの出入り)はスムーズに行われるかもしれませんが、突然の悪天候や路面状況の変化といった予期せぬ事態は、システムの信頼性を低下させる可能性があります。
研究によると、人間は「ループ外」からのタスク回復に一般的に苦労することが示されています。長時間運転から切り離されていた場合、緊急時に過剰なステアリング操作や急ブレーキなど、不適切な反応をしてしまうリスクがあります。これは、危険な、あるいは致命的な結果につながる可能性のあるドミノ効果を生み出す可能性があります。
進化する判例と責任の行方
すでに、自動運転システム関連の事故において、人間ドライバーに責任を負わせる判例が出始めています。アリゾナ州では、Uberのロボタクシーのセーフティドライバーが過失致死罪で有罪を認め、TeslaのドライバーもAutopilot使用中の事故で過失致死罪を認めました。これらのケースでは、自動運転システムが存在しても、最終的な責任は運転者にあるという見方が示されています。
しかし、自動車メーカーが責任を共有する可能性を示唆する判例も存在します。フロリダ州での陪審員評決では、Teslaが2人の死亡事故に対して部分的な責任を負うとされました。モビリティ専門の弁護士であるマイク・ネルソン氏は、自動運転関連の法的判例はまだ初期段階であり、裁判官、弁護士、陪審員が技術的な専門知識を欠いているため、将来の判決は予測不可能なものになる可能性が高いと指摘しています。この「混沌とした中間期」において、自動車メーカーは可能な限り透明性を保つことが賢明であるとされています。
元記事: https://www.theverge.com/transportation/812439/eyes-off-driving-level-3-legal-liability-crash
