“AIひき逃げ”が多発? クルマの自動運転化が導く“無責任社会”という名の未来
自動運転の失速
誰もが疑問なく「自動車」という言葉を使うが、それは「動力が人や馬ではない」という意味だけで、操作は全く手動・足動である。日本だけでも戦後から現在まで65万人の死者と4800万人の負傷者が発生したのはまさにそれが理由である。 【画像】えっ…! これがトヨタの「年収」です(計9枚) 高齢者の運転トラブルなどから自動運転車の普及を期待する声があるが、日常生活に必要な一般道での自動走行ができる見通しは立っていない。自動運転の開発では、完全にドライバー依存の在来車を「レベル0」として、機能が追加されるごとにレベルが上がり、最終的にはどのような状況でも人間が介在せず公道走行する「レベル5」を目指している。 しかし積極的に自動運転を推進している米国のテスラ社でさえ、市販車ではまだ「レベル2(ドライバー主体でシステムは部分的な制御のみ)」である。そもそも工学的な定義ではレベル2は自動運転に入らないが、テスラ社のオートパイロットという宣伝に惑わされて 「自動運転だと思い込むドライバー」 による重大事故が多発し、米国の自動車史上最多ともされる200万台のリコールが発生している。
「AIひき逃げ」にどう対処するか
自動運転では多くの課題が置き去りのままだ。 例えば「自動」運転中の事故は誰の責任か。「レベル4」までは、制御システムが対応できない状況になるとドライバーが操作を交代しなければならない。一面では安全対策であるが、現実には何が起きるだろうか。 自動レベルが上がるほど人工知能(AI)レベルの制御システムが必要になるが、それは同時に 「ドライバーの意識が運転から離れる割合」 が増えることを意味する。2019年3月に、自動運転の普及を想定して閣議決定された道交法の改正案では、未施行ではあるが「レベル3」以上では運転中のスマホ・テレビ等を許容(現在も実態としては行われているが)するという。しかしこれは極めて危険だ。判断や操作がむずかしい局面ほど、人間の介在が突然に求められるからである。 米国ではかなり冒険的に公道実験を始めていたが、テスラ社の自動運転車が中央分離帯に衝突してドライバー(添乗員)が死亡した事故では、衝突6秒前にシステム側がドライバーに操作を求めるアラームを出したが対応できずそのまま衝突した。 自動運転車の事故で、ことに第三者を巻き込んだ場合、誰の責任になるのだろうか。ドライバーは当然ながらシステムのせいにして責任を取ろうとしない。誰も責任を取らない 「AIひき逃げ」 が多発するだろう。