連発する「高齢ドライバー事故」とロボット法人格

5月21日(火)6時8分 JBpress

自動車大手ボルボとシンガポールの南洋理工大学が共同開発した自動運転の大型電気バス(2019年3月5日撮影)。(c)ROSLAN RAHMAN / AFP〔AFPBB News〕

 5月15日午前10時半頃、千葉県市原市の公園で、暴走した乗用車が砂場で遊んでいた園児たちの間近に突っ込み、庇おうとした女性保育士が右足を骨折する事故が起きました。

 この事故は、公園近くの駐車場に車を停めていた「65歳の運転者」が、発進しようとしたところで「突然暴走し」、フェンスを破って公園に突入したと報じられています。

 65歳という年齢は、現在の日本社会の中では決して「高齢」とは言えないかもしれませんが、還暦を過ぎているわけですから「若年ドライバー」とも言えないでしょう。

 この運転者は「自動車運転処罰法」違反の容疑で逮捕され、報道には呼び捨てで実名も記されていました。

 今回の、千葉県市原市の事故を起こしたのと同じ車種については、非常に多くの事故が発生していることがすでに報じられ、実質的に社会問題になっているかと思います。

 記憶に新しいところでは、東京の繁華街、池袋で発生した事故が、同じ車種によるものであったと伝えられます。


同時代先端技術の粋を集める自働運転

 2019年4月19日、池袋で発生した事故では多数の死傷者が出、多くの報道が出回りましたので、ここではポイントだけを記しましょう。

 池袋の事故の運転者は87歳、千葉の事件より20歳以上年長で、まさに高齢ドライバーによる事故であることは間違いありません。

 こちらの事故では、入院していた運転者の「男性」が退院、警察の任意聴取を受けていると、この原稿の校正時点では報道されています。

 報道陣の問いかけに「申し訳ありません」と応じたとのことですが、帽子とマスクで顔を隠して歩く姿を映した動画は、歩幅が10センチ程度であるように見えました。

 しかし、ドライバーが高齢であることと、事故そのものが「高齢ドライバー」であることに起因するかは完全に別の問題で、厳密に区別する必要があります。

 こうした区別をさらに厳密に問わねばならないのが「自動運転」システムのアクシデントです。

 仮に、運転者が何一つ運転操作せず、あるいは操縦不能の状態で結果的にアクシデントが発生してしまったら、ドライバーの責任を問うことができるのでしょうか?

 あるいは、そうした責任を問うべきでしょうか?

 自動車の場合は、運転という操作が伴いますから、むしろ分かりにくいかもしれません。

 自動運転技術というのは、実は、高度なセンサーの技術、つまりIoTの粋を集めたテクノロジーと、リアルタイムAIの高速認知判断とが合体した総合的なシナジーで、ちょうど100年前の「戦艦」に近いものがあると言える存在になっています。

 20世紀初頭、世界の強国は競って巨大戦艦を建造しました。

 その代表格が、ちょうど100年前に引退した英国海軍が世界に誇った「ドレッドノート」(1906−19)で、現在でも「超弩級」などといった表現で、度肝を抜くような凄まじい巨大システムを代表するものとして、ドレッドノートの名は断片的に残っています。

 「建艦競争」こそ、帝国主義列強が自国の国威を最高に発揮する晴れの舞台であり、圧倒的な戦力を誇る軍艦こそが国力を象徴し、軍事力の主要な指標ともなっていた。

 ところが、第1次世界大戦をはさんで、戦争は歩兵や軍艦から飛行機と無差別爆撃の総力戦にシフトし、実際、第2次世界大戦では、ロンドンもベルリンも、東京もドレスデンも空襲によって焼野原となりました。

 広島と長崎に投下された原子爆弾も、パラシュートをつけて上空から飛行機が投げ落としたものにほかなりません。

 そんな時代にあって「大和」だ「武蔵」だといった巨大戦艦に、いまだ起死回生の夢を見ていた日本の戦争指導部、そして2隻の戦艦がどのような運命をたどったかは、今さら述べるまでもないでしょう。

 20世紀初頭、あらゆる先端技術の粋は、巨大戦艦に集められました。

 そして21世紀初頭、あらゆるイノベーション・テクノロジーの粋は「自動運転に集められる」・・・。

 これは、ドイツ連邦共和国が2010年代に展開している「インダストリー4.0」政策の基本テーゼにほかなりません。

 そしてそこで必然的に問われるのが「自動運転車の倫理」です。

 日本では「倫理」という言葉は、どうも正確に理解されにくいようです。昨今の大学では「研究倫理」が様々にうるさくいわれていますが、大半は「べからず集」です。

 人倫のコトワリとして倫理に触れるものは、率直に言ってほとんど目にしません。

 同様に、自動運転の「倫理」も、全く見当はずれの誤解を受けているように思います。どうして自動運転の「倫理」が問われねばならないか?

 それは「自動運転の法理」がいまだ全く成立していないからにほかなりません。


現行法で裁くことができない自動運転事故問題

 「自動運転」という対象は、いまだ日本の法律システムの中に存在していません。

 ということは、必然的に、その固有の特徴によって発生するかもしれないアクシデントを、適切に裁くことができません。

 「自動運転事故」を扱う「模擬裁判」を傍聴したことがあります。

 極めて先駆的な試みで、パイオニアのご努力を多としたいと思うのですが、そのままの法制度では決して自動運転車の事故は扱えない、ということを如実に示してもいると思います。

 現在、地球上に存在する、ほぼすべての法律は、責任の主体を「ひと」に求めます。ここには「法人」という特殊な「ひと」も含まれていることに注意しましょう。

 「ほぼ」と記したのは、例外があるからで、欧州連合では先駆的な「ロボット法人」の概念を確立し、高度自律システムが引き起こした事故や事件に対しては、ロボットそのものも責任を問われる可能性が開かれていることを念頭に記しています。

 日本にはまだ、鉄腕アトムのような「ロボット法人」の概念はありません。

 ということは、仮に自動運転車に原因があって発生したアクシデントであっても、責任を追及する対象は、現行法による限り、必ず「ひと」になってしまう。

 欧州では自動運転車に「ロボット法人」としての法人格を認め、仮想通貨建てなどで自身の資産も持ち、何かの際には責任が取れる現実的な制度整備が進んでいるのです。

 翻って、日本にはそのような準備は、まだありません。このギャップに、よく注意する必要があるのです。


「立法論」ではなく厳密な倫理基準に基づく法制度整備を!

 自動運転を巡る「倫理」とは、いまだ法律が存在せず、社会のルールが規制をもってコントロールされていない対象について、どのようなコンセンサスを得ていけばよいか、という、非常に重要なポイント、いわばイノベーションの急所を握る部分になっています。

 冒頭に引いた2つの自動車事故を振り返ってみると、同一の車種であることが厳しく指摘されています。

 その車種に「欠陥」があるのかないのかは、筆者には分からないですし、ここでの主題でもありません。

 問題は、仮にドライバーにほとんど責任を問えないような状況で、急発進などシステムの暴走があったとき、責任を遡及する対象は、いったいどこにあるべきか、という点にあります。

 同一車種での事故が非常に多く続くことから、これは車の欠陥であって「高齢ドライバー」に原因がないのではないのではないか、という指摘もなされています。これについても、裏が取れていませんので、筆者は何も言うことができません。

 ただ「未来の自動運転車」を語る文脈で、運転操作が困難な高齢者を乗せても、安全に自動運転車は走行可能・・・といった惹句を見ることがあります。

 しかし、そのような自動運転車が事故を起こしたとき、いったいその責任は誰が取るのか?

 技術の中には、その答えは一切ありません。

 しかし現行法の定めでは、「誰か」に責任を取らせなければ、正義が実現しないフォーマットになってしまっているわけです。

 このままでは、夢の自動運転時代など、来るわけがないのは言うまでもありません。

 しかし成文化された法律が定められる以前には、私たちは「法的に」この問題を考えることができません。

 そして、そこをカバーするのが「倫理」という枠組みにほかなりません。

 法律家は「立法論」という言葉を、極めて否定的なニュアンスで使うことがあるようです。

 刑法の團藤重光先生がお元気だった頃、秘書役としていろいろなお仕事をお手伝いさせていただきました。

 そんな中で、最高裁判事などが、「それは立法論に過ぎない」などと言うケースを幾度か目にしました。

 どういうことかというと、すでに確立された法の条文の解釈こそが法律家の仕事であって、存在もしない法律の条文を「立法」するような真似は、ロイヤーとしての無能を告白しているだけだ、法律家にあるまじき態度、法曹以前である、というのです。

 そして、團藤先生はこうした考え方を「極めて浅はかである」と切り捨てておられました。

 「社会は動いている。その変化に応じて判例も動き、法も動く。そのようにすることで、人の主体性が守られ、人間を中心とする法社会の文化が形づくられていく」

 「そうでなく、固定された法に縛られてしまうなら、人は法に隷属する存在になってしまう。そういう朱子学的な考え方、固定した考え方ではいけない」

 「もっとダイナミックに物事を考えていかなければ、本質的な社会の変化に法が応えることは不可能になってしまう」

 ご本人が、戦後の新憲法下でGHQと戦いながら、刑事訴訟法を書き下ろした「立法の経験」をお持ちでしたので「法を書くということがどういうことか分かっていない」と、極めて厳しく見ておられました。

 日本が今後、世界で最初の超高齢化社会の途をひた走ることは、すでに確定している事実にほかなりません。

 それに対処する、として、様々な「イノベーション」も提案されていますが、果たしてそれらが本当に有効であるかは、全く分かりません。

 特に高齢ドライバー対応、などとして、AIなり自動操舵システムなりが運転判断を下すようになったり、その結果何かのアクシデントがあったりしたとき、現行法のままでは「運転していて何の誰兵衛(75歳)を逮捕した」といった形で「ひと」に責任を問うことしかできません。

 勢い、高齢者は免許返納させたらいい、といった議論になるのかもしれませんが、私の母は車を運転しなくなってから急速にボケてしまい、10年ともたずに死んでしまいました。

 そうした経験を踏まえて、ひとがライフロングで人生を自分らしく生きながら、間違っても第三者に迷惑をかけたりすることがないよう、あるべきエコシステムを形成するためには、現在言われているような初歩的な議論ではおよそカバーできない、抜本的に新しい「倫理」を考える必要があると思われます。

 現在の法体系では、どのようなシステムであれ、機械が下した判断によるミスは必ず「ひと」に責任が問われる形になっています。

 工場でロボットが起こした事故に対して、企業のような「法人」に責任が問われるケースは、まだ対応できますが、完全に高度自律的に判断するロボットの行動に関して、結果責任を、生身の人間に問うことに限界があることは明らかです。

 すでにEUでは体制作りが急ピッチで進められています。

 私は現在、フェイスブックがミュンヘン工科大学に設立するAI倫理研究所のキックオフに向けて、ワークショップメンバーとして、新たな社会への対策を検討していますが、こうした観点に関する欧州と日本や米国、また中国との温度差には著しいものがあります。

 AIなど「人間でないもの」が、自動的に判断を下すことが加速度的に増えていく2020年代、そこで発生する問題を裁く「正義」の確立には、非常に大きな難問がいくつも存在することは、あらゆる日本人がもっと真剣に考えるべき問題であると思います。

筆者:伊東 乾

JBpress

「事故」をもっと詳しく

「事故」のニュース

トピックス

BIGLOBE
トップへ