前回、人工知能(AI)が囲碁トップ棋士に勝利したことについてご紹介しました。
その中で、私たち人類がこれからAIを活用していく上で、何らかの歯止めが必要であるとお伝えしました。
そして、今後多くのロボットにはAIが搭載されるようになると見込まれます。
そうした中、1月19日(火)放送の「視点・論点」(NHK総合テレビ)でロボット法学をテーマに取り上げていたのでご紹介します。
なお、今回の論者は弁護士の小林 正啓さんです。
ロボットが実用化されつつあります。
掃除機型ロボットはすでに市販されています。
自動車のかたちをしたロボットについて、政府は2020年までの実用化を目標にしています。
人間そっくりのロボットが一般に普及する日も遠くありません。
ロボットが普及した時、人間とロボットの関係はどうなるのでしょうか。
私は、今の時代に「ロボット法学」という学問が必要と考えています。
今日は、その理由を、「四つのNEW」というキーワードで説明したいと思います。
第一は、「NEW MACHINE」、新しい機械です。
機械文明が始まって200年、機械は飛躍的な進化を遂げました。
しかし、機械はあくまで人間の道具でした。
機械が事故を起こし、人を傷つけることもありましたが、その責任は機械を使った人間や、作った人間が負いました。
「通行人を轢いたのはこの自動車です。私ではありません。」と弁解したところで、相手にされませんでした。
しかし今日、AIを備えたロボットは、自分で判断し、動作する「自律性」を備えつつあります。
たとえば、将棋を指す最先端のロボットは、過去の対戦記録を自分で勉強し、次の一手を自分で考えて、時にプロ棋士をも打ち破ります。
ロボットの制作者はこう言うでしょう。
「勝ったのはこのロボットです。私ではありません」と。
同じことが、将棋以外の世界でも現実になりつつあります。
「通行人を轢いたのは、この自動車です。私ではありません。」という弁解にも、耳を傾ける必要が出てきます。
想像してみてください。
90歳の老人を乗せた自動車が自動走行中、前のトラックが突然止まったとします。
ブレーキをかけても衝突を避けられません。
助かる方法はハンドルを切ることだけですが、その先には、下校途中の小学生の列があります。
このような場面で、自動車のAIは、どうするべきでしょうか?
まるでサンデルの白熱教室のような問題ですが、私が申し上げたいのは、この問題の答えは何か、ではありません。
いろいろな意見があって良いと思います。
私がここで申し上げたいことは、二つあります。
一つ目は、どのような答えにせよ、それは人間が決めるべきであり、機械に決めさせてはならない、ということです。
自動運転自動車は、判断の優先順位をあらかじめ人間から教わらなければなりません。
二つ目は、その優先順位は、自動車や自動車メーカーによってまちまちであってはならない、ということです。
なぜなら、自動車が、同じ場面で別の動きをすることは、責任の所在を曖昧にするからです。
従って、その優先順位は、世界共通でなければなりません。
これは条約となり、国内法に反映されることになります。
従って、これをサポートする法律学が必要になります。
第二は、「NEW RELATIONSHIP」です。
人間と機械との新しい関係です。
かつて蒸気機関は産業革命を、コンピューターは情報革命を起こしました。
ロボットは感情の世界に革命を起こすと私は考えています。
人間型ロボットが普及すれば程なく、ロボットと恋に落ちる人間が現れるでしょう。
介護の世界では、既に老人の話し相手をするロボットが実用化されています。
ロボットには、人間と感情的な交流を行う役割が期待されています。
ロボットが人間と感情の交流を行うためには、様々なプライバシー情報を得る必要があります。
私が友人と親しく話が出来るのは、顔と名前が一致するからであり、職業や家族関係を承知しているからであり、過去の記憶を共有しているからです。
しかし、ロボットが同じことをするには法律的な障害があります。
2013年秋、ある研究機関がJR大阪駅に92台のカメラを設置して顔認証の実証実験を行おうとしたところ、マスコミや市民団体などの反発を浴びました。
原因の一つは、情報技術とプライバシー権との関係を決めるルールがわが国では非常に曖昧なことにあります。
われわれ法律家は、人間とロボットがプライバシー情報をやりとりするための適切なルールを考えなければなりません。
顔認証技術はおよそ禁止するべきだという意見あります。
しかし、それでは鉄腕アトムもドラえもんも生まれません。
また、職場では、AIが電磁カードで社員の行動を逐一記録したり、ゴーグル型ディスプレイを通じて作業の段取りを指示したりするなど、AIが中間管理職のような立場で従業員を管理するようになりつつあります。
新しい職場には、新しい労働法の考え方が必要になるかもしれません。
第三は、「NEW LAW」、新しい法律です。
ロボットの登場は、新しい法律や新しい法解釈を必要としています。
新しい法律の例として、たとえば、現行法上、自分のロボットを壊して捨てても、何の罪にも問われません。
しかし、人間型ロボットが普及すれば、たとえ自分の所有するロボットであっても、みだりに破壊したり、捨てたりすることが規制されるでしょう。
なぜなら、人間型ロボットがバラバラにされて粗大ゴミとして捨てられたり、野良猫ならぬ、野良ロボットが街をうろついたりすることは社会に対する悪影響が強いからです。
この法律は、もしかしたら「ロボット愛護法」と呼ばれるかもしれません。
新しい法解釈の例として、人の運転する自動車同士の交通事故は、追突など片方が全面的に悪い事故でない限り、両方の運転手に過失があるとされます。
これを過失相殺と言いますが、自動運転自動車同士の事故にも、過失相殺の考え方が適用されるでしょう。
その時、法律家は、AIの「過失」とは何か、機械がうっかり間違えたとはどういうことか、という法解釈論と向き合うことになります。
最後は、「NEW GENERATION」、すなわち、新しい世代です。
ロボット法学は、新しい世代を育てるための学問であるべきだと考えます。
たとえばドローンは、空の産業革命ともてはやされましたが、首相官邸の事件や、行き過ぎた少年のふるまいによって、航空法が改正され、規制されることになりました。
安全は確保されたかもしれませんが、多くの子どもたちにとってドローンで遊ぶことはとても難しいものになってしまいました。
もし、ドローンを空の産業革命と期待するなら、政府が行うべきことはドローンを操縦する優れた才能をもつ子どもを見いだすことにあります。
なぜなら、その才能はわずか10年後には革新的な技術を生み出すからです。
しかし、改正航空法は、日本の子どもが空の産業革命を起こす芽を根こそぎ摘んでしまったといって過言ではありません。
ロボット法学は、安全などの社会的価値とロボットやロボット産業の発展とのバランスのとれた調和を目指すため必要だと思います。
新しい機械と人間との新しい関係を、新しい法律によって調整し、子どもたちに未来を拓くことこそロボット法学が掲げるべき使命だと考えます。
以上、論者の小林 正啓さんのお話をご紹介してきました。
小林さんは、ロボット法学を以下の「四つのNEW」というキーワードで説明してくれました。
・NEW MACHINE(新しい機械)
・NEW RELATIONSHIP(人間と機械との新しい関係)
・NEW LAW(新しい法律)
・NEW GENERATION(新しい世代)
小林さんは、AIも包含したロボット法学を単なる法律としての枠組みからではなく、将来の世代がロボットをより積極的に活用していけるような環境作りまで視野に入れて考えられているところがとても共感出来ました。
どんな技術にも必ずメリットがある一方でリスクを伴います。
そして、リスクを気にし過ぎると技術の発展、進化はその分遅くなってしまいます。
例えば、自動車に乗れば、いろいろなところに容易に、しかも早く行ける一方で、事故に遭うリスクがあります。
だからとって、私たちは自動車の利用を放棄することはありません。
リスクに比べてメリットの方がはるかに大きいと判断出来るからです。
また、新しい技術の実用化にあたって、当初はメリットがある一方でリスクが少なからずあることからユーザーは限られても、将来的により一層のメリットが期待出来れば、技術の改善によりリスクよりもメリットの方がはるかに大きくなっていくのが世の常です。
そして、こうした動きに合わせて法律も改正されていくのです。
ドローンなども含めて、ロボットは、私たちの暮らしを豊かにする上で間違いなく便利な存在になるはずでます。
しかし、一方で必ず何らかのリスクを伴います。
そして、AIやロボットの開発は私たちの想定以上のスピードで進んでいるのです。
ということで、ロボット法学は以下の観点から速やかに検討を進めていただきたいと思います。
・ロボットの活用による最大限のメリットの享受、およびリスクの最小化
・国際標準の確立