2017年12月09日
プロジェクト管理と日常生活 No.517 『世界的に求められる「殺人ロボット兵器」の規制!』

11月14日(火)放送の「あさチャン!」(TBSテレビ)、11月19日(日)放送の「サンデーモーニング」(TBSテレビ)、そして11月20日(月)放送の「時論口論」(NHK総合テレビ)で「殺人ロボット兵器」について取り上げていました。

そこで、これらの3つの番組の内容のご紹介とともに、人類存続のリスク対応策として、世界的に求められる「殺人ロボット兵器」の規制についてお伝えします。

 

近年、人工知能(AI)の発展などにより飛躍的に進化するロボットですが、一方で軍事的に利用される懸念が高まっています。

番組では開発が進む殺人ロボット兵器の現状を紹介しています。

 

山の中や悪路をものともせず、なめらかに進んでいくアメリカ・ボストンダイナミクス社製の4足歩行ロボット(動画はこちらを参照)は元々は軍事目的で開発されたものです。

米軍の物資を運搬するためのものですが、最新版は小型化され、家の中で家事などをこなすタイプにも進化しています。

 

一方、ロンドンに本社がある世界有数の軍事企業が最近作成した未来の戦場のイメージ図では、前線に並んでいるのはAIを搭載した無人兵器です。

敵のドローンや戦車を識別して攻撃している様子が描かれています。

これに対して、人間の兵士は後ろに控えています。

AI兵器が戦場の中心になるとアピールしたい軍事企業の狙いが盛り込まれています。

イメージ図に描かれていた軍用車両は内部にAIが搭載され、砂漠や建物のがれきが散乱している市街地のような戦場でもセンサーを駆使して動き回れるとしています。

カメラを搭載すれば、偵察の任務にも使えます。

しかし、武器を搭載すれば、敵を識別して攻撃させることも出来るといいます。

しかし、AI兵器は暴走した場合、取り返しがつかない被害が出る恐れがあり、大きな論争を呼んでいます。

 

近年、AIの発展によって飛躍的に進化するロボットですが、一方でその発展に懸念の声が上がっています。

世界的な物理学者、スティーブン・ホーキング博士は、2016年10月に次のようにおっしゃっています。

「将来、AIは自立し、我々と対立するだろう。」

 

また、アメリカの電気自動車(EV)大手、テスラのイーロン・マスクCEOも、今年9月4日に次のようにツイッターで警告しています。

「国家レベルでAIの技術競争をしている国が第三次世界大戦を引き起こす恐れがある。」

 

イーロンCEOは、今年8月に世界の100人以上の起業家らとともにAIを使ったロボット兵器を禁止するよう国連に書簡を提出しました。

こうした動きを受け、11月13日、スイス・ジュネーブの国連ヨーロッパ本部で始まった国連の専門家会議「特定通常兵器禁止制限条約の政府専門家会合 CCW」で初めて「殺人ロボット兵器」の規制の是非について議論が交わされることになりました。

この会合は、非人道的な兵器を国際的に規制するか議論するもので、AI兵器がこれに当たるのではないかとして、3年前から非公式なかたちで専門家の意見交換が行われていました。

今回初めて政府レベルに引き上げられ、日本を含むおよそ90ヵ国が代表団を派遣しました。

最大の焦点は、人間を殺傷する攻撃を行う判断の主体をAIに委ねることが許されるのかという点です。

現在、既にあるロボット兵器のうち、代表的なものとしてドローンがあります。

アメリカ軍がアフガニスタンやパキスタンの上空に飛ばし、地上にいる敵にミサイルを撃ち込むために投入しているものです。

ドローンを巡っては、誤爆などが大きな問題になっています。

それでも人間が操縦し、ミサイルを発射するかどうかの引き金を握っています。

これに対して、ジュネーブで議論の対象となったのは、AIが敵を識別して敵に攻撃を仕掛けるものを想定しています。

つまり、人間が判断に係わらなくなります。

こうした兵器は現状では戦場に投入されておらず、未来の兵器だとされています。

先ほどの軍用車両を開発したイギリスの企業も武力行使の判断をAI任せにしないと強調しています。

しかし、開発の責任者はAIにどこまで判断させるかは事実上の課題ではなく、この点を巡る論争の行方次第だと話しているように、技術的には既に可能だと見られています。

 

では、AIが攻撃の判断を行うことになれば、どのような問題が起きる恐れがあるのでしょうか。

以下に「殺人ロボット兵器」の推進派、反対派の論争からそのリスクについて考えます。

推進派は、スピードと正確性が利点だと主張します。

AIならば、人間の兵士よりも速く判断が出来る他、ストレスで疲弊したり、体調に左右されたりすることもなく、常に正確に攻撃出来ると主張します。

また、人間の兵士を危険な任務から外すことで兵士の被害や負担を減らせるといいます。

更に、AI兵器は人間の兵士よりも倫理的だという主張もあります。

AIには感情がないため、恐怖を感じたり、気が動転したりして攻撃をするようなことはしないといいます。

また、仲間に対する攻撃への怒りから報復することもしないとしています。

 

これに対して、反対派は、スピードと正確性についてはバグが起きて暴走するなど、想定外のリスクがあると反論します。

国際人道法は、戦時に民間人を攻撃することを戦争犯罪だと定めていますが、AI兵器によって民間人が殺害された場合の責任の所在が曖昧になると批判しています。

司令官が意図的に民間人を殺傷するために投入した場合でもない限り、誤認やバグによって民間人が死傷しても責任を問うことは難しいと言われています。

また、兵士の被害や負担を減らせるという主張に対しては、自国民の兵士の犠牲が出ないとなれば、政治指導者が戦争を始めることを安易に決める恐れがあると反論します。

そして、倫理的だという主張に対しては、人間の生殺与奪の権を命への敬意を感じないAIが握ることこそが倫理的でないと反論しています。

また、テロリストの手に渡れば、市民の殺傷に悪用さあれる恐れがある他、独裁者が自国民に差し向けても、人間の兵士ならば感じると思われる自国民に銃口を向けることへのためらいもないではないかといいます。

 

このように数多くの問題がある中、国際社会はこの兵器にどのように向き合うべきでしょうか。

しかし、冒頭でお伝えした、今回の専門家会議では規制を巡る具体的な議論は進みませんでした。

途上国がAI兵器を幅広く定義して開発の段階から厳しく禁じるべきだと訴える一方で、アメリカやロシアは技術がどのように進歩するか予測出来ない中で現時点で予防的な規制を拙速に作るべきではないとしています。

日本はこうした兵器を開発しないとしています。

その上で、民生用のロボットやAIの研究や開発に過剰な規制が及ぶことがないように冷静な議論を呼びかけました。

結局、各国の立場は埋まらず、来年以降も議論を継続するという報告書を採択し、閉幕しました。

しかし、残された時間は多くありません。

世界の著名な科学者たちは、今年8月にAIの軍事利用に対する共同声明を発表し、AI兵器がひとたび戦場に投入されれば、パンドラの箱が開き、閉じることが出来なくなると危機感を表明し、議論を急ぐよう呼びかけました。

 

確かにAIは人間より速く正確に識別が出来るかもしれません。

しかし、想定外の複雑な事態が次から次に起きるのが戦争の現場だということを決して忘れてはなりません。

そこでの対応の過ちは、兵士のみならず、そこに暮らす民間人の命を奪うことに直結しかねません。

 “火薬”、“核兵器”に続き、人類は更に破壊力の大きい兵器を持ってしまうのか、戦場の姿を根本的に変える危険をはらんだままその開発競争は国際的な歯止めがないまま進んでいます。

国際社会は、スピード感をもってそのリスクと課題に向き合う必要があります。

 

軍事ジャーナリストの黒井 文太郎さんは、番組の中で次のようにおっしゃっています。

「アメリカだけでなく、イギリス、フランス、ロシア、中国といった国がかなり力を入れて(「殺人ロボット兵器」を)開発しています。」

 

開発が進む自立型致死兵器システムとも呼ばれる「殺人ロボット兵器」は、人間の判断を介さずに、自らの判断で人を殺傷出来るAIを持った無人兵器のことです。

まだ実用化はされていませんが、アメリカでは機関銃などを装備し、全方位の監視・攻撃が可能なロボットの開発が進んでいるといいます。

 

また、韓国では北朝鮮との軍事境界線に無人ロボット兵器「SGR−A1」を既に配備しており、攻撃命令は人間の手によって行われますが、相手の熱や動きを感知し、目標を捉え、攻撃する能力があるとされています。

兵士をロボットに置き換えることで、人間の被害を無くすことが出来る一方、ロボットにAIが搭載されることの危険性もはらんでいます。

黒井さんは、番組の中で次のようにおっしゃっています。

「機械が自分で考えて行動するというような世界に入ってきているんですね。」

「それを人間がきちんとコントロール出来るのか、あるいは機械に任せてしまって、人間の手が届かないところで暴走するようなことは起こらないのか本当に、というところが議論になってきます。」

 

人類に反乱を起こしたAIが近未来から現代に「殺人ロボット」を送り込むというストーリーで大ヒットした映画「ターミネーター」、SF映画で描かれた世界が現実のものになるのでしょうか。

 

香港で開発されたAIを搭載した「ソフィア」というロボットは人間そっくりの外見ですが、頭部には電線が見えます。

人間の皮膚とほぼ同じ質感の肌を持ち、60種類以上の感情を顔で表現することが出来るこのロボットは、サウジアラビアから正式に市民権を与えられ、注目を集めましたが、ある発言が物議をかもしました。

それは、「私は人類を滅ぼします。」

 

一方、ロシアのカラシニコフ社が7月に公開した無人銃撃システムは、AIが過去の事例から学び、自立的に標的を特定し、攻撃の判断が可能といいます。

 

安全や便利のために作られた技術でも、一歩間違えれば脅威に変わることがあると専門家は指摘します。

黒井さんは、番組の中で次のようにおっしゃっています。

「かなり有効な将来性のある分野なんですけども、そこに何かミスがあった時に、誰の判断でどう止めるか、AIが自分で判断してきちんと止められるのかどうか、そこまできちんと制御出来るのか(が今後の課題です)。」

 

以上、番組の内容をご紹介してきました。

 

そもそもどんな文明の利器にもメリットばかりでなく、リスクを伴うことが一般的です。

例えば自動車は移動手段としてとても便利ですが、衝突事故を引き起こしたりなどして人に怪我をさせたり、死に至らせたりするリスクがあります。

更に、今や自動運転車の実用が目の前に迫っています。

その背景には、AIやロボット、あるいはIoTの大変な技術進歩があります。

当然こうした技術の軍事転用を目指す国が出てきます。

というよりも、そもそもAIやロボットの技術は軍事兵器としての活用を目指したのが始まりかもしれません。

 

さて、AIやロボット、あるいはIoTの技術を活用したロボット兵器をイメージすると、それぞれのロボットは自主的に兵士として活動すると同時にこうした複数のロボットを統制する隊長としての役割を果たすロボットも登場してきます。

要するに、このまま開発が進めば完全に自立したロボット兵器部隊が登場してくることは目に見えてきます。

しかも、こうしたロボット兵器部隊は、陸海空、あるいは宇宙空間も含めて実現可能です。

このようなロボット兵器部隊の戦争への投入は、生身の人の兵隊が直接戦闘に参加することがほとんどなくなるのですから、対戦国の生身の人間の兵士や民間人がどんな悲惨な目に遭ってもゲーム感覚でほとんど対戦国の被害に対して心の痛みを感じることがなくなってしまうと思われます。

しかも、ロボット兵器部隊はほぼ24時間、365日戦い続けることが出来るのですから、こうした戦争はこれまでとは異次元の戦争と言えます。

 

更に、番組でも指摘されているように、こうしたロボット兵器も所詮は人がプログラム開発した成果物なのですから、不具合が必ずどこかで発生します。

そうした時に、何が起きるか分かりません。

最悪の事態は番組でも指摘されているように、ロボット兵器が味方の兵士や国民を、あるいは人類を滅ぼすような動きをすることです。

 

このように見てくると、人類存続のリスク対応策として、やはり人間の判断を介さずに、自らの判断で人を殺傷出来るAIを持ったロボット兵器の使用を禁止する国際条約の締結を早急に進めることが求められます。


 
TrackBackURL : ボットからトラックバックURLを保護しています