昨年9月21日(金)放送の「おはよう日本」(NHK総合テレビ)でAI技術の兵器への応用について取り上げていたのでご紹介します。
急速に進化を続けるAI、人工知能、その利用が今軍事の分野で加速しています。
機関銃を備えた車両、そこにAIが搭載されています。
AIは目標を識別して人間の判断を介さずに自動的に攻撃を行います。
昨年8月下旬、ロシア国防省が開いた世界最大級の武器の見本市、地元ロシアや中国など18ヵ国、およそ1200の企業が参加し、世界各国から軍の関係者が集まりました。
今回大きな注目を集めたのは無人戦闘車両、ロシアを代表する銃器メーカーのカラシニコフ社が開発した“AI兵器”です。
機関銃とともにカメラやレーダーを装備、そこにAIが搭載されています。
AIはカメラに映った映像などをもとに距離も割り出し、対象の動きを捉えます。
人間の操作なしに、自動で攻撃を行うことも出来るといいます。
付けられた名前は「サラトーニク」、ロシア語で「共に戦う仲間、戦友」を意味します。
AI兵器の分野で世界をリードしたいというロシア政府の意向を受け、開発が進められてきました。
今回取材に応じた開発の責任者は、実際の運用では人間が制御するとしたうえで、内戦が続くシリアで使われる可能性を示唆しました。
カラシニコフ社のゲンナージエヴィチ副社長は次のようにおっしゃっています。
「この兵器をシリアなどで使用することが(ロシアで)既に認められています。」
「私たちは兵士を危険にさらすことなく、任務を遂行出来るようにこの兵器を作ったのです。」
一方、国際社会では“懸念の声”が広がっています。
ロシアの見本市と時を同じくして、国連ではAI兵器の規制を検討する国際会議が開かれました。
参加したのは70ヵ国以上の政府代表や専門家です。
“想定外の行動を取るリスク”や“責任の所在が曖昧”になることを危惧し、規制を速やかに設けるべきという声が相次ぎました。
オーストリア大使は次のようにおっしゃっています。
「人間の生死について、AIに意思決定を委ねるべきではありません。」
また、ブラジル代表団は次のようにおっしゃっています。
「標的の選定や攻撃などの判断は必ず人間が行うよう義務付けるべきです。」
一方、開発を進める国々は“正確に攻撃出来、兵士の被害や負担も減らせる”と主張、規制に反対しました。
アメリカ代表団は次のようにおっしゃっています。
「拙速な規制は被害を最小限に抑えるAI技術の開発を阻害しかねません。」
また、ロシア代表団は次のようにおっしゃっています。
「すぐに制限したり、禁止したりするのはもってのほかです。」
「AI兵器だからこそ厳しい戦場でも活動出来るのです。」
5日間にわたった会議で各国の溝は埋まらず、議論は継続することになりました。
今回の議論で、日本はAI兵器については議論が尽くされていないとして国際的な規制を設けるのは時期尚早だとしています。
日本の高見澤 將林軍縮大使は次のようにおっしゃっています。
「人間社会の生活の利便性の向上に使われるAIの持っているポテンシャルも考えるべきだということもございますし、まだまだ共通の認識を得るためには相当な努力が必要だろうなと思っております。」
AI兵器を巡る現状に、国連の軍縮部門トップの中満 泉事務次長は次のようにおっしゃっています。
「AIが武力を使う決定をしていいのか、私たちの考え方では、人間が武力を行使する決定権は必ず確保しておくべきだと。」
「人間が責任を取らなければいけないと考えております。」
平行線に終わった議論が次に行われるのは昨年11月の予定です。
一方、様々なAI技術が兵器に転用されるかもしれないという危惧も広がっています。
以上、番組の内容をご紹介してきました。
AI兵器に関する議論は、自動運転車に関する議論とよく似ていると思います。
確かに自動運転車によって格段に交通事故は減少すると期待されています。
一方、AI兵器によって正確な攻撃が可能になり、兵士の被害や負担が減少すると期待されています。
しかし、自動運転車では歩行者や周りの障害物などをどのように正確に識別するのか、そして万一事故が起きた場合に誰が責任を取るのかが大きな課題となっています。
一方AI兵器においては、敵と味方をどのように識別するのか、そして誤射や誤爆が発生した場合に誰が責任を取るのかが大きな課題となっています。
要するに周りの識別と問題発生時の責任の所在です。
では、もう少しこうした課題の本質がクリアになるように、自動運転車やAI兵器が普及していった場合をイメージしてみます。
まずあらゆるクルマの自動運転化が進めば進むほど、交通状況全体がコントロール出来るようになり、事故や渋滞の減少が期待出来ます。
しかし、それでも自動運転車の制御機能が完璧ということはあり得ないので、事故件数ゼロは期待出来ません。
ただ、こうした事故の再発防止策により事故件数は徐々にゼロに近づいていくと期待出来ます。
また、自動運転車の制御機能がサイバー攻撃により乗っ取られるようなことになれば、事故や殺人事件につながります。
このサイバー攻撃については、再発防止策を施しても、サイバー攻撃者との戦いはいつまでも続くと思われます。
一方、戦闘において片方の陣営のみがAI兵器を投入すれば、AI兵器での戦闘が続く限りその陣営の兵士の被害はほとんど皆無のまま戦闘が進みます。
しかしこうした事態はそう長くは続かず、双方の陣営の兵器のAI兵器化が進めば、AI兵器同士の戦闘になります。
ですからAI兵器同士の戦闘である限り、両陣営の兵士の被害は発生しません。
そしてAI兵器はコンピューターで制御されていますから、当然のことながらサイバー攻撃などにより、相手陣営のAI兵器の制御機能の乗っ取り合戦が起きます。
ですから、“サイバー攻撃で優位に立つ国が戦闘を制する”時代がやがてやってくると思われます。
では、こうしたAI兵器のリスク対応策ですが、核兵器と同様にAI兵器を全面使用禁止にすることはとても難しいと思います。
また間違いなくAI兵器はどんどん進化していき、それにつれて施設の破壊能力や殺傷能力も向上していきます。
そこで、究極のこうしたリスク対応策として考えられるのは、奇想天外に思われるかもしれませんが、AI兵器同士の代理戦争による勝敗の決定です。
具体的には、外交交渉が決裂し、いよいよ交戦による解決しか道がなくなった場合、これまでのような生身の兵士を投入した戦闘に突入するのではなく、人命などに一切影響を及ばさない戦闘区域、および戦闘期間を限定し、そこでAI兵器同士で戦わせるのです。
その結果をもとに、これまでの戦争終結と同様のプロセスを踏むようなシステムを国際的に構築すれば、結果として被害を最小限に抑えたかたちで国家間の対立の解決につながると期待出来るのです。
では、なぜ思い切って全面的な兵器禁止をも目指さないか、そこにはある重大な理由があります。
それは、万一将来的に宇宙人が地球に襲撃してきた場合などに備えて各国が共同でその防戦に努める際、やはりある程度の戦闘機能を備えておく必要がるからです。