以前、2045年にはAI(人工知能)は人間の学習能力程度に発達するとお伝えしました。
そうした中、12月3日(水)付けのネットニュースによるとイギリスの理論物理学者、スティーブン・ホーキング博士が人類の抱えるリスクについて警告しています。
そこでホーキング博士が提唱している人類の抱えるリスクについて2回にわたってご紹介します。
1回目はAIが人類を脅かすリスクについてです。
ホーキング博士は、11月2日に放送された英国放送協会(BBC)のインタビューで、AI技術は急速に発展して人類を追い越す可能性があると以下のように語っています。
「我々がすでに手にしている原始的な人工知能は、極めて有用であることが明らかになっている。」
「だが、完全なAIの開発は人類の終わりをもたらす可能性がある。」
「ひとたび人類がAIを開発してしまえば、それは自ら発展し、加速度的に自らを再設計していくだろう。」
「ゆっくりとした生物学的な進化により制限されている人類は、AIと競争することはできず、AIに取って代わられるだろう。」
「ムーアの法則によれば、コンピューターは1年半ごとにその処理速度と記憶容量を2倍ずつ高めることができる。」
「コンピューターは自律的に知能を上げ、自らを管理する存在になるリスクもある。」
「生物が進化するスピードが遅いため制約を受ける人類がコンピューターと互角に競うことは難しく、その地位はコンピューターに奪われるだろう。」
ホーキング博士のおっしゃるように、人類の進化に比べてAI技術の進化するスピードはとても速いです。
ですから、2045年までに本当にAIが人間の学習能力程度に発達するかどうかはともかく、いずれ追い抜くことはほぼ間違いありません。
問題は、AIが人間の思考能力をはるかに超えて自律的に判断、決定、そして行動に移せるようになった時にSFの世界のようにAIが人間に反乱しないかという究極のリスクです。
このようなリスクの究極的な対応策として、AIのコントロール外のところでAIの機能を停止させる緊急ボタンを用意しておくことが人類には求められます。
でも、こうしたボタンさえも悪意を持った人間が機能させないようにしてしまえば一巻の終わりです。
そこまでいかなくともウイルスによるAIの誤操作やハッカーによるAIの乗っ取りのリスクは常に付きまいます。
ですから、AIの進歩により人々の暮らしはどんどん便利になっていきますが、その反面人類は多様なリスクに向き合わなければならなくなるのです。