AI(人工知能)については、自動運転車など人々の暮らしを豊かにしてくれるメリットと人々の働く機会を奪うなどのディメリットの両面で関心が寄せられています。
本題に入る前に、まずヒトに比べて圧倒的なAIの強みについて以下にまとめてみました。
・例えば、囲碁のルールなどが組み込まれていなくてもディープラーニング(深層学習)と言われる過去の棋譜をニューラルネットに入力する「教師あり学習」と勝利を報酬にAI同士を対局させて鍛える「強化学習(教師なし学習)」により短期間でプロ棋士に勝利するレベルまで成長する
・「AlphaGo」は2015年10月の時点で3000万局もの自己対局をこなしたという。地球上にプロ棋士が1000人いるとして、毎日対局したとしても1年当たり約20万局という。少なくとも、未知の定石や打ち筋といったイノベーションを生むスピードで言えば、コンピューターは囲碁の領域で「シンギュラリティ(技術的特異点)」に達した
以前お伝えしたように、シンギュラリティは全人類の能力を超える処理能力のAIの出現すると見込まれる年、すなわち2045年を指していますが、現実には囲碁など一部の分野では既にシンギュラリティを迎えているのです。
それほどテクノロジーの進化の速さは目覚ましいのです。
さて、本題のAIの抱える無視出来ないほど大きなリスクについて以下にご紹介します。
先ほどの囲碁の五番勝負は、ディープラーニングの強みに加えて、ディープラーニングを実社会に応用する上での二つの弱点を露呈させました。
一つは、AIが明らかに誤りと思える判断を出力した場合にも、その原因の解析が極めて困難であることです。
イ・セドルさんが勝利した第四局では、「AlphaGo」は明らかな悪手を繰り返した後に敗北しましたが、その原因は当の開発会社DeepMindのメンバーにも分からなかったといいます。
通常のプログラムであればコードを追跡してデバッグ(修正)出来ますが、ディープラーニングには人間が読める論理コードはなく、あるのは各ニューラルネットの接続の強さを表すパラメーターだけなのです。
アルゴリズムは人間にとってブラックボックスになっているというのです。
もう一つは、高度に訓練されたAIは、例え結果的に正しい判断であっても、人間にはまったく理解出来ない行動を取る場合があることです。
特に「AlphaGo」が勝利した第二局では、プロ棋士の解説者は「なぜ「AlphaGo」の奇妙な打ち手が勝利につながったのか、理解出来ない」といった言葉を繰り返したというのです。
以上、記事の内容をご紹介してきましたが、AIのアルゴリズムはブラックボックスでありデバッグ(修正)出来ないこと、そしてAIの下した判断に対して専門家でさえも理解出来ないケースがあること、この2つは無視出来ないほど大きなリスクと言えます。
このリスクは自動運転車に例えてみれば、ドライバーが手動で運転したくても出来ないし、AIが選んだルートの理由が分からないという状況です。
こうした状況では乗車している人たちは安心して乗っていることが出来ません。
そこで、こうした状況のリスク対応策として、AIのアルゴリズム、およびAIによる決定に至る思考プロセスを人間が理解出来るレベルで表現出来ることが求められます。
ところが、実際にこのリスク対応策を実現させることは難しいし、人間が理解するのに時間がかかるようでは実用的ではありません。
ですから、AIの活用においては、十分な実証実験を終えたうえで、不具合が起こる可能性が限りなくゼロに近いほど低いことを確認したうえで、こうしたリスクのあることを了解したうえで使用するというスタンスが現実的だと思います。
考えてみれば、私たちは自動車に乗るにしても、飛行機に乗るにしても、暗黙のうちに絶対に安全とは言い切れないと了解して利用しております。
文明の利器と言われるものは利用に際し、常にリスクを伴うものなのです。