2023年10月07日
プロジェクト管理と日常生活 No.838 『AIが人類滅亡を招く恐れ』
前回、生成AIのリスクについてお伝えしました。(参照:プロジェクト管理と日常生活 No.837 『生成AIのリスク』
そうした中、5月31日(水)付けネット記事(こちらを参照)でも同様のテーマについて取り上げていたので、一部前回と重複しますが、内容の一部をご紹介します。 

・ウェブサイト「センター・オブ・AIセーフティー」に掲載されたAIのリスクについての声明文には、「チャットGPT」を開発したオープンAIのサム・アルトマン最高経営責任者(CEO)、グーグル・ディープマインドのデミス・ハッサビスCEO、アンソロピックのダリオ・アモデイCEOといった、テクノロジー企業のトップも署名している。
・声明は、「パンデミックや核戦争といった社会規模のリスクと同様、AIによる絶滅のリスクを低減することを世界的な優先事項とするべきだ」と呼びかけている。
・「センター・オブ・AIセーフティー」は、いくつかの惨事シナリオを想定している。
 -AIの兵器化:新薬開発ツールが化学兵器の製造に使われるといった可能性
 -AIで生成された偽情報が社会を不安定化させ、「集団での意思決定に害を及ぼす」可能性
 -AIの力がより少数の人に集中し、国家が「監視と抑圧的な検閲を通じて、狭い価値観を強制」できるようになる可能性
 -「映画『ウォーリー』で描かれたシナリオのように」、人類がAIに頼って衰退する可能性
・人間を超えた知能を持つ「スーパーインテリジェンス(超知能)」AIによるリスクを以前から指摘していたジェフリー・ヒントン博士や、モントリオール大学のヨシュア・ベンジオ教授(コンピューター科学)も、この声明を支持している。
・しかし、フェイスブックやインスタグラムを運営するメタにも所属しているルカン教授は、こうしたこの世の終わりのような警告は誇張されすぎているとし、「こうした予言に対するAI研究者の最も一般的な反応は、やれやれと手で顔を覆うことだ」とツイートした。

(現実を分裂させる)
・多くの専門家が、AIが人類を滅ぼすという懸念は非現実的で、システム上の偏りなど、すでにある問題から目をそらすものだとしている。
・米プリンストン大学のアーヴィンド・ナラヤナン氏は以前、BBCの取材で、サイエンスフィクション(SF)のような惨事が起きるシナリオは非現実的だと話していた。
 -現在のAIの能力は、こうしたリスクを実現するには程遠い。結果として、短期的なAIによる害から関心をそらしてしまっている
・英オックスフォード大学AI倫理研究所のエリザベス・レニエリス氏も、もっと現在に近いリスクの方が心配だと語った。
 -AIの進歩によって、偏った、差別的な、排除的な、あるいはその他の不公正な自動意思決定の規模が拡大すると同時に、そうした過程が不可解で証明不可能なものになるだろう
・レニエリス氏はまた、AIが「偽情報の量と拡散を急加速させ、その結果として現実が分裂し、公の信頼が壊されるだろう。特に、デジタルの分断で間違った側にいる人たちへの不平等が加速するだろう」と述べた。
 -多くのAIツールは「これまでの人類の経験」に「ただ乗り」している。AIの多くは、人間が作成したコンテンツや文章、アート、音楽によって訓練され、それを模倣(もほう)する。その結果として、AIの制作者は「莫大な富と権力を公共の場からほんの一握りの私企業に移譲してしまった
・しかし、「センター・オブ・AIセーフティー」のダン・ヘンドリクス所長はBBCニュースに対し、未来のリスクと現在の懸念を「相反するものとして見るべきではない」と話した。
 -今日の問題を解決することは、多くの未来のリスクの解決にも役立つ

(スーパーインテリジェンス開発)
・専門家や米テスラのイーロン・マスク氏といったテック企業のトップらは今年3月にも、次世代AIの開発を止めるよう求める公開書簡を発表している。
 -この公開書簡では、「いずれ我々を数で超え、能力で超え、我々を陳腐な存在にし、我々に取って代わるかもしれない非人間的な知能を開発する」べきなのかと疑問を呈している。
・これに対し、今回の声明は非常に短いもので、「対話を広げる」のが目的だとしている。
 -声明では、AIによるリスクを核戦争と比較している。オープンAIも最近公開したブログ投稿で、スーパーインテリジェンスは原子力と似た方法で規制されるかもしれないと示唆している。
 -「我々はやがて、スーパーインテリジェンス開発について国際原子力機関(IAEA)のようなものが必要になるかもしれない」

(安心して欲しい)
・オープンAIのアルトマンCEOやグーグルのスンダル・ピチャイCEOらは先に、AI規制についてイギリスのリシ・スーナク首相と意見を交わしている。
・スーナク首相はこうしたAIリスクに関する警告について経済や社会への利益もあると強調した。
 -最近では、AIが半身不随の人の歩行を助けたり、新しい抗生物質を発見したりしている。こうしたことが安全で確実な方法で行われるようにする必要がある
 -国民には、政府が非常に慎重に検討しているのだと安心してもらいたい
 -スーナク氏は、先に広島で行われた主要7カ国首脳会議(G7サミット)でも、AIについて協議した。また、近くアメリカを訪問してこの問題を話し合うと言う
・G7は最近、AIに関する作業部会を設立した。

以上、ネット記事の内容の一部をご紹介してきました。

今回ご紹介したネット記事を通して、まず感じることは、AIのリスクについて、専門家の中にも概ね楽観的な見方と悲観的な見方があるということです。
こうした背景には、AIの持つ潜在的なパワーに対する評価の違いがあるようです。
こうした状況において、前回もお伝えしたように規制のあり方については国によって厳しくする国とガイドで対応するといったように必要最小限で取り組む国があります。
しかし、国家安全保障の観点からは、どの国も兵力増強の手段としてAIの活用には積極的のように見えます。
一方、AI関連企業は概ねリスクへの懸念よりもAIを活用した新たなビジネスを展開したいということから、どちらかというと楽観的な見方に立って、国による規制は最小限にすべきだという考えです。

いずれにしても、AIはまだまだ発展途上で、そのパワーは現実的にどんどん進化していくと見込まれます。
ですから、その都度、AIの及ぼすメリットとディメリットを秤にかけて、バランスを考えながら国も企業もAIに取り組んでいくと思われます。
ただし、人間を超えた知能を持つ「スーパーインテリジェンス(超知能)」AIの登場は近い将来、現実のものとなると見込まれます。
また、「パンデミックや核戦争といった社会規模のリスクと同様、AIによる絶滅のリスクを低減することを世界的な優先事項とするべきだ」と専門家らが警告を発しています。
ですから、ウェブサイト「センター・オブ・AIセーフティー」に掲載されたAIのリスクについての声明文でも指摘しているように、スーパーインテリジェンス開発について国際原子力機関(IAEA)のようなものが必要になります。
また、G7は最近、AIに関する作業部会を設立しました。
ですから、IAEAのようにAIを健全な目的で使用することを推進する国際機関の設立に向けての国際的な活動が早急に、かつ継続的に動き出すことが求められているのです。
また健全な目的から逸れた利用を阻止するために検証する部署を国際機関の中に設け、定期的に、また必要に応じて検査を行うことも求められるのです。

 
TrackBackURL : ボットからトラックバックURLを保護しています