2023年09月30日
プロジェクト管理と日常生活 No.837 『生成AIのリスク』
5月26日(金)放送の「ワールドビジネスサテライト」(テレビ東京)で生成AIのリスクについて取り上げていたのでご紹介します。

ChatGPTなど、いわゆる生成AI、人工知能の活用が広がる中、それが悪用されるリスクを抑えるためのAI規制の議論が日本でも本格化してきました。
こうした中、ChatGPTを作るOpenAIは安全対策のアイデアを一般から公募し、1400万円の報酬を支払う異例の策を打ち出しました。

一方、行政や企業などがAIを使う際の活用や規制のあり方を検討する政府のAI戦略会議で河野デジタル大臣は次のようにおっしゃっています。
「AIの適切、かつ効果的な活用は生産性向上や競争力の強化を通じて、我が国における社会的課題の解決や経済成長につながる可能性を秘めている。」
「AIに関して社会に及ぼすリスクの懸念も生じており、・・・」

この日の会合では、今後議論する論点が示されました。
その1つとして含まれていたのが生成AIに関する以下の項目など7項目のリスクです。
・情報の漏えい
・著作権の侵害
・犯罪への悪用
・偽情報による社会の混乱
・失業者の増加

AI戦略会議は、今後、こうしたことを含めた論点を整理し、政府が6月にまとめる経済財政運営の基本方針「骨太の方針」に反映させたい考えです。

この生成AIを巡って、松本総務大臣(当時)は次のようにおっしゃっています。
「「広島AIプロセス」の立ち上げとして、5月30日に実務者レベルによる第1回G7作業部会を開催することといたしました。」
「生成AIの責任ある活用などの諸課題に関するG7間の議論を我が国が主導してまいりたいと考えております。」

先週(番組放送時)広島で行われたG7広島サミットで各国が合意した「広島AIプロセス」、各国の閣僚レベルで生成AIの開発や規制のあり方について話し合い、年内に大枠をまとめるというものです。
議長国でもあった日本は、ここでも議論をリードしたい考えです。
日本が急ピッチでこうした規制の議論を進める背景には、ヨーロッパで規制の枠組み作りが先行していることがあります。

以上、番組の内容の一部をご紹介してきました。

また、6月1日(木)放送の「ワールドビジネスサテライト」(テレビ東京)でも同様のテーマについて取り上げていたのでご紹介します。

ChatGPTを開発したオープンAIのサム・アルトマンCEOは5月30日、アメリカの非営利団体などとともにある声明を公開しました。
その内容は、AIは人類を絶滅させるリスクを考慮すべきだというものです。

5月に公開された声明は「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争などと並んで世界の優先事項であるべきだ」という内容で、わずか一文で具体的にどう滅ぼすかは書かれていません。
ただこの声明にはAI研究者など、350人以上が著名、オープンAIのサム・アルトマンCEOも名を連ねました。

AIのリスクとは何なのでしょうか。
懸念が高まっているものの1つが急速に進化する画像や音を作りだす生成AI技術です。
AIエンジニアでSF作家でもある安野貴博さんが作成したのが、角谷キャスターの声を事前にAIに学習させることで似た声を作ることが出来るといいます。
この声で佐々木キャスターに電話してみると全く気が付きませんでした。

この技術はもともと病気などで声帯を失った人に向けて作ったものなのですが、安野さんは次のようにおっしゃっています。
「詐欺に使われてしまう心配はあるかなと思います。」
「危険の周知が重要かなと思います。」

こうしたAIによる複製は声だけではありません。
オルツ(東京・港区)の西川仁執行役員は次のようにおっしゃっています。
「(社内会議室のスクリーンに映し出された動画を指して、)ここに写っているのは弊社代表の米倉千貴のクローンです。」

オルツは姿を再現したAIを作りました。
以下は角谷キャスターと米倉代表のクローンのやり取りです。
角谷キャスター:
「米倉さんは、お休みの日は何をしていますか?」
米倉代表のクローン:
「休日はバスケットボールをしたり、デッサンをしたりして過ごしています。」

このやり取りについて、西川さんは次のようにおっしゃっています。
「彼は実際にバスケットボールが好きで、こういったことをよく口にします。」
「その結果、彼のクローンもバスケットボールが好きになっていると。」

AIに本人のメールなどを学習させることで、本人が答えそうな内容をAIが自動で回答することも出来るのです。

しかし、こうした技術は既に悪用され始めています。
中国では、詐欺師が友人の姿に扮して、ビデオ通話し、約8000万円を騙し取る事件が発生。
警察が同様の技術を使った動画で注意を呼び掛けています。
悪用されるリスクについて、西川さんは次のようにおっしゃっています。
「使う方があくまで適切な利用に止めていただくことが非常に重要である。」

踏み込んだ対応に動き出した企業もあります。
画像編集ソフト、「フォトショップ」を手掛けるアドビ株式会社(東京・品川区)は5月にAIを使った新たなサービスを発表しました。
狭い画角で撮影した写真に指示を与えると、撮影していない部分をAIが勝手に作り出したのです。
セットの曲線なども自然に作り出しています。
また写っていないものを写真に加える機能までも搭載。

一方、5月にアメリカでは、国防総省(ペンタゴン)近くで爆発が起きた写真がネットで拡散され、株価が下落する混乱も。(参照:アイデアよもやま話 No.5683 偽画像でマーケットが動揺!

そこで「フォトショップ」に“爆弾”と打ってみると、「生成された画像はユーザーガイドラインに違反するため、削除されました。」と警告のメッセージが表示されます。
また、AIが手を加えたものかどうかも記録されます。
アドビの西山正一常務執行役員は次のようにおっしゃっています。
「フェイクかどうかを判断出来るような仕組みを作りましょうというような働きかけを政府機関、行政機関などに提案をさせていただいている。」

では国はAIのリスクとどう向き合うべきなのでしょうか。
ヨーロッパは行政による規制作りに積極的な姿勢で、既にAIが作った画像に「AI作成」と分かる表示を義務付けることなどを盛り込んだ法案を5月に承認。
日本時間、6月1日未明には欧州委員会のベステアー上級副委員長が次のようにおっしゃっています。
「生成AIは世界を変える。」
「数週間以内にAIの行動規範の草案を作る。」

多くのAI企業を持つアメリカのブリンケン国務長官を前にヨーロッパのAI規制に同調することを求めました。
そのアメリカも議論を始めていますが、規制の方向性はまだ定まっていません。
一方AIの活用に積極的な日本、政府は5月、AI戦略の舵取りを担うAI戦略会議を立ち上げました。
弁護士の立場で、その会議のメンバーになった岡田淳弁護士は次のようにおっしゃっています。
「(日本は規制に関してはまだ推進の立場にあるが、今後、規制の面でもその立場を続けていくべきかという問いに対して、)AIのように変化が激しい分野では強制力のある硬直的な規制は陳腐化し易い。」
「またイノベーションを阻害するという側面があると思います。」
「基本的には不必要で過度な政府による規制は好ましくないと考えておりますし、社会や技術の変化に対応し易いような、フレキシブルでタイムリーにアップデート出来るような規制のありかたも重要になってくるかと思っております。」
「あくまでもリスクとポテンシャルのバランスを取って、本当に規制が必要なのかどうかを慎重に精査する姿勢が必要だと思っています。」

以上、番組の内容をご紹介してきました。

さて、今回ご紹介した内容の中で、まず驚いたのは、ChatGPTを開発したオープンAIのサム・アルトマンCEOが5月30日、アメリカの非営利団体などとともに声明を公開したのですが、「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争などと並んで世界の優先事項であるべきだ」という内容で、わずか一文で具体的にどう滅ぼすかは書かれていないというのです。
要するに、AIはパンデミックや核戦争と同等レベルで人類滅亡のリスクをはらんでいるといい、ChatGPTを開発したオープンAIのサム・アルトマンCEO自身もこうした強い危機感を持っているのです。
ChatGPTを作るOpenAIが安全対策のアイデアを一般から公募し、1400万円の報酬を支払う異例の策を打ち出したことはこうした危機感の表れの1つと言えます。
OpenAIも自らが開発したChatGPTの並外れた有効性を把握しながらも、一方でその秘められた不気味なリスクの大きさを感じており、やむなく安全対策のアイデアを一般から公募しているのです。

一方、現実には既に以下のようにリスクが顕在化しています。
・画像や音を作りだす精巧な生成AI技術により作られた、ある人物の画像や音声を本人のものと認識し、騙された人が出てきた
 -「ワールドビジネスサテライト」(テレビ東京)で、角谷キャスターの声を事前にAIに学習させることで似た声を作り、この声で佐々木キャスターに電話してみると全く気付かれなかった
 -オルツはAIにオルツ代表の米倉さんのメールなどを学習させることで本人が答えそうな内容をAIが自動で回答することが出来て、姿を再現したクローンを作り、角谷キャスターと米倉さんのクローンとがやり取りしたが、自然な会話が成立したのでクローンを本人と間違えてしまう
-中国では、詐欺師が友人の姿に扮して、ビデオ通話し、約8000万円を騙し取る事件が発生した
・国防総省(ペンタゴン)近くで爆発が起きた写真がネットで拡散され、株価が下落した

要するに、私たちは現実においても仮想空間においても自分が接している人物が本人かどうかを識別出来ないような社会に入りつつあるのです。
そして、こうした状況が当たり前の暮らしにおいては、誰しもが安心した時間を過ごすことは適わなくなってしまいます。
また、こうした技術を悪用した犯罪が日常茶飯事で起きてしまうような状況では、何も信用出来なくなってしまいます。
更に、現実に起きているロシアによるウクライナ侵攻では最近、ウクライナ軍が優勢であることが報じられており、一方で、ロシアでは決定的にロシア軍が不利になった場合には核兵器の使用を辞さないというような内容が報じられています。
こうした状況下において、仮にプーチン大統領が核兵器の使用を許可して、ウクライナの主要地域に核爆弾が投下されたとして、その様子が生々しいフェイク動画で拡散されてしまったら、一時的とはいえ、国際社会は大混乱に陥り、株価は大暴落し、最悪のケースでは核戦争の引き金になってしまいます。

こうしたことから、ChatGPTを始めとする生成AIの便利さを最大限に生かす一方で、早急に人類の滅亡をもたらすほどのリスクのあるAIに対する対応策を世界各国が協力して検討し、導入することがとても重要なのです。

そこで、注目すべきは政府のAI戦略会議で示された今後の議論の論点の1つとして含まれた生成AIに関する7項目のリスクです。
中でも、「偽情報による社会の混乱」は人類の滅亡をもたらす大きな要因となります。
そうした中、無数の情報が溢れる中で偽情報を識別するうえで、アドビの以下の取り組みは具体的な対応策を検討するのにとても参考になると思います。
・提供しているアプリ「フォトショップ」に“爆弾”と打ってみると、「生成された画像はユーザーガイドラインに違反するため、削除されました。」と警告のメッセージが表示される
・AIが手を加えたものかどうかが記録される
・フェイクかどうかを判断出来るような仕組みを作るような働きかけを政府機関、行政機関などに提案している

なお、弁護士の立場で、政府のAI戦略会議のメンバーになった岡田弁護士の以下の指摘は国による規制を検討するうえで的を射ていると思います。
・AIのように変化が激しい分野では強制力のある硬直的な規制は陳腐化し易い
・またイノベーションを阻害するという側面がある
・基本的には不必要で過度な政府による規制は好ましくない
・社会や技術の変化に対応し易いような、フレキシブルでタイムリーにアップデート出来るような規制のありかたも重要になってくる
・あくまでもリスクとポテンシャルのバランスを取って、本当に規制が必要なのかどうかを慎重に精査する姿勢が必要である

ちなみに、ChatGPTは生成AIのリスクについて、添付の回答をしています。

添付)

生成AIのリスクは?
ChatGPT
生成AI(Generative AI)は強力な技術であり、さまざまな用途に活用されていますが、いくつかのリスクも伴います。以下は、生成AIの主なリスクのいくつかです:
1.偽情報の拡散: 生成AIはテキスト、画像、音声などのデータを生成できるため、悪意ある利用者が偽の情報を大量に作成し、拡散するリスクがあります。これはフェイクニュースや詐欺などの問題を引き起こす可能性があります。
2.プライバシー侵害: 生成AIを使用して個人情報を生成または解析することができるため、プライバシー侵害のリスクが増加します。個人情報の保護が不十分な場合、悪意のある者がこれを悪用する可能性があります。
3.人種差別や偏見: 学習データに偏りがある場合、生成AIは偏見を持つコンテンツを生成する可能性があります。これは人種差別や性差別の強化につながる可能性があります。
4.悪意のある活用: 生成AIはスパムメール、詐欺、フィッシング攻撃などの悪意のある活動に利用される可能性があります。自動的に大量の詐欺メッセージを生成し、送信することが可能です。
5.道徳的ジレンマ: 生成AIが倫理的に問題のあるコンテンツを生成する場合、開発者や運用者はそのコンテンツを制御し、適切な対応をする責任があります。適切な規制や監視が不足していると、道徳的ジレンマが生じる可能性があります。
6.人間の置き換え: 生成AIは文章の自動生成やクリエイティブなタスクの自動化に利用されることがあり、一部の職業において人間の置き換えをもたらす可能性があります。これにより雇用の懸念が生じることがあります。
7.安全保障上のリスク: 生成AIを利用したサイバー攻撃や情報操作が増加し、国家の安全保障に対するリスクが高まる可能性があります。
これらのリスクに対処するために、生成AIの開発者、利用者、規制当局は適切なガイドライン、規制、監視を確立し、技術の利用に際して倫理的な考慮を優先する必要があります。また、公共の教育と意識向上も重要です。

 
TrackBackURL : ボットからトラックバックURLを保護しています