2023年10月09日
アイデアよもやま話 No.5707 生成AIを巡る国内外の動き!
5月23日(火)付けネット記事(こちらを参照)で生成AIを巡る国内外の動きについて取り上げていたので、その内容を以下にまとめてみました。

(ChatGPの凄まじい早さの進化)
・Open AIが22年11月30日にChatGPTを公開すると、1週間で100万、2カ月で1億ユーザーに到達した。この半年あまりで進化も遂げていて、リリース当初「GPT-3」をベースにしていたものが、現在(記事掲載時)では「GPT-4」にバージョンアップしている。
 -「GPT-3.5」では下位10%の点数しか得られなかった米国司法試験の結果が、「GPT-4」では上位10%に入る回答を出力できるほどの伸びとなった。

(AIやChatGPTの概要と具体的な活用事例)
・ChatGPTをはじめとする大規模言語モデルは、AIの中の狭い一分野に過ぎないという。
・AIという大きな枠の中に、特定のタスクやトレーニングにより実行できるようになるAIとして「機械学習」という枠があり、その機械学習の中にマシンが特徴を自動定義できる「ディープラーニング」がある。
・さらにこのディープラーニングの枠の中にChatGPTやGoogleのBardといった大規模言語モデルがある形だ。
・ChatGPTは人間の指示に沿って、それを実現できそうなツールを選んで操作したり、人間側が組み合わせて利用したりすることができる。
 -例えば組織内の文章を事前にChatGPTに読み込ませておくことによって、従業員の問いに対し、ChatGPTが質問に関係のある社内資料を文脈に沿う形で回答することも可能だ。
 -この社内資料はテキストデータだけでなく、Slackなどの社内チャットツールと組み合わせることもできる。

(生成AIを巡る世界的な動き)
・AIに与えた情報が学習される仕様であることから、情報漏えいのリスクも指摘されている。
 -イタリアでは3月末、ChatGPTの使用が個人情報保護法違反にあたる疑いがあることから、使用を一時禁止していた。企業や大学などの現場でも、利用の可否については対応が分かれている。
・こうした状況の中、ChatGPTをはじめとする対話型AIに対し、どういうルールのもとに利活用していくべきか議論されている。
 -岸田文雄首相はG7広島サミット2023でも生成AIを議題に上げた。担当閣僚の枠組みとして「広島AIプロセス」を立ち上げ、生成AIへの見解を年内にとりまとめる方針を明記している。
 -5月1日には、日本ディープラーニング協会(JDLA)が「生成AIの利用ガイドライン」を発表した。ChatGPTをはじめとする生成AIを組織内でどのように活用していくべきなのか。ビジネスで活用する上で、どんな点に注意すべきかをアナウンスした。
・言語で結果が出力されることから、レポートや論文などによる影響を受けやすい大学をはじめとした教育機関を中心にガイドラインが策定され、G7をはじめとする各国でもルール作りを進めている。
・各国の対応も分かれていて、フランス、ドイツなどではChatGPTのルール作りを急ぐ一方、英国や中国では“自国版ChatGPT”を作ろうとする動きもある。

(生成AIへの日本の対応)
・松尾理事長は、「日本も積極的に使っていかなければいけない一方で『こういった業務には使っていいが、こういった業務には使ってはいけない』といったルールを組織内で定めていく必要がある。また、知財の問題や著作権の問題を定めていかないと利用が促進されない」と指摘した。
 -大きな指針として、日本でも大規模言語モデルを自ら開発すると同時に、ChatGPTを含めたAPIを使ったサービスを作ることを奨励し、ユーザーとしての活用を促進することが重要だという。
・松尾理事長は「自前の大規模言語モデルは数百億円の予算があれば、同じようなものは製作できる。今後の意ンパクトの大きさを考えれば、相手に遅れてトップをとれなくとも、この戦いに参入するべきだ」と訴えた。
・DXが進んでいない企業であっても、言語による指示ができることによって、DXの決め手となる可能性もあるという。

(“和製ChatGPT”開発の機運の高まり)
・ソフトバンクは、生成AIを開発するための子会社を設立。
・サイバーエージェントも最大68億パラメータの日本語大規模言語モデルを一般公開した。
・東京工業大学や富士通なども、スーパーコンピューター「富岳」を使って2023年度中に、より高度な生成AIを開発すると発表。

(日本における生成AI関連リスクへの対応策)
・JDLAの発表会で松尾豊理事長と、JDLA有識者会員で、STORIA法律事務所で代表パートナー弁護士を務める柿沼太一弁護士が登壇し、技術の面と、法律の面双方のリスクについて取り上げた。
・JDLAが発表したガイドラインでは、企業や組織がChatGPTを外部のサービスとして利用する上で、いくつかのリスクがあるとしている。
 -まず、ChatGPTをはじめとする大規模言語モデルは、与えられた情報を次なる精度の向上のため「学習」する仕様となっている。
 -つまり、入力したデータに秘匿性がないのだ。そのため個人情報に加え、社内や他社から秘密保持契約(NDA)などで共有された秘密情報をChatGPTに入力してしまうと、第三者への情報漏えいとなってしまう。そのため、こうした情報を入力してはならない。
 -一方で、他人の書いた文章や画像、写真など、他社の著作物をChatGPTや画像生成AIに「入力すること自体」は著作権侵害や意匠権侵害、商標権侵害には該当しないという。ただし、そこから生成されたものを使用する場合には注意が必要で、類似性が高いと権利の侵害にあたる可能性がある。
・著作権など権利の侵害以外に、生成物の扱いでもさまざまなリスクがあるという。
 -生成物の文章に虚偽が含まれている可能性が大いにある
 -ChatGPTをはじめとする大規模言語モデルの原理は、「ある単語の次に用いられる可能性が確率的に最も高い単語」を出力することで、もっともらしい文章を生成するというものだ。そのため、出力された文章が正しいとは限らないのだ。こうした性質上、大学のレポートなどでは使用を禁止している大学が少なくない。
 -著作権についてもさらに注意が必要で、他人の著作物を侵害する可能性がある一方で、生成された文章をそのまま使用すると、著作権が発生しない可能性もあるという。
・JDLA有識者会員で、STORIA弁護士事務所代表パートナー弁護士の、柿沼太一弁護士は、「生成AIが作ったコンテンツに著作権が発生しないとなれば、それを自社のコンテンツとして発表してもそれはパクられ放題になる。特にエンタメ系の企業の場合は、そこが重要になってくると思う」と警鐘を鳴らす。
・こうした事態を避けるために、生成物をそのまま使用することは避け、できるだけ加筆・修正する必要がある。AIの生成物をもとにアレンジしていった自分の著作物とする姿勢が必要になってくるだろう。
・いくつかのリスクはあるものの、適切に使えば大規模言語モデルは企業の業務効率を飛躍的に向上させる。
・柿沼弁護士も、「自社がどういうサービスを使うのか、どういうデータを入力して生成物をどう使うのかを把握・検討して各社独自のガイドラインを作り、業務に最大限活用してほしい」と話す。
・あらゆるツールは使い方によってベネフィットにもなるし、リスクにもなる。
・ChatGPTをはじめとする大規模言語モデルも、どういうリスクがあるのかを見極めながら各社がガイドラインを策定することが重要だ。そして適切に業務に活用していくことが、今後の課題だろう。

以上、ネット記事の内容のまとめでした。

そもそもChatGPTの凄まじい早さの普及に驚きです。
ChatGPTは昨年11月30日に公開され、1週間で100万、2ヵ月で1億ユーザーに到達したのです。
また、リリースしてから半年足らずの間のバージョンアップで当初では下位10%の点数しか得られなかった米国司法試験の結果が上位10%に入る回答を出力出来るほどに成長したというのです。
人類の中で、どのくらいの人がこれほどの能力を持っているのか分かりませんが、いたとしても非常に少ないと思います。
この勢いでChatGPTが進化していけば、人類との能力の差はとんでもない速さで広がっていきます。

ちなみに、ChatGPTへのアクセスの世界ランキングは1位がアメリカ、2位はインドで日本は3位といいます。(こちらを参照)
ですから、この調査によれば、人口比で比べれば、日本はもっともChatGPTを利用している国ということになります。

さて、ChatGPTを始めとする生成AIを巡っては、国内外において試行錯誤の活用が広がる一方で、いろいろなリスクを想定したガイドラインの作成、あるいは法的規制などの検討が進められています。
その際のキーポイントは利便性や生産性向上などのメリットと労働人口の削減による失業率の増加や詐欺などの犯罪の増加といったディメリットとのバランスを考慮しての対応ということになります。

 
TrackBackURL : ボットからトラックバックURLを保護しています