2024年04月06日
プロジェクト管理と日常生活 No.864 『AIで初の国際指針の合意』
プロジェクト管理と日常生活 No.860 『初のAI安全サミット開催!』で初のAI安全サミット開催についてお伝えしました。
そうした中、昨年12月1日(金)放送の「ワールドビジネスサテライト」(テレビ東京)でAIで初の国際指針の合意について取り上げていたのでご紹介します。 
なお、日付は全て番組放送時のものです。

G7、主要7ヵ国は、つい先ほど生成AIの国際的なルール作りを目指す枠組み、「広島AIプロセス」で合意し、閣僚声明を採択しました。
AIの開発者や利用者の責務を国際的に定めるのは初めてです。
日本が議長国を務めるG7デジダル・技術大臣会合では、安全で信頼出来るAIの開発や利用に向けた12項目の指針で合意しました。
指針には個人情報や知的財産を保護することやAIが作ったコンテンツを認識出来るよう、「電子透かし」を導入することが盛り込まれています。
また、偽情報の拡散を防ぐためにデジタルリテラシー(デジタル技術について十分に理解し、効果的に活用するためのスキルや能力)を向上させるとしています。
特に偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めることで合意しました。
今後はG7以外の国にも賛同を得ることを目指します。

以上、番組の内容をご紹介してきました。

番組の内容を以下にまとめてみました。
・G7は生成AIの国際的なルール作りを目指す枠組み、「広島AIプロセス」で合意し、閣僚声明を採択した
 -AIの開発者や利用者の責務を国際的に定めるのは初めてである
・G7デジダル・技術大臣会合では、安全で信頼出来るAIの開発や利用に向けた、以下の内容を含む12項目の指針で合意した
-個人情報や知的財産を保護すること
-AIが作ったコンテンツを認識出来るよう、「電子透かし」を導入すること
-偽情報の拡散を防ぐためにデジタルリテラシーを向上させること
-偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めること

さて、個人情報や知的財産の保護、偽情報の採択、および拡散防止は、今後、私たちが生成AIを活用していくうえで、とても重要なリスク対応策です。
そして、G7が初めてAIの開発者や利用者の責務を国際的に定めたのです。
しかも、偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めることになったのです。
ですから、是非、G7はスピード感を持って、こうした取り組みを継続させ、その成果をAI安全サミットにつなげて、世界各国の国民が安心して、生成AIを活用出来る社会を実現していただきたいと願います。
また、冒頭のAI安全サミットで取り上げられた、“悪用されれば人類に壊滅的な影響を及ぼす”AIのリスクが発生してしまうことは絶対に避けなければならないのです。

なお、G7デジダル・技術大臣会合の開催結果の具体的な内容についてはこちらを参照下さい。
また、安全で信頼出来るAIの開発や利用に向けた12項目の指針を含む、全ての AI 関係者向けの広島プロセス国際指針はこちらを参照下さい。で初のAI安全サミット開催についてお伝えしました。
そうした中、昨年12月1日(金)放送の「ワールドビジネスサテライト」(テレビ東京)でAIで初の国際指針の合意について取り上げていたのでご紹介します。 
なお、日付は全て番組放送時のものです。

G7、主要7ヵ国は、つい先ほど生成AIの国際的なルール作りを目指す枠組み、「広島AIプロセス」で合意し、閣僚声明を採択しました。
AIの開発者や利用者の責務を国際的に定めるのは初めてです。
日本が議長国を務めるG7デジダル・技術大臣会合では、安全で信頼出来るAIの開発や利用に向けた12項目の指針で合意しました。
指針には個人情報や知的財産を保護することやAIが作ったコンテンツを認識出来るよう、「電子透かし」を導入することが盛り込まれています。
また、偽情報の拡散を防ぐためにデジタルリテラシー(デジタル技術について十分に理解し、効果的に活用するためのスキルや能力)を向上させるとしています。
特に偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めることで合意しました。
今後はG7以外の国にも賛同を得ることを目指します。

以上、番組の内容をご紹介してきました。

番組の内容を以下にまとめてみました。
・G7は生成AIの国際的なルール作りを目指す枠組み、「広島AIプロセス」で合意し、閣僚声明を採択した
 -AIの開発者や利用者の責務を国際的に定めるのは初めてである
・G7デジダル・技術大臣会合では、安全で信頼出来るAIの開発や利用に向けた、以下の内容を含む12項目の指針で合意した
-個人情報や知的財産を保護すること
-AIが作ったコンテンツを認識出来るよう、「電子透かし」を導入すること
-偽情報の拡散を防ぐためにデジタルリテラシーを向上させること
-偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めること

さて、個人情報や知的財産の保護、偽情報の採択、および拡散防止は、今後、私たちが生成AIを活用していくうえで、とても重要なリスク対応策です。
そして、G7が初めてAIの開発者や利用者の責務を国際的に定めたのです。
しかも、偽情報の採択については、AIの国際的機関の東京センターを設置し、各国の政府や企業とともに研究プロジェクトを進めることになったのです。
ですから、是非、G7はスピード感を持って、こうした取り組みを継続させ、その成果をAI安全サミットにつなげて、世界各国の国民が安心して、生成AIを活用出来る社会を実現していただきたいと願います。
また、冒頭のAI安全サミットで取り上げられた、“悪用されれば人類に壊滅的な影響を及ぼす”AIのリスクが発生してしまうことは絶対に避けなければならないのです。

なお、G7デジダル・技術大臣会合の開催結果の具体的な内容についてはこちらを参照下さい。
また、安全で信頼出来るAIの開発や利用に向けた12項目の指針を含む、全ての AI 関係者向けの広島プロセス国際指針はこちらを参照下さい。

 
TrackBackURL : ボットからトラックバックURLを保護しています