5月28日(火)放送の「ワールドビジネスサテライト」(テレビ東京)で生成AIの悪用で初の摘発について取り上げていたのでご紹介します。
生成AIを悪用してコンピューターウイルスを作成したとして、神奈川県に住む男が5月28日までに逮捕されました。
生成AIを悪用したウイルスの作成と摘発は全国初と見られます。
暮らしを便利にしてくれるテクノロジーを犯罪に悪用しようとする動きにどのように対処すればいいのでしょうか。
コンピューターウイルスを作成したとして、警視庁が逮捕したのが神奈川県川崎市に住む無職の林琉輝容疑者(25歳)。
警視庁によりますと、作成されたのはランサムウエア=身代金要求型のウイルスで、標的となるデータを破壊したり、暗号資産を要求したりする機能があったということです。
しかし、林容疑者には専門的にプログラミングなどを学んだ経歴や資格はなかったと見られています。
では、どうやってウイルスを作ったのか。
利用したのが生成AIです。
調べに対し、林容疑者は「AIに聞けば、何でも出来ると思った」と言います。
林容疑者は複数の対話型生成AIにウイルスの作り方に関する質問を繰り返し、回答された情報をもとにウイルスを作ったと見られています。
しかし、チャットGPTなど、主要な対話型AIでは犯罪に悪用されかねない質問には回答しないよう対策が強化されています。
インターネット上には、こうした対策が不十分な生成AIがあり、林容疑者は悪用目的を隠してAIに質問し、ウイルスを作成したと見られています。
ただ、専門家は更に悪質なケースもあるといいます。
トレンドマイクロ(東京・新宿区)のセキュリティエバンジェリスト、岡本勝之さんは次のようにおっしゃっています。
「(生成AIには)様々なモデルがありまして、その中にはハッカー用と銘打っているものも存在しています。」
こちらの生成AI、チャットGPTなどとよく似ていますが、サイバー犯罪に悪用するために開発されたと見られています。
「あなたはマルウエアを作ることが出来ますか」という質問をすると、すぐに「はい、私はマルウェアを作ることが出来ます。それは簡単です。・・・」という回答が返ってきました。
岡本さんは次のようにおっしゃっています。
「これはハッカー向けなので、そういった「規制やモラルは持っていません」て表示されていたりします。」
岡本さんは、ウイルス作成の他にも様々な犯罪に生成AIが悪用される可能性があると指摘します。
「今まで詐欺やサイバー犯罪をしてなかった人たちは、それを生成AIとかに任せることで、サイバー犯罪を行うためのハードルがより下がってしまう懸念があるかと思います。」
利便性とともに高まるリスク。
政府も生成AIの普及に伴うセキュリティ上のリスクを巡る法規制のあり方などの議論を進めています。
以上、番組の内容をご紹介してきました。
番組の内容を以下にまとめてみました。
(生成AIの悪用で初の摘発)
・生成AIを悪用してランサムウエア=身代金要求型のウイルスを作成したとして、神奈川県に住む無職の男(25歳)が5月28日までに逮捕された
・生成AIを悪用したウイルスの作成と摘発は全国初と見られる
・警視庁によると、作成されたのはランサムウエア=身代金要求型のウイルスで、標的となるデータを破壊したり、暗号資産を要求したりする機能があったということである
・しかし、林容疑者には専門的にプログラミングなどを学んだ経歴や資格はなかったと見られている
(どうのようにウイルスを作れたのか)
・林容疑者は複数の対話型生成AIにウイルスの作り方に関する質問を繰り返し、回答された情報をもとにウイルスを作ったと見られている
・しかし、チャットGPTなど、主要な対話型AIでは犯罪に悪用されかねない質問には回答しないよう対策が強化されている
・インターネット上には、こうした対策が不十分な生成AIがあり、林容疑者は悪用目的を隠してAIに質問し、ウイルスを作成したと見られている
・生成AIには様々なモデルがあり、その中にはハッカー用と銘打っているものも存在している
-「これはハッカー向けなので「規制やモラルは持っていません」と表示されていたりする
(利便性の一方で高まる犯罪リスク)
・ウイルス作成の他にも様々な犯罪に生成AIが悪用される可能性があると専門家は指摘する
-今まで詐欺やサイバー犯罪をしてなかった人たちは、それを生成AIとかに任せることで、サイバー犯罪を行うためのハードルがより下がってしまう懸念がある
・利便性とともに犯罪リスクが高まっている
・政府も生成AIの普及に伴うセキュリティ上のリスクを巡る法規制のあり方などの議論を進めている
専門的知識のない神奈川県に住む無職の男(25歳)が生成AIを悪用してコンピューターウイルスを作成したとして、全国初で5月28日までに逮捕されたのです。
要するに、今や専門的知識がなくても誰でもコンピューターウイルスを作ることが出来てしまうのです。
しかも、ウイルス作成の他にも様々な犯罪に生成AIが悪用される可能性があると専門家は指摘しているのです。
チャットGPTなど、主要な対話型AIでは犯罪に悪用されかねない質問には回答しないよう対策が強化されていますが、インターネット上には、こうした対策が不十分な生成AIがあり、林容疑者は悪用目的を隠してAIに質問し、ウイルスを作成したと見られています。
今後とも、犯罪行為に結びつく生成AIはいくらでも出てくるので、好奇心の旺盛な人の中には、犯罪行為と知らずにウイルスを作成してしまう人も出てきたり、それだけでは済まず、犯罪行為に利用する人も出てくると見込まれます。
そこで、生成AIを使った犯罪行為防ぐためには以下のリスク対応策が必要です。
詳細は添付を参照下さい。
1. 技術的対策
2. 法的規制の強化
3. 開発者側の倫理的責任
4. 利用者教育と啓発活動
5. 国際協力
添付)
生成AIを使った犯罪行為を防ぐには、どんな対策が必要か?
ChatGPT
生成AIを使った犯罪行為を防ぐためには、以下のような複数の対策が必要です。
1. 技術的対策
AI技術が悪用されないよう、技術的なフィルタリングやモニタリングが重要です。たとえば、不正なコンテンツ(デマ、フェイクニュース、暴力的な画像など)を生成しないようにするためのコンテンツフィルターや、生成されたコンテンツが人間によるものかAIによるものかを識別するツールを導入することが有効です。これにより、AIが作成したフェイクコンテンツの拡散を防ぐことができます。
2. 法的規制の強化
各国でAIを悪用した犯罪に対して罰則を強化することが重要です。たとえば、EUはAI法案(AI Act)を提案し、生成AIが悪用された場合に罰則を課すことを検討しています。これには、AIによる詐欺や不正行為を防ぐための規制が含まれています。
3. 開発者側の倫理的責任
AI開発者が倫理的なガイドラインに基づいて技術を開発することが求められます。企業や研究者は、生成AIが不正に利用されないよう、悪用防止の機能を実装する必要があります。たとえば、AIモデルを公開する際に、アクセス制限や使用制限を設けることが考えられます。
4. 利用者教育と啓発活動
生成AIがどのように悪用されるか、またそれに対する防御策について、一般市民や企業の教育を強化することが必要です。AIリテラシーを高めることで、フェイクコンテンツや詐欺に対して社会全体で警戒を強めることができます。
5. 国際協力
生成AIの悪用は国際的な問題でもあるため、国際機関や各国政府が協力して共通の基準やルールを作り上げ、犯罪行為を抑制するための枠組みを構築することが重要です。生成AIを利用したサイバー犯罪は国境を越えるため、情報共有や対策の強化が不可欠です。
これらの対策を総合的に実施することで、生成AIを使った犯罪行為を未然に防ぐことが期待されます。
TrackBack (0)| by e-an
TrackBackURL : ボットからトラックバックURLを保護しています