昨年12月17日(火)放送の「ワールドビジネスサテライト」(テレビ東京)でSNSユーザーに求められる情報リテラシーについて取り上げていたのでご紹介します。
なお、日付は全て番組放送時のものです。
番組では、SNSやAI社会の分岐点について、AIエンジニアの安野貴博さんにお話を伺っています。
前々回、アイデアよもやま話 No.6200 選挙運動でのブロードリスニングの有効性!、前回、アイデアよもやま話 No.6201 AIエンジニアの安野貴博さんによる、都知事選での選挙運動で活用したブロードリスニング以外の手法とは?も登場した安野さんは次のようにおっしゃっています。
「(SNS上では、自分に近い意見ばかりが目に留まるような仕組みになっているが、これは問題ではという問いに対して、)これは問題の一つだとは思ってまして、ただ、先ほどブロードリスニングを紹介しましたけど、こういったものは自分が見えていた意見の世界というのが全体のマップの、この辺だけだったんだなということを分かることが出来る。」
「そういう意味で、フィルターバブル(添付1参照)と言われている問題がありますけど、それを乗り越える1つのきっかけになるんじゃないかなと思っています。」
「(そういうのを見ないと、ついつい偏った意見になってしまいますが、)はい。」
「情報リテラシー(添付2参照)というところも非常に大事だと思ってまして、自分の意見と逆な意見を言ってる人がいないかであるとか、ちょっと、そういうニュースがあったら、他に、そういうことを言っている人がいないかであるとか、複数の情報源を確認していくというのが重要になるかなと思います。」
「(また、ネット上では嘘とかデマ、誹謗中傷も飛び交っているが、AIの進歩によって、こうしたものがどんどん巧妙になっていくことにはならないかという問いに対して、)AIで出来たものの巧妙さって、専門家が見ても分からないレベルになっているので、1つ、お伝えしたいのは、自分が、生成された画像、映像、音声を見て、見抜けると思わない方がいいということだと思います。」
「嘘を嘘だと見抜けるような時代は終わってしまったんだと。」
「なので、複数の情報源を見るとことが大事かなと。」
「ただ、一方で、技術というものをうまく使うことで、こういうもので対処することは出来ると思ってまして。」
「例えば、フェイク情報を検出するためのAI。」
「これはこれで、伸びてきているんですよね。」
「そういった技術をしっかり使っていくということも必要ですし、あと、もう少し引いてみた時に言うと、ネットっていろんな情報があるものの、これ、もうちょっと解像度を高めて分析する必要があると思います。」
「というのも、ネットの中に、いろいろ取材をしてファクトを出しているメディアもありますし、X(旧ツイッター)とユーチューブでは全然違う。」
「ユーチューブの中でもショート動画、生配信、動画といろいろな種類のものが沢山あるので、ネットって一括りにせず、その中で、どういうメディアを信頼出来るんだろうという議論に、もう少し一歩、進化していく必要があるんじゃないかと思っています。」
「(その点でいうと、アメリカの大統領選は勿論ですが、兵庫県の知事選挙でも、いわゆるSNSと我々(テレビ業界)のような既存のメディアによる分断というか、言ってることが違うと、どっちが正しいんだと、既存メディアの方が間違っているんじゃないかという批判もあるが、この分断をどのように受け止めたらいいというか問いに対して、)これは、私はオールドメディア側、既存メディア側が出来ることは、もう少しあったんじゃないかなと思ってまして。」
「つまり、選挙期間が始まった時に、公平性の観点から、かなり候補者に関する報道は抑制的になりますよね。」
「そうなると、本当に有権者が知りたいことを既存のメディアが報じてくれないという、情報の空白が生まれるわけです。」
「それに対して、ネットでは情報が沢山あるという状態が生まれる。」
「この時に、やはり既存のメディアって、すごい調査能力があったり、取材の能力がありますので、その能力を活かしながらファクトをしっかり伝える。」
「有権者が知りたいと思っていることを伝えるということがもう少し出来るんじゃないかなと思っています。」
「(やはり、両方の量をもっと出さなきゃいけないということになるという指摘に対して、)量的な公平性っていうところと有権者が知りたいことバランスをもう少しリスクを取るといいんじゃないかなと思います。」
確かに我々もある種、平等に扱うと尺とか秒数、分数の平等に縛られる。
そこから一歩、ある種、量で詳しくやることで対応しなきゃいけないっていうところなのかもしれないですね。
以上、番組の内容をご紹介してきました。
番組を通して、安野さんの見解を以下にまとめてみました。
・SNS上では自分に近い意見ばかりが目に留まるような仕組みになっているが、これは問題の一つで、ブロードリスニングにより、自分が見えていた意見の世界が全体のマップのどの辺かが分かる
・ブロードリスニングが、フィルターバブルの問題を乗り越える1つのきっかけになる
・情報リテラシーも非常に大事で、自分の意見と逆な意見を言ってる人がいないかであるとか、複数の情報源を確認していくというのが重要になる
・ネット上では嘘とかデマ、誹謗中傷も飛び交っているが、AIの進歩によって、こうしたものがどんどん巧妙になっていくが、AIで出来たものの巧妙さで、専門家が見ても分からないレベルになっている
-自分が生成された画像、映像、音声を見て、見抜けると思わない方がいい
-嘘を嘘だと見抜けるような時代は終わってしまった
-複数の情報源を見ることが大事である
・一方で、技術をうまく使うことで嘘に対処することは出来る
-例えば、フェイク情報を検出するためのAIは伸びてきている
・ネット上にはいろんな情報があるものの、これをもう少し解像度を高めて分析する必要がある
-ネットの中には、いろいろ取材をしてファクトを出しているメディアもある
-ユーチューブの中でもショート動画、生配信、動画といろいろな種類のものが沢山あるので、こうしたネットアプリを一括りにせず、その中で、どういうメディアを信頼出来るのかという議論に、もう少し一歩、進化していく必要がある
・アメリカの大統領選や兵庫県の知事選挙でも、SNSと既存のメディアによる分断というか、言ってることが違うと、既存メディアの方が間違っているんじゃないかという批判もあるが、既存メディア側が出来ることは、もう少しあったと思う
-既存メディアは選挙期間が始まった時に、公平性の観点から、かなり候補者に関する報道は抑制的になる
-そうなると、本当に有権者が知りたいことを既存のメディアが報じてくれないという、情報の空白が生まれる
-それに対して、ネットでは情報が沢山あるという状態が生まれる
-この時に既存のメディアはすごい調査能力や取材能力があるので、その能力を活かしてファクトをしっかり伝える
-有権者が知りたいと思っていることを伝えるということがもう少し出来ると思っている
-両方で、量的な公平性っていうところと有権者が知りたいことバランスをもう少しリスクを取るといい
更に、個人の観点、および既存のメディアから問題点と解決策を以下にまとめてみました。
【個人】
問題1:
・SNS上では自分に近い意見ばかりが目に留まるような仕組みになっている
解決策1:
・ブロードリスニングにより、自分が見えていた意見の世界が全体のマップのどの辺かが分かる
・ブロードリスニングが、フィルターバブルの問題を乗り越える1つのきっかけになる
問題2:
・ネット上では嘘とかデマ、誹謗中傷も飛び交っているが、AIの進歩によって、こうしたものがどんどん巧妙になっていく
・AIで出来たものの巧妙さで、専門家が見ても分からないレベルになっている
解決策2:
・情報リテラシーを高める
・自分の意見と逆な意見を言ってる人がいないかなど、複数の情報源を確認していく
・フェイク情報を検出するためのAIをうまく活用して、フェイク情報かどうかを見極める
【既存メディア】
問題1:
・選挙期間中、公平性の観点から、かなり候補者に関する報道は抑制的になる
・そのため、本当に有権者が知りたいことを既存のメディアが報じてくれないので情報の空白が生まれる
・そのため、フェイクニュースが氾濫状態になり、選挙結果を左右するような状態になっている
解決策1:
・既存メディアとして、何らかの手段で、明らかにフェイクニュースと判断出来る情報については、ブロードリスニングなどのツールを使って、その旨、誰もが見ることが出来る状態を作り出す
こうしてまとめてきて、特に印象に残るのは、安野さんの次の言葉です。
・「AIで出来たものの巧妙さは、専門家が見ても分からないレベルになっている」
・「自分が、生成された画像、映像、音声を見て、見抜けると思わない方がいい」
ですから、日頃から情報リテラシーを高めておいて、特に選挙の時期や災害時、あるいは誰かへの誹謗中傷などに関する記事については、情報リテラシーを発揮し、ファクトかフェイク、すなわち真偽を判断出来るようにしておくことがとても重要なのです。
添付1)
フィルターバブルとは?
ChatGPT:
フィルターバブル(filter bubble)とは、インターネット上でユーザーが自分の興味や過去の行動に基づいてアルゴリズムによって選別された情報だけを受け取り続ける状態のことを指します。この用語は、アメリカのインターネット活動家・作家の**イーライ・パリサー(Eli Pariser)**が2011年に提唱しました。
📌 フィルターバブルの仕組み
検索エンジン(Googleなど)やSNS(Facebook、Xなど)、ニュースサイトなどでは、次のような情報をもとに表示内容が個別最適化されます:
- 閲覧履歴
- クリック傾向
- 位置情報
- 「いいね」やフォロー
- 購入履歴 など
その結果、ユーザーは自分の好みに合った情報ばかりを目にするようになります。
⚠️ 問題点
問題点
|
説明
|
✅ 多様な視点に触れにくくなる
|
自分と異なる意見が表示されにくくなり、偏った世界観に陥る。
|
✅ 認知バイアスの強化
|
既に持っている信念や価値観がさらに強化される(エコーチェンバー現象)。
|
✅ 社会的分断の促進
|
政治・宗教などの意見対立が激化しやすくなる。
|
✅ 民主主義への影響
|
選挙や公共政策に関する判断材料が限られる恐れがある。
|
🛠️ 対策はあるのか?
- 多様なメディアを意識して見る
- 逆の意見や立場のコンテンツに触れる
- 「おすすめ」ではなく自分で検索して探す
- 一部のサービスでは「フィルター強度」を調整できる設定もある
🎯 要点まとめ
フィルターバブルとは、「見たい情報しか見えなくなる情報の泡」のこと。
私たちが自由に選んでいるようで、実はアルゴリズムに「選ばされた世界」に生きているという指摘です。
添付2)
情報リテラシーとは?
ChatGPT:
情報リテラシー(information literacy)とは、現代の情報社会において、情報を正しく探し・評価し・活用するための能力のことです。単に「情報を知っている」だけでなく、その真偽・意図・背景を見抜いて適切に使える力を指します。
📘 情報リテラシーの定義(簡潔に)
「必要な情報を探し出し、それが正確で信頼できるかを見極めて、目的に応じて使う能力」
🧠 情報リテラシーの5つの基本ステップ
- 情報の必要性を認識する
例:「なぜその情報が必要なのか」「どんな情報が必要か」
- 情報を探す方法を知っている
例:検索エンジン、図書館、学術データベース、SNSなどを適切に使う
- 情報の信頼性を評価する
例:情報源は信頼できるか?データは正確か?バイアスがあるか?
- 情報を整理・活用する
例:レポートにまとめる、プレゼンで伝える、実務に応用する
- 情報倫理を守る
例:著作権を尊重する、引用元を明示する、個人情報を保護する
🔍 なぜ情報リテラシーが重要なのか?
理由
|
説明
|
🌐 情報量が爆発的に増加
|
正確な情報を選ぶのが難しくなっている
|
📱 SNSやネット上の偽情報
|
誤情報・フェイクニュースに惑わされやすい
|
🧩 知識の断片化
|
知識が深まらず、誤解が増える可能性がある
|
🏫 教育や仕事で必須
|
論文作成、プレゼン、ビジネス判断などに直結する
|
🧭 例:情報リテラシーが問われる場面
- 健康情報をネットで調べる → 医学的に信頼できる情報か見極める
- SNSでニュースを見る → ソースは?捏造や誘導では?
- 課題レポートを書く → 引用と盗用の違いを理解しているか?
🗣️ まとめ
情報リテラシーとは、情報に使われる側ではなく、使いこなす側になるための力です。
現代に生きるすべての人にとって、学力やITスキルと同じくらい重要な「現代的な基礎能力」といえます。
添付3)
LINEなどのSNSサプライヤーは、どのようなフェイクニュース対策を実施しているか?
ChatGPT:
以下に、LINEを中心としたSNSにおけるフェイクニュース対策を、一般的な仕組みの解説とLINEヤフーによる公式発表内容の両面から統合して整理します。
✅ SNSにおけるフェイクニュース対策(一般概要 + LINEの実例)
- ファクトチェック機関との連携
- SNS各社は、AFP・Snopes・JFC(日本ファクトチェックセンター)などと連携。
- LINEは、台湾で「LINE Fact Checker」公式アカウントを提供。ユーザーが投稿されたテキスト・画像・音声を送り、提携機関が真偽を即時判定(真実/偽/一部真実など)。
- 誤情報に対する警告表示とアルゴリズム制御
- 投稿に「注意喚起」や「第三者による事実確認済み」のラベルを表示。
- 偽情報の拡散を抑えるため、アルゴリズム上の優先度を下げる(タイムラインに表示されにくくする)調整も行う。
- AI監視 + モデレーターの人力対応
- LINEを含む主要SNSではAIが投稿をスクリーニングし、疑義があるものを人間モデレーターに回す体制が存在。
- 日本ではLINEヤフーが「Yahoo!ニュースコメント」「LINEオープンチャット」等での監視強化を進めている。
- ユーザーによる通報機能の整備
- SNS各社は、ユーザーが虚偽情報や問題投稿を通報できる機能を設けており、LINEも同様の報告システムを実装。
- 政府・公的機関との協働
- LINEヤフーは総務省の「DIGITAL POSITIVE ACTION」プロジェクトに参加し、誹謗中傷・偽情報・詐欺広告への対策を強化。
- 公的機関と連携して選挙・災害時などの正確な情報提供を重視。
- 情報リテラシー教育・啓発
- LINEみらい財団などを通じて、子ども・若者・高齢者を対象とした情報リテラシー向上活動を実施。
- 誤情報にだまされない力を育む社会教育の一環として注力。
✅ LINE特有の先進事例(台湾)
- 「LINE Fact Checker」:ユーザーがLINE公式アカウントに送った情報(文章・画像・音声)について、提携ファクトチェック機関が分析・判定。
- 真偽結果が数分以内に返信される即応型モデルで、社会的影響力が大きく評価されている。
🔚 結論
LINEを含むSNSプラットフォーマーは、フェイクニュース対策として**技術(AI)・制度(ファクトチェック)・ユーザー行動(通報)・教育(リテラシー)**の4本柱で対応を進めています。
特にLINEは、日本だけでなく台湾や東南アジアにおいても公式サービスとして対策を実装しており、国家レベルの協力も進んでいます。今後は、情報の透明性向上とユーザーの情報判断力強化が重要なテーマとなります。
添付4)
これらの対策でも対応出来ないフェイクニュースとは?
ChatGPT:
非常に優れたSNS上のフェイクニュース対策が導入されていても、完全には対応できないタイプのフェイクニュースがいくつか存在します。以下に主なものを示します。
✅ 対応が難しいフェイクニュースのタイプ
- 「意見」や「感情」に偽装されたフェイク
- 例:「◯◯は信用できない」「△△の背後には陰謀があると思う」など、事実ではなく主観や憶測の形で表現される。
- ✔対策困難な理由:事実かどうかの判定ができず、「言論の自由」の範疇とされる。
- 悪意のない拡散(善意型フェイク)
- 例:地震や感染症流行時に「〇〇が有効です」「△△は危険です」といった未確認情報が親切心で拡散される。
- ✔対策困難な理由:拡散者に悪意がなく、検知・制限対象と見なされにくい。
- 最新技術による精巧な偽造(ディープフェイクなど)
- 例:政治家が発言していないことを話しているかのような動画や音声。
- ✔対策困難な理由:見分けが非常に難しく、人間の直感では判別できないほど精巧。
- ローカルな文脈依存の情報
- 例:地域限定のうわさや、特定コミュニティ内で信じられている「常識」。
- ✔対策困難な理由:ファクトチェック機関やAIがその文脈や背景を把握できない。
- 外国語やスラング・暗号化された表現
- 例:符号化された隠語、外国語で投稿された偽情報(検知対象外になりやすい)。
- ✔対策困難な理由:AIによる自然言語処理が追いつかず、監視網をすり抜ける。
🔍 さらに根深い問題:心理的バイアス
- ユーザー自身の「信じたいものしか見ない(確証バイアス)」「敵対する意見を排除する傾向」などがフェイクの温床となる。
- いかに制度を整えても、「情報を信じる側の心の壁」が最大の課題。
✅ 対策の限界を超えるには?
- リテラシー教育の強化(学校・企業・家庭での啓発)
- メディア側の透明性向上(取材方法・出典明記)
- ユーザー同士の「気づき」や警告の文化(共有・通報)
- AIによるマルチモーダル判定技術の進化(映像・音声を含む真偽判定)
添付5)
ディープフェイク被害の事例は?
ChatGPT:
ディープフェイク技術の悪用による被害は、近年日本国内でも深刻化しています。以下に、実際に報告された主な事例を紹介します。
📌 日本におけるディープフェイク被害の実例
- AI生成のわいせつポスター販売事件(2025年4月)
東京都警は、AIを用いて女性のわいせつ画像を生成し、オンラインオークションで販売していた男女4人を逮捕しました。これは日本で初めてAI生成画像の販売が摘発されたケースで、容疑者は「簡単に稼げると思った」と供述しています。販売されたポスターは「AI美女」と称され、数千円で取引されていました。 Kyodo News+
- 卒業アルバム写真を使用したディープフェイクポルノの拡散(2025年春)
日本各地で、卒業アルバムの写真を無断で使用し、AIで生成された性的な動画が拡散される事件が報告されています。被害者の中には未成年も含まれており、金銭を要求する脅迫も行われています。特に春休みの時期に被害が増加し、相談窓口への問い合わせも急増しています。 News On Japan
- 有名人の顔を使用したディープフェイクポルノの販売(2020年)
東京で、女優や歌手の顔をポルノ映像に合成し、ウェブサイトで販売していた男性3人が名誉毀損の疑いで逮捕されました。被害に遭った芸能事務所は、所属タレントが中傷や嫌がらせを受けていると報告しています。 朝日新聞GLOBE+南華早報
📊 被害の実態と傾向
トレンドマイクロの調査によると、ディープフェイクの悪用に遭ったことがあると回答した人のうち、約24%が実質的な被害(心理的ショックや金銭的損失)を受けています。特に30代女性の被害率が高く、約半数が被害を経験しています。また、ディープフェイクを見分けられると自信を持つ人は全体のわずか1.9%に過ぎません。 Trend Micro
🛡️ 対策と法的対応
日本では、ディープフェイクの悪用に対する法整備が進行中です。例えば、鳥取県では未成年の画像を使用したディープフェイクポルノを禁止する条例が制定されました。しかし、全国的な法律はまだ整備されておらず、被害者保護や加害者の処罰に課題が残っています。
ディープフェイク技術の進化により、個人のプライバシーや名誉が侵害されるリスクが高まっています。今後、法的整備とともに、教育や啓発活動を通じて、社会全体での対策が求められます。デジタルシフトタイムズ