生成AIの脅威「児童性的虐待コンテンツ(CSAM)」急増という社会問題――チャイルドファンドジャパンが意識調査

CSAM 児童性的虐待コンテンツ 社会課題

生成AIが急速に普及する中、新たな社会問題も生まれています。その一つがCSAM(Child Sexual Abuse Material、シーサム)と呼ばれる児童の性的虐待コンテンツです。
CSAMは、児童に対する性的な虐待またはアクティビティを描写している画像や動画、音声などのことで、生成AIが広がったことにより、こうした児童の性的虐待コンテンツが、インターネット上で急増しています。

CSAMという社会問題に対処するため、政府や企業による規制や対応が海外では進んでいます。2024年にはGoogleやOpen AIなどのAIにかかわる10社が、米国NPOがまとめた原則のもと、AIによる児童の性的虐待コンテンツを生成、拡散させないよう取り組むことを表明するという動きもあります。

こうした社会状況の中、認定NPO法人チャイルド・ファンド・ジャパンは「生成AIと子どもの人権侵害」に関する国民意識調査を実施。日本国内での、CSAMに対する考えや必要とされる対策などを明らかにしました。

スポンサーリンク

児童性的虐待コンテンツ(CSAM)

チャイルド・ファンド・ジャパンは、「生成AIと子どもの人権侵害」に関する国民意識調査を、2025年1月26日~2月8日の期間に、全国の15〜79才の男女1200人に対して調査員による個別訪問留置調査(乗合方式)で実施。

調査結果から、生成AIによる児童性的虐待コンテンツCSAM)によって、子ども同士でのいじめやいやがらせなどの人権侵害が発生することへの懸念が高く、法令での規制など政府や企業による対策が求められているということが明らかになりました。

さらに、生成AIによるCSAMが急増する現在、SNSによる人権侵害のリスクも懸念されています。オーストラリアで規制が始まったこともあり関心が集まる中、「生成AIと子どもの人権侵害」に関する国民意識調査でも、「未成年へのSNS利用禁止」について確認し、回答結果は「賛成・どちらかといえば賛成」 が8割を超えました。

現在の日本国内では、SNS禁止などの規制はまだ行われていません。こうした中、CSAMによる子どもへの人権侵害が広がることが懸念されます。

生成AIが広がることで発生する子どもへの人権侵害

生成AIによってどのような人権侵害が発生するのか。以下の4つの項目の内、意識調査で最も高かったのは、「子ども同士でのいじめ、いやがらせ」。6割以上の人があげました。ただし、他の3つの項目についても5割前後の人が選択しており、いずれの項目も生成AIが広がることで発生する懸念があると考えられています。

「いじめ、いやがらせ」
「児童ポルノによる被害」
「子どものプライバシーの侵害」
「大人による児童虐待」

また、回答の中で、「子どもの人権侵害は発生しない」と答えたのは6.9%でした。

CSAM問題の解決には、政府・企業の対応が求められている

CSAM問題の懸念が広がる中、日本国内でも規制など早急な対応が必要となっています。
規制の手段としては、政府が規制する法律をつくることや、SNS・アプリ事業者などの企業がサービスやデバイス自体に規制をかけること、もしくは学校が規制するルールをつくることなどがあります。

その中でも、国民の意識調査では、政府が規制する法律をつくるべきという回答が51.9%と、政府への対応を求める声が多くありました。

企業に対しては、SNSやアプリ事業者が子どものサービス利用に一定の制限をかけるべきが42.1%、企業がスマホなどのデバイスの子どもの利用に制限をかけるべきが37.6%と、企業が対応することへの期待も示されています。

他に、学校が規制するという項目は2割ほどであり、必要とは考えられつつも、まずは政府と企業にCSAM問題の根本的な解決が求められているようです。

チャイルド・ファンド・ジャパンは「政府と関連業界に規制を働きかけるとともに、子ども自身の自己防衛力についても子ども世代・親世代の意見を聞きながら議論する」と提言しており、子どもや家庭、また社会全体で未成年者を守っていく必要があります。

生成AIによるCSAMの法令規制については、全て禁止が7割

それでは、CSAMを規制する法律というのは何が必要なのでしょうか。

日本の現在の法令では児童の姿をうつした画像や動画を児童ポルノとして規制しています。この現在の法律では、”実在する児童“を描写したものだけが規制の対象で、”実在しない児童“は対象外となってしまうという点が課題となっているのです。

生成AIの進化と拡大によって、作られた画像や動画が、実在するか実在しないかという判定が困難になっており、現行の法令だけでは規制しきれないのです。

この点を踏まえて、児童の性的表現の含まれるコンテンツは、実在する・実在しないに関わらず、すべて禁止するべきという意見が72%と圧倒的多数となりました。

一方、年代・性別ごとに比較した際に、現在の法令通りの「実在する児童がいる場合のみ禁止するべき」を選んだ割合が高いのは、男性15~19才で24.3%、男性20~40代で2割弱ほどみられました。年齢が若い男性が規制に消極的という傾向が見られます。

未成年へのSNS利用禁止に「賛成」「どちらかといえば賛成」 (80.8%)

CSAM、子どもの性的表現による人権侵害を防止するための対策として、子どものSNS利用禁止があります。オーストラリアが2024年に16歳未満の子どもがSNSを利用することを禁止する法案を可決したことが大きな話題となりました。

SNS禁止に対して、調査によれば、「賛成」(33.5%)と「どちらかといえば賛成」(47.3%)を合わせた「賛成」が80.8%にのぼりました。

しかし、実際に影響を受ける15~19歳では、男性が賛成51.4%、女性が57.6%と全体平均よりも大幅に低く、賛否が分かれています。

チャイルド・ファンド・ジャパンの提言でも、「未成年のSNS利用禁止について、反対が多い15〜19才の男女の意見を聞きながら議論する」と当事者の意見を聞きながら、検討していく余地が示されています。

日本国内でもCSAM問題を広めていくこと

日本では、海外と比べて生成AIの浸透は遅れていると言われています。CSAM問題に関しても、まだ日本では言葉自体も広がり始めた段階で、まだ認識されていない現状があるのでしょう。米国ではすでに社会の問題となっており、NPO団体と企業が連携して取り組みも行われています。日本国内でも、これから急速に広がっていく中で、児童の性的虐待コンテンツへいかに対応していくかが問われていきます。まずは生成AIによるCSAM問題を一般的に広めていき、政府や企業の取り組みが始まっていくことが期待されます。