概要

警察庁の2025年データで確認された114件のAI悪用事案は、生成AIが新しい犯罪ツールとして定着しつつある現状を示唆している。特に被害者の9割が中高生で、加害者の約6割が教育現場での同級生という特性から、広く利用可能なツールが予防困難な環境で悪用されていることが明らかになった。

背景と文脈

AI画像生成技術の民主化により、専門知識なしに高精度な画像加工が可能になった一方で、児童保護機能の実装は多くのプロダクトで後発的対応となっている傾向がある。国内法では児童ポルノ禁止法が存在するが、「生成」画像の扱いについて司法判断がまだ確立途上と見られ、技術側の自主規制が現在の主要な防線となっている状況が続いている。欧米ではすでに規制強化(EUのAI法など)が進行中であり、日本でも同様の法制化圧力が高まる可能性がある。

今後の展望

今後、児童性虐待画像生成への対策は、単なる企業コンプライアンスではなく、ユーザー認証・コンテンツスクリーニング・デバイスレベルでの検出技術を含む技術的多層防御の実装が標準化されると予想される。同時に、AI安全性の認証制度や業界ガイドライン整備の議論が加速する可能性が高い。エンジニア採用市場では、児童保護機能の設計・実装経験が差別化スキルとなる見込みである。


原文リンク: 「18歳未満の画像をAIで性的加工」2025年に114件 被害者は中高生が9割 警察庁