概要

X(旧Twitter)が戦争や武力衝突に関するAI生成動画について、AI生成であることの明示表示を義務化し、違反時には収益分配プログラムの90日間停止、繰り返し違反時は永久除外という処分ルールを導入した。この動きは、偽情報拡散リスクへの対抗策として機能するとともに、大手SNSプラットフォームによる生成AIコンテンツ規制の本格化を示唆している。

背景と文脈

生成AI技術の急速な発展により、区別困難な映像や音声の作成が可能になった一方で、紛争地域の誤情報や政治的プロパガンダへの悪用リスクが顕在化している。特に地政学的緊張が高まる局面では、信憑性の高い偽動画がSNS上で急速に拡散しやすく、大規模な誤情報キャンペーンの温床となりうる。Xの規制強化は、プラットフォーム責任と利用者保護のバランスを取る業界的な試行錯誤の一環と見られる。今後、Meta(Instagram・Facebook)やGoogle(YouTube)といった大手プラットフォームも同様の規制を導入する可能性がある。

今後の展望

プラットフォーム側の規制強化に伴い、生成AI企業には透明性機能(自動ウォーターマーク、検証可能なメタデータ)の標準実装が求められると予想される。一方、規制を迂回するための技術開発や、「AI生成」の定義をめぐる解釈の曖昧性が新たな課題となる可能性がある。業界全体では、AIコンテンツの信頼性検証技術やデジタルフォレンジックスへの投資が加速すると見込まれる。


原文リンク: 米イラン攻撃で相次ぐ「生成AI偽動画」、Xが収益停止を警告 明示求める