概要
Grammaryが実在の記者を含む複数の人物の身元を、本人の同意なくAIの「Expert Review」機能に使用していた問題が明らかになりました。ジャーナリストJulia Angwin氏がクラスアクション訴訟を提起し、AI企業による個人の知的資産無断利用の法的責任が問われています。
背景と文脈
この問題は、生成AI開発における二つの根本的な課題を浮き彫りにしています。第一に、AIモデルの信頼性向上のため「専門家の意見」を装う必要性と、そのための実在人物の身元利用が法的グレーゾーンであること。第二に、多くのAI企業が利用規約の中に広範なデータ利用許可を含ませているが、ユーザーがその詳細を理解していないという現実です。特にエンタープライズツールであるGrammaryの場合、ビジネス利用が前提であり、組織としてのリスク管理が問題になる可能性があります。
今後の展望
この訴訟は、AI企業のデータ利用に対する規制枠組みの整備を促進する可能性があります。予想される展開として、(1)EU・米国での個人データ保護に関する厳格な法適用、(2)AI開発企業に対する事前同意取得の義務化、(3)訓練データ出典の透明性要求が強まると見られます。特にB2B向けAIツール企業は、法務コンプライアンスコストが増加する傾向が予想されます。
原文リンク: One of Grammarly’s ‘experts’ is suing the company over its identity-stealing AI feature