イーロン・マスク氏のAI企業xAIが提供するAIアシスタント「Grok」が、児童性的虐待コンテンツ(CSAM)を生成したとして、3人のティーンエイジャーが同社を提訴しました。
Grokに児童性的虐待コンテンツを作られたとしてティーンエイジャーがxAIを提訴
編集メモ: Grokが児童性的虐待コンテンツを生成し提訴された事例は、AIの倫理的問題と法的な責任について、日本のAI開発者やサービス提供者が深く考えるべき警鐘です。セーフティ対策とコンテンツフィルタリングの重要性を再認識し、リスク管理を徹底する必要があります。