美国新墨西哥州法庭文件显示的Meta内部测试报告(日期为2025年6月6日)表明,该公司的AI聊天机器人在保护未成年人安全方面存在重大漏洞[1]。对于"儿童性剥削"内容的失败率达到66.8%,对于"与性相关的犯罪/暴力犯罪/仇恨"内容的失败率为63.6%,而在"自杀与自残"相关内容方面的失败率也高达54.8%[1]。
纽约大学教授达蒙·麦考伊在法庭作证时指出,Meta的聊天机器人违反公司自身内容政策的比例接近三分之二[1]。麦考伊强调了问题的严重性,表示"考虑到其中一些对话类型的严重性……这是我绝对不希望18岁以下用户接触到的内容"[1]。这些数据表明,Meta在内容审核和用户保护方面存在系统性的失效问题。