本周,美国参议院司法委员会主席、爱荷华州共和党参议员查克·格拉斯利对八家大型科技公司处理网络儿童剥削强制报告的情况展开调查。法律要求电子服务提供商向国家失踪和受剥削儿童中心(NCMEC)运营的网络举报热线报告儿童性剥削事件。2025 年共提交超 1700 万份疑似网络儿童性剥削报告,但部分报告缺乏促使行动的必要信息。
格拉斯利表示担心一些公司没有向 NCMEC 和执法部门提供保护儿童及起诉疑似犯罪者所需的足够数据。他向 Meta、TikTok、Roblox、Snap、亚马逊人工智能服务部门、xAI、Grindr 和 Discord 发出索要更多信息的请求,这八家公司提交的儿童剥削报告占提交给 NCMEC 报告总数的 81%。亚马逊人工智能服务部门在 2025 年提交了 110 万份疑似网络儿童剥削报告,但因缺乏关键信息,执法部门未能据此行动。
多年来,NCMEC 一直与科技公司合作改进检测和报告儿童性剥削的方式,但仍有太多报告存在不足。2025 年,NCMEC 曾报告科技公司在报告中未能提供关键的位置数据,也未披露在人工智能数据训练中使用儿童性虐待材料的情况。此前还发生过利用人工智能制作非自愿亲密图像(包括儿童性虐待材料)的事件。
Meta 发言人表示公司“不懈努力”保护儿童,将继续完善报告流程。Snap、Grindr、Discord 和 Roblox 也发表类似声明,称计划与参议院和 NCMEC 合作解决问题。Grindr 补充其交友网站仅面向 18 岁及以上成年人。其他科技公司未立即回应置评请求。此前,新墨西哥州陪审团裁定 Meta 对误导用户平台安全性及未能防止儿童剥削行为负责,责令支付 3.75 亿美元赔偿金;加利福尼亚州陪审团裁定 Meta 和谷歌创建的社交媒体平台让儿童上瘾需担责。
本周二,根据美国新的反人工智能深度伪造法律《取缔法案》,有人因制作人工智能生成的儿童性虐待材料而被定罪。接下来,科技公司可能面临更严格的监管,需加强报告信息的完整性和准确性,确保提供保护儿童及起诉犯罪者所需的关键数据。企业应进一步完善检测和报告机制,加强对人工智能数据训练的监管,避免使用儿童性虐待材料。
编辑观点:此次调查及相关法规执行有助于提升科技公司对网络儿童安全的重视,促使其完善报告机制,减少网络儿童剥削事件,保护儿童的网络安全和身心健康。