新芒xAI 10月21日消息 当地时间2025年10月20日,人工智能研究公司OpenAI发布联合声明,宣布加强其AI视频生成工具Sora 2的监管机制,以防范深度伪造(Deepfake)内容的滥用。
公司将与著名演员布莱恩·克兰斯顿(Bryan Cranston)、美国演员工会(SAG-AFTRA)以及其他表演者工会和经纪机构(如CAA和UTA)合作,共同制定更严格的生成指南。这一举措源于近期Sora 2用户未经授权生成名人肖像视频的争议,旨在保护艺人权益并维护AI工具的伦理边界。
事件起因于克兰斯顿发现Sora 2被用于创建他的Deepfake视频,例如一段显示他与已故演员迈克尔·J·福克斯自拍的合成片段。这不仅侵犯了其肖像权,还引发了好莱坞对AI潜在滥用的广泛担忧。SAG-AFTRA迅速介入,推动OpenAI采取行动,克兰斯顿本人也公开表达不满,但随后赞扬了公司的快速响应。OpenAI承认这些“无意生成”事件,并承诺通过技术升级来避免类似问题。
为强化防护,OpenAI将引入更先进的过滤器、基于同意的肖像使用检查机制,以及对名人或受版权保护内容的自动阻塞功能。这些更新将逐步集成到Sora 2中,确保生成内容需获得明确授权,同时不影响工具的创意潜力。专家认为,此举标志着AI行业从“技术先行”向“责任优先”的转变,有望为全球Deepfake法规提供范例。
这一合作不仅缓解了好莱坞的紧张情绪,还激发了更广泛的行业对话。SAG-AFTRA主席表示,此协议是“保护表演者免受AI剥削的关键一步”,而OpenAI强调,它将助力Sora在影视制作中的正面应用,如特效辅助和虚拟场景构建。面对AI视频工具的迅猛发展,此事件凸显了伦理监管的紧迫性,推动更多科技巨头参与类似倡议。