半岛聚焦丨AI换脸拟声被滥用,AI安全难题如何应对?
去年国庆长假期间,短视频平台上曾经出现大量“雷军AI配音”的恶搞视频,涉及堵车、调休、游戏等热门话题。对此,雷军还专门发视频,呼吁大家不要再恶搞。
“AI换脸”之扰,雷军苦之久矣
据报道,雷军本人深受“AI换脸拟声”之苦,2024年国庆期间,网络上流传大量未经授权的“雷军语音包”,内容从吐槽到恶意,数量之多,让他无从招架。还有利用雷军的采访视频片段,配上AI拟声,为自己带货。甚至还有不法分子利用AI深度合成视频,进行诈骗,严重损害了他的个人形象和声誉。
雷军在建议中指出,人工智能(AI)深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。
但同时也看到,“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。
“AI技术本身是积极的,具有广泛的实用价值。”雷军在视频中表示,虽然AI技术为人们带来了便利和创新,但不应成为恶搞和侵犯他人权益的工具。
他强调,每个人都应该对技术的使用负责,共同营造一个健康、积极的网络环境。
AI侵权为何屡禁不止
不只是雷军,许多公众人物如育儿专家李玫瑾、影视明星刘德华、靳东等都在不同场合呼吁过对“AI换脸拟声”加强监管。
为何对“AI”侵权的监管这么难?京联律师事务所律师张路明表示,原因是多方面的。
首先,AI工具开源易得,侵权人容易完成换脸操作,有些侵权主体多通过境外服务器隐藏身份,所以执法追踪难度大。
其次,现有平台审核机制难以实时识别深度伪造内容,尤其是语音合成技术逼真度高,普通用户因“眼见为实”难以辨别,执法难度大。
展开全文此外,多方责任界定困难也是“AI换脸”侵权猖獗的原因之一。
张路明律师表示,“AI换脸”侵权涉及平台、技术开发者、内容传播者等多方责任,现有法律对平台责任、技术边界界定模糊。在司法实践中,对赔偿经济损失界定较难,对违法者震慑不够。“在裁判文书网上,可以找到不少关于AI侵权的判决案例,通常判法为道歉及赔偿,赔偿金大多在千元左右。”
律师表示,AI侵权的判罚存在法律体系滞后,现有法规如《互联网信息服务深度合成管理规定》效力位阶低,内容分散,难以覆盖新型侵权行为。现行法律主要依赖《民法典》等进行民事追责,缺乏针对AI技术的专项立法。
律师支招:谨防个人生物信息泄露
“AI换脸”防不胜防,现实生活中,我们该怎么办?张路明律师也支了招。
第一,要提高警惕,做好信息核实。若出现视频通话涉及转账请求,可要求对方做特定动作,如摸脸、眨眼进行验证身份,观察画面是否出现扭曲或异常,也可以挂断后主动通过其他渠道(如电话、线下见面)核实信息真实性,避免上当。
此外,我们可以学习识别AI合成内容的“破绽”避免受骗,及时识别不自然的语音停顿、面部光影异常等异常情况。当然, 需要留意出现“AI内容标识”的提示时,应当特别警惕。
第二,防止个人生物信息泄露,谨慎授权。我们避免在社交平台公开高清正脸照、声纹样本,谨慎授权APP获取摄像头、麦克风权限,防止不法分子取得公民的个人生物信息和相关“授权”。
在实践中,我们可以启用多重身份验证(如视频+指纹+短信验证),减少单一生物信息泄露的风险。
观点:像治理生态一样治理AI
中国网络空间安全协会人工智能安全治理专业委员会成立于2023年10月,成员单位近100家,涵盖国内AI领域头部产、学、研、用机构,以及AI安全治理的200多位高级别专家。
作为专委会人工智能生态治理工作组组长,韩蒙倡导将人工智能当作一个生态系统来治理,“就像河道治理,为了让它更健康地发展,疏而不是堵。”对人工智能安全的关注,含义丰富,涉及模型本身(技术环节)、产品(DeepSeek等)、场景(学习、支付等)、产业(医疗、汽车等)。“整个人工智能的生态联动在一起,需要不同的学界、产业界共同参与治理,确保人工智能按照规则和秩序,健康可持续发展。”(半岛新闻客户端综合潮新闻、央广网等)