利用AI换脸换声生成虚假广告案件频发
生成式人工智能的多模态能力,可以让用户轻易给视频中的人物换脸换声,甚至直接生成完全虚构的视频,给不法分子带来可乘之机。近期就发生了多起AI换脸换声,生成虚假广告的案件。比如,有的伪造奥运冠军推荐土鸡蛋,还有的伪造医生形象推销保健品,严重误导公众。
这些换声和换脸的AI深度合成是如何制作出来的呢?面对这些以假乱真的视频,又该如何识别?
业内人士告诉记者,随着AI换声换脸技术的越来越成熟,已经足以达到以假乱真的地步。分辨一段视频或者声音是否是经过深度合成,最好的办法还是通过AI去识别。即用AI去识别AI。
人工智能大模型研究员潘季明:从技术角度来说,最快的方式还是基于AI的方式去进行识别,如专门的深度伪造鉴别模型,用于分析视频和音频中的不自然的特征,如检测眨眼频率、面部肌肉运动的生理一致性、音频与纯嘴唇同步率、光源一致性等细微的物理或生理破绽。
专家:治理核心在于全面落实内容标识制度
近两年,AI深度合成名人、换脸换声的视频层出不穷、屡禁不止。对此,专家表示,治理的核心在于全面落实内容标识制度。
北京航空航天大学法学院副教授赵精武:我国自2025年9月起正式施行了《人工智能生成合成内容标识办法》,其中明确要求,所有AI生成的文字、图片、视频等内容必须添加显式标识以"亮明身份",同时鼓励添加数字水印等隐式标识。平台企业应当依据《人工智能生成合成内容标识办法》,从源头嵌入标识机制,为AI生成内容附加不可篡改的数字水印,并确保这些标识在经过剪辑、压缩后仍能被准确识别。
专家表示,AI深度合成的使用者在通过AI制作视频时,应该有一条侵权法律界限,要合规合法使用人工智能深度合成。
北京航空航天大学法学院副教授赵精武:在明确合法性边界方面,需要严格区分AI换脸技术的合法应用与非法滥用的边界。合法应用通常包括影视制作、教育教学、医疗康复等具有正当价值的场景,这些应用需遵循法律上规定最小必要原则,确保使用范围和目的相匹配,并获取相应授权。而非法滥用则主要表现为未经授权的肖像冒用、虚假信息传播、淫秽色情内容制作等场景。
AI大模型训练引发版权问题矛盾怎么破?
再来看人工智能带来的版权侵权问题。早在去年10月,文学界、音乐界等超万名人士发表了一份联合声明,谴责“未经许可使用创意作品来训练生成式人工智能”的行为。?