• 点赞
  • 评论
  • 收藏
人民政协报关注|在沪全国政协委员张毅:屏幕背后,真假之间?当“深度合成”走进日常生活
张毅/人民政协报  
2026-05-07 09:18 字号
新闻推送里,某地突发“爆炸事故”的视频触目惊心;短视频平台中,“名人金句”被反复转发;深夜的直播间里,某位名人正热情地推销着产品……今天,这些场景正悄悄填满我们的手机屏幕。然而,是真是假无从辨别。当“深度合成”技术悄无声息地进入百姓日常信息流,当“眼见”不再“为实”,我们对“真实世界”的认知也被悄然改变。
深度合成是什么?根据《互联网信息服务深度合成管理规定》,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。比如,把一个人的脸“换”到另一个人身上,或者模仿某个人的声音说出任意句子。过去,做出以假乱真的视频需要专业团队和高昂成本;如今,随着技术工具的开源和普及,普通人用手机或电脑,几分钟就能生成一段这样的内容。
技术的便利本是好事情:它可以修复老照片、辅助医生学习手术技巧、让文化创意更丰富,但问题在于,当造假的门槛低到几乎为零,恶意使用也就随之泛滥。2026年4月,世界经济论坛发布的《2026年全球风险报告》,将“错误信息和虚假信息”与地缘经济对抗、武装冲突、极端天气、社会极化并列为全球五大风险。在我国,利用AI造谣的案件也屡见不鲜。例如,某公众号运营者钟某为蹭“海啸预警”热点,利用AI生成“30万居民撤离上海”等耸人听闻的内容,引发公众恐慌,最终被行政拘留。又如,某食品公司发现网上集中出现200余篇内容雷同、声称其产品“二氧化硫残留”“霉变”的负面文章,后经查实均为AI工具编造,发布者陈某被依法处理。
这些案例揭示了一个现实:AI技术在降低了造假门槛的同时,也放大了谣言的破坏力。但当镜头前的“真人”不再是本人,其风险远不止于假新闻这么简单。对普通人来说,最直接的威胁是诈骗;对公众人物而言,则是肖像、声音等权益被侵犯。在湖北武汉,警方侦破了一起利用AI换脸非法侵入计算机信息系统的案件。犯罪嫌疑人阿成等人通过AI换脸技术骗过人脸验证系统,篡改企业法人信息,进而控制社交媒体账号,诱导粉丝关注虚假投资理财账号。面对审讯,阿成起初辩称自己“只是个美工”,警方在其住所查获大量AI换脸视频素材后,他才交代参与“AI换脸”灰色产业链的事实。
对于公众人物,侵权风险同样如影随形:迪丽热巴被AI换脸出演短剧,配音演员季冠霖的声音被仿冒,“AI孙燕姿”翻唱作品火爆全网……根据民法典相关规定,肖像权、声音权依法受到保护,而当伪造的名人推荐的信息用于商品销售,致使消费者基于错误认识购买商品时,还可能侵犯消费者的知情权,涉事经营者亦可能违反诚信商业原则。
面对这些挑战,治理的框架正在逐步构建与完善。2022年,《互联网信息服务深度合成管理规定》为深度合成服务划定了“底线”和“红线”,明确服务提供者具有相应合规义务。2025年,《人工智能生成合成内容标识办法》施行,要求AI生成内容必须添加标识。2026年,《数字虚拟人信息服务管理办法(征求意见稿)》发布,成为国内首个专门针对数字虚拟人的规范性文件。技术标准层面,《网络安全技术人工智能生成合成内容标识方法》提供了具体的标识技术方案。治理理念上,《人工智能安全治理框架》升级至2.0版,特别强调“可信应用、防范失控”。执法层面,公安机关持续开展专项行动,严厉打击利用AI技术实施的违法犯罪活动。此外,各行业组织也积极行动,如中国广播电视社会组织联合会演员委员会发布严正声明,对AI换脸、声纹克隆等侵权行为“亮剑”;电商平台也在不断加强AI内容的审核机制等。
对于普通民众而言,面对日益逼真的AI生成内容,如何保护自己?首先,可通过观察细节初步判断:AI生成的视频中,人物的眨眼频率、嘴唇动作与语音的同步性、背景的光影变化等,存在不自然的痕迹。其次,注意内容来源是否可靠,对于突发的“热点新闻”尤其是骇人听闻的新闻,建议通过多个权威渠道交叉核实。再次,可以利用技术工具辅助识别,例如部分平台已开始对AI生成内容添加提示。最后,也是最重要的一点,不轻易相信“眼见为实”,不随意点击来源不明的链接或扫描陌生二维码,更不要因一段伪造视频就进行转账或投资。如果怀疑遭遇AI伪造诈骗,应保留证据并及时报案。
技术本身并无善恶。正如《互联网信息服务深度合成管理规定》所强调的,应当促进深度合成服务“向上向善”发展。这句话正是在提醒我们:技术的善恶之分,终究取决于使用它的人以及约束它的规则。屏幕背后,真假之间,真正需要守护的,是每个人对真实世界的信任。而这种信任的建立,既离不开法律的完善与监管的落实,也离不开每个普通人的理性与警觉。
(作者系全国政协委员、上海新联会会长)
责任编辑:施丹璐
转载请注明来源
  • 点赞
  • 评论
  • 收藏