刷脸支付、AI视频、智能管家等听起来“高大上”的科技确实让生活更便利,但与此同时,AI伪造的“假脸”“假声”“假表情”也在悄悄渗入我们的生活。近日,网警发布AI伪造、智能设备风险防范指南,帮助人们警惕AI“以假乱真”。
此前,有网友在短视频平台刷到了“全红婵推销土鸡蛋”的视频,声音、语气、语调都与本人极其相似,不少粉丝信以为真,纷纷下单购买,但全红婵的家人表示,她从未代言或授权相关产品。这不是个别现象,孙颖莎、王楚钦等奥运冠军的声音同样被“克隆”,甚至有博主用AI合成名人的声音做24小时语音直播,还有人用AI合成“张文宏医生直播带货蛋白棒”的视频用于销售商品……
有关法律专家认为,这已经不是简单的“恶搞”或“蹭热度”,而是欺骗了消费者,也侵犯了当事人的人格权等权益,还涉嫌违法违规。且令人担忧的是,这些技术门槛越来越低,操作越来越简单。据网络安全专家潘季明介绍,目前只需十几秒的语音样本,就能通过开源语音大模型克隆任何人的声音,并能操控其说出任意内容。也就是说,别说明星了,我们普通人,甚至孩子,都可能成为“AI克隆”的对象。
事实上,AI伪造技术正在向未成年人渗透。未成年人在社交平台上发布的日常照片,被别人用AI技术生成各种搞笑甚至低俗的表情包,看似“无伤大雅”,可这种行为一旦失控,就会演变为网络欺凌、名誉侵害,甚至性骚扰;有些AI生图应用还能一键生成未成年人敏感图片,且这些内容不仅能顺利下载,还能在应用内畅通无阻地发布传播,严重影响未成年人的身心健康……而未成年人往往缺乏足够的判断力和法律意识,难以识别这些内容背后的侵权风险。以为“眼见为实”,但AI却让“眼见”也可能成为陷阱,这些技术一旦被恶意使用,后果不堪设想。
从法律层面看,我国《民法典》对声音权和肖像权的保护已有明确规定。第1023条指出,对自然人声音的保护,参照适用肖像权保护的有关规定,这也明确了,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的声音权益。而第1019条也强调,肖像权人有权禁止他人未经授权使用其肖像。这意味着,未经肖像权人同意擅自制作、使用、公开其肖像的行为属于侵权,同理,即使是录音制品的授权,也不等于对声音AI克隆的授权。
但问题是,AI伪造技术门槛低、传播快,维权成本高,维权路径复杂,很多受害者即便意识到被侵权,也难以有效维权。而平台在审核、监管上的责任边界也尚不清晰,导致大量AI侵权内容仍在网络上肆意传播。
面对这样的局面,必须加强对AI技术源头的监管。国家互联网信息办公室等部门联合发布的《人工智能生成合成内容标识办法》将于2025年9月1日起施行,其中明确要求对AI生成内容添加显式标识。这无疑是一个重要信号,说明AI技术滥用问题愈发得到重视。
同时,平台也应承担起应有的社会责任。根据《民法典》第1197条规定,如果网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。因此,平台不仅要建立更加严格完善的AI内容的识别与审核机制,还应完善侵权举报与处理流程,及时拦截和清除违法内容。
当然,未成年人自身也应当提升AI素养,家长和学校也要加强未成年人的网络安全教育。暑期是未成年人上网较为频繁的时期,也是被网络诈骗、AI仿冒、信息泄露等风险侵害的高发期,要让未成年人明白,网络上的“人”“声音”不一定都是真实的,要学会识别可疑内容,遇到涉及身份、声音、图像的异常信息,要第一时间向家长或老师求证,不要轻信陌生人。
AI伪造技术越是日益泛滥,越需要法律持续完善,监管严起来,平台管起来,家长教起来。否则,AI的“智能”就可能变成“陷阱”,让我们的孩子、亲人甚至每一个人,都陷入“真假难辨”的风险之中。(陆玄同)
编辑:单文强