据央视新闻8月18日报道:随着AI技术的普及,“克隆”特定人物声音已实现“一键式”操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。
在互联网上,奥运冠军的“声音”突然开始推销农产品,知名演员的“声音”24小时不间断在直播间与粉丝互动……这些以假乱真的AI克隆声音正成为部分自媒体博主的“流量密码”。
据悉,依托成熟的语音大模型技术,仅需十几秒就能“克隆”任何人的声音,当声音能被轻易窃取和滥用,随之而来的侵权乱象频繁上演。
以假乱真 用奥运冠军的AI克隆声音带货
博主“我是小助理吖”利用AI仿冒全红婵声音带货卖土鸡蛋,视频点赞量高达1.1万,商品链接显示已售出4.7万件,而全红婵并未代言或授权。此外,奥运冠军孙颖莎和王楚钦也遭遇了类似的仿冒。
除带货外,部分博主还克隆名人声音进行24小时语音直播,演员靳东是被仿冒最多的对象,此举背后隐藏灰色产业链。网络安全专家潘季明称,仿冒名人直播可诱骗粉丝打赏获利,还能快速打造上万粉丝账号。
为获关注 一些博主克隆名人声音进行直播
以假乱真的声音再加上对奥运冠军的喜爱,该网络博主也收获了大量粉丝的订单。
合作一次 配音演员就遭“AI盗声”困局
AI仿冒受害者不仅是名人。职业配音演员武扬发现某餐饮企业宣传片中的声音是AI克隆的,对方承认但拒绝公开道歉,仅愿赔偿5000元,武扬拒绝并准备走法律程序。另一位配音演员浩洋也遭遇类似情况,维权陷入“自证循环”。
一键盗声仅需十几秒 AI技术应做具体限制
AI克隆声音以假乱真,在抖音、快手等平台,以“声音克隆”为关键词搜索,能轻易找到大量教程视频和软件下载信息。潘季明介绍,基于开源语音大模型,只需一段清晰语音样本,任何人声音都可能在极短时间内被克隆,且能被操纵说出攻击者设定的任意内容。AI克隆声音最大隐患是被诈骗分子利用,一旦与AI换脸等技术结合,危害严重。潘季明建议从源头对相关技术做限制。
保护“声音” 法律为AI克隆划出红线
针对AI克隆声音乱象,赵精武认为平台若知道或应当知道用户利用其网络信息服务侵害他人权益且未采取必要措施,需承担连带责任。专家建议平台履行监管责任,建立健全审核和侵权举报机制。今年3月,国家网信办等四部门联合发布《人工智能生成合成内容标识办法》,将于2025年9月1日起施行。中央网信办近日也开展“清朗·整治AI技术滥用”专项行动,强化源头治理。
来源:央视新闻
据央视新闻8月18日报道:随着AI技术的普及,“克隆”特定人物声音已实现“一键式”操作