出品 | 搜狐科技
作者 | 潘琭玙
5月30日,腾讯大模型APP腾讯元宝上线。一年内从卷技术到拼落地,厂商纷纷落地AI助手,欲尽快跑马圈地争夺普通用户,腾讯的AI助手也“虽迟但到”。
“腾讯做大模型不争一时之先。”腾讯云副总裁、腾讯混元大模型负责人刘煜宏在媒体沟通会上表示。他指出,To C的先发优势是重要的,但当下渗透率不到1%,99%的用户都没覆盖,先发优势就有点微不足道了,“我们要面向的都是更大的市场和用户需求。”
相比此前测试阶段的混元小程序版本,面向工作效率场景,腾讯元宝提供了AI搜索、AI总结、AI写作等核心能力;面向日常生活场景,元宝的玩法也更加丰富,提供了多个特色AI应用,并新增了创建个人智能体等玩法。
此外,腾讯混元也面向开发者和企业推出了一站式智能体创作与分发平台腾讯元器。目前,腾讯元器已经全量面向用户开放。
腾讯内部混元大模型调用量超过2亿/天
此次腾讯元宝产品能力升级背后,是腾讯混元底层模型的持续迭代。腾讯2023年第四季度及全年业绩报告中指出,“腾讯混元已经发展成为领先的基础模型,在数学推导、逻辑推理以及多轮对话中性能卓越。”
自 2023 年 9 月首次亮相以来,腾讯混元大模型的参数规模已从千亿升级至万亿,预训练语料从万亿升级至7 万亿tokens,并升级为多专家模型结构(MoE),整体性能相比Dense 版本提升超50%。据了解,腾讯混元大模型已经在腾讯内部600多个业务和场景中落地测试。
在多模态方面,腾讯混元文生图大模型是业内首个中文原生DiT架构模型,目前,该模型已经全面开源,在Github获得 2000+star,相关能力也已融入腾讯元宝。
众多厂商已经先一步推出了AI助手相关产品,腾讯的优势何在?对此,刘煜宏向搜狐科技在内的媒体表示,腾讯的优势之一是产品或者工程能力比较强,同等情况下能够有更低的成本,做到更好。第二是腾讯的产品体系相对更全,从能力而言对应用领域的适配度更强。三是大模型本身技术方面的优势,他指出,腾讯较早开始训练MoE架构,并且在文生图方面也是国内最早使用DiT架构。
刘煜宏也进一步解释了腾讯做大模型的思考,腾讯先从内部先开始做的,最开始是为了做一个好的大模型来满足腾讯各个产品的需求。他透露腾讯内部对混元大模型的调用量已超过2亿/天,基本上所有业务都已用大模型重构软件或技术生态。
他提到,“在这个过程中发现很多能力用户也需要,外面的企业也需要,所以才把它开放出来给大家用,我们按这个逻辑来做的。”
也因此,在谈及营销推广层面的需求时,他也直言付费推广还有广告硬投目前都有做一些尝试,但不是现阶段主要的目标,他提出目前关注的重点是对于整个腾讯系,在整个产品通路上达成更多的核心路径的体验。“对标竞品拉高整体的规模也不是我们现阶段的重点。”
在他看来,大模型是一个新的渠道,能够为腾讯目前的内容生态进行引流或曝光,跟其他腾讯类的产品是个互补、互相促进的正向循环的关系。他也希望未来元宝或者混元能够成为腾讯大生态的超级入口。
“一定让大模型产生价值”
问及中美差距,刘煜宏直言,目前中国的工程能力很强,只要出来一个东西,国内很多厂商半个月工程水平能力上就能追平。他认为国内的大模型具备能力去做更底层的创新和突破。
另外,他谈及中国的另一优势在于应用特别火,“从产业的角度来讲,我们希望从应用反过来驱动底层的创新和演进,这也是中国的优势。”
而在商业化方面的考量,他认为目前尚处早期,从渗透率来看AI相关产品仍然是不到1%的渗透率,“对于元宝APP本身,我们暂时没有这方面的考虑,这个还是比较早期的。”但他指出,腾讯目前将大模型能力开放给很多产品,比如腾讯会议、文档、广告等,各业务通过自身的路径实现商业化。针对企业的用户,通过腾讯云用户做不同行业大模型的构建,帮助企业实现降本增效以此实现商业化。
短期而言,他也提到会更关注如何让混元大模型产生价值。“大模型很烧钱,那么多人,那么多资源投进去,在腾讯里面产生什么价值,这个也是我们要交出的答卷,我也一直在思考这个问题。这也是我们为什么要内部优先,一定让它产生价值。” 他也提到,目前重点要做的是AI搜索增强,“我觉得也代表确实是用户的一个诉求。”
未来若要让腾讯的混元大模型发挥价值必须跟行业或者不同领域结合起来。除了通用的能力之外,腾讯将更多在不同行业,比如法律、金融、医疗,在有高频需要的行业里做行业大模型。在不是通用大模型能解决的行业中,未来的重点会一个个突破或者优化。
另外,刘煜宏也直言,现阶段人工智能还是非常昂贵,即便是单次推理也要消耗不少资源,“还是比人脑贵很多,估计未来十年都不一定能做到人脑的水平。”
腾讯的大模型怎么通过自身的能力来降低消耗?他指出,MoE架构本身是降低功耗或者成本的很好的措施,比过去稠密大模型激活的参数量更少,同等情况下可能只需要几分之一的成本。另外,他也提到腾讯混元也有拓扑版本,用压缩的方法,用蒸馏的方法来解决,包括小模型化,有70B、13B,还有更小的7B、3B,通过小模型降低成本。