21世纪经济报道记者 王俊 实习生 张欣奕
2025世界人工智能大会(WAIC)刚刚落幕,作为业内的AI盛会,WAIC能折射出最新的风向。
今年,大会以“智能时代,同球共济”为主题,反映了全球范围内的AI治理、携手合作的重要性。大会上《人工智能全球治理行动计划》的发布、“全球人工智能创新治理中心”成立为AI的全球治理做了机构的支撑,“AI教父”、诺贝尔物理学奖、图灵奖得主杰弗里·辛顿、图灵奖得主姚期智等对AI安全的一再强调,以及多个涉及安全的论坛设立也让安全治理的课题逐渐成为显性课题。
AI幻觉是今年WAIC的触发关键词
杰弗里·辛顿首次线下现身中国,他以“驯虎”比喻人类与AI的关系这两天刷了屏。
“AI最为严重且尚未解决的问题是怎么训练AI成为善意的AI。”辛顿在主论坛中直言,“我们养了一只可爱的虎崽,但它长大后可能反噬人类。唯一的选择是找到永远控制它的方法。”他呼吁通过全球合作来确保AI安全可控,推动AI向善,“确保训练AI不要消灭人类”。
姚期智则强调AI 的 “善良” 并非孤立的技术问题,而是人类社会生态的投射。若人类社会仍充斥极端压力与冲突,训练 AI 的数据集本身就会携带 “矛盾基因”—— 在战场、危机等高压场景中训练出的 AI,即便初始设定为 “善良”,也可能因生存本能变得冷酷。这意味着治理不能仅聚焦 AI 本身,更要同步审视人类社会的价值输出:当我们用充满对立的数据训练 AI 时,本质上是在复制人类社会的缺陷。因此,他隐晦呼吁一种 “双向治理”:既要为 AI 设定伦理边界,更要推动人类社会向更包容的方向演进,否则 “恶意 AI 消灭善良 AI” 的风险将成为现实。
除却遥远的人机对抗隐忧,当前的安全问题已成为行业的切身之痛,比如幻觉问题。
中国工程院院士郑南宁指出,幻觉问题正阻碍AI可靠性落地。他提到,“当前大模型仍以统计相关性驱动语言生成,缺乏对世界知识的结构化表征与因果推理能力,无法对生成内容进行验证、纠错或自我否定,难以实现真正的认知跃迁。”
此前,21世纪经济报道-竞争秩序场课题组曾在业内调研,有超过70%的受访人士称呈现AI幻觉与错误决策。
记者在WAIC的展会上看到,文本真伪核查、法律条款溯源和AI安全测试等应用实例已经出现,旨在解决AI幻觉问题。
伴随AI技术边界的不断外延,破除“幻觉”顽疾是当前产业破局的关键抓手,也是关乎人机良性共生的长远命题。
训练数据成为交锋点
要让AI变得“温顺”而非猛虎,训练数据的重要性变得尤为重要。辛顿在演讲中强调”要用非常精细,调整过的数据养育AI。”
数据问题也是WAIC中很多论坛中交锋的问题。在大模型论坛的「模型之问」讨论中,英伟达全球开发者生态副总裁 Neil Trevett 表示,英伟达在图形生成和物理仿真方面也面临数据困扰的问题,尤其是那些无法获取、获取成本高、涉及伦理风险或隐私问题的数据。
Neil Trevett 给出了英伟达的一个解决思路,就是利用物理仿真生成模拟场景,用来训练大模型。但他也提到,不能完全依赖合成数据,合成数据需要进行辅助验证是否真实可用。
智谱华章科技股份有限公司总裁王绍兰则提到,数据更关键的是质的问题。接下来应该是进一步提升预训练数据中的质量。行业数据目前仍沉淀在行业中,没有被用来训练模型。因此大模型想要落地到行业中去,必须用行业数据进行预训练。
商汤科技董事长兼CEO徐立给出了他的答案:在数据面临枯竭的境地下,多模态交互数据显得尤为重要----它能够打破单一模态的局限,让AI在融合视觉、语言等多种信息的过程中,更全面地理解、融入物理世界。
全球治理机制:从理念共识到机构化实践
AI的安全问题正伴随着应用逐渐展露,全球共同面对变得必要。
在大会“人工智能法治论坛”上,中国网络空间研究院副院长、高级工程师钱贤良提出“将人工智能治理纳入法治轨道是破除人工智能治理赤字的应有之义”。
本届大会重磅发布《人工智能全球治理行动计划》,成立了“全球人工智能创新治理中心”,为各国提供AI治理的对话平台,推动规则协同, 从仅仅讨论AI治理,转向积极构建和提议实施治理的框架与机构。
如何在创新与安全之间建立动态平衡,如何构建跨文化、制度的全球AI治理机制,这些都是2025WAIC尝试解决的命题。更深层次地看,WAIC正在演变为一个“规范的市场”,在这里交易的不仅是产品和服务,也是全球性的规范与标准。