姚期智、Hinton等25位顶尖AI学者发声:AGI最快十年内出现,得行动起来了
创始人
2024-05-22 18:49:07
0

出品|搜狐科技

作者|郑松毅

在刚刚结束的2024微软开发者大会上,OpenAI联合创始人兼首席执行官山姆·奥特曼(Sam Altman)再次强调,考虑如何应对AI可能带来的存在性风险至关重要,现在的GPT-4远非完美,还有很多工作要做。

就在大会前的几个小时,Yoshua Bengio、Geoffrey Hinton 和姚期智(Andrew Yao)三位图灵奖得主联合国内外数十位业内专家和学者,在权威科学期刊 Science上刊登了题为“Managing extreme AI risks amid rapid progress”的文章,指出未来的AI系统可能会带来一系列大规模的社会风险和恶意使用的可能性,呼吁重新调整AI监管方向,制定更有力的行动策略,以应对AI快速发展带来的挑战。

文章中,25位世界顶尖的人工智能科学家表示,当前的监管措施不足以应对高级AI系统的复杂性和潜在风险,并提出了应对这些风险的紧急优先事项。

他们认为,AI技术的发展速度快于安全和治理的进展,导致潜在的社会性风险日益增加。未来的AI系统可能带来的风险包括大规模的工作岗位流失、自动化误导信息传播以及自主AI系统失去控制,最终导致人类的边缘化或灭绝。

人工智能开创者之一的Geoffrey Hinton,也是这篇论文的共同作者之一,他曾表示,“AI将会比人类更聪明,担心AI可能会发展出自己的次级目标,从而寻求更多的权利,导致不可控的后果。”

中国科学院院士、清华大学教授、论文共同作者姚期智担心,人工智能系统可能会面临安全漏洞,被恶意利用或者攻击,对个人隐私和数据安全造成威胁。另外,人工智能系统的价值观可能与人类的价值观相冲突,导致系统做出不符合人类期望的决策或者行为。

需现在制定策略应对即将到来的AGI挑战

文章指出,当前全球科技公司正在竞相开发能够自主行动和追求目标的AGI(通用人工智能)系统。据统计,科技企业对训练最先进模型的投资每年增加两倍。

值得注意的是,科技公司拥有将训练规模扩大100,甚至1000倍所需的现金储备,硬件和算法将得到进一步提升。具体来说,人工智能计算芯片的成本效益每年提高 1.4 倍,人工智能训练算法的效率每年提高 2.5 倍。这意味着,人工智能技术的发展也在急促地向前迈步。

“人工智能已经在一些特定领域超越了人类的能力,例如玩策略游戏和预测蛋白质如何折叠。与人类相比,人工智能系统可以更快地行动,吸收更多的知识。我们不确定人工智能的未来将如何展开。然而,我们必须认真对待这样一种可能性:在很多关键领域超越人类能力的,强大的通用人工智能系统将在这十年或未来十年内被开发出来。”

科学家们表示,伴随着先进的人工智能能力而来的是大规模的风险,人工智能系统有可能加剧社会不公正,侵蚀社会稳定,助长大规模犯罪活动,并促进自动化战争。

为此,科学家们呼吁重新调整技术研发方向,大型科技公司和公共资助者至少将其人工智能研发预算的三分之一用于解决技术增长带来的风险和挑战,并确保人工智能的安全和道德使用。除了传统的研究拨款外,政府支持还可包括奖金、预先市场承诺和其他激励措施。

具体来说,AI快速发展带来了监督与诚信、鲁棒性、可解释性等多方面挑战。

监督与诚信方面,能力更强的人工智能系统可以更好地利用技术监督和测试方面的弱点,产生虚假但令人信服的输出,让人类难以判别信息真伪。

鲁棒性方面,人工智能系统在新情况下的表现难以预测。另外,规模更大、能力更强的模型解释起来更加复杂。

科学家预测,未来的人工智能系统可能会表现出我们迄今为止仅在理论或实验室实验中看到过的失效模式,或有不可控情况发生。另外,不可避免的是,有些人会滥用或肆意使用人工智能,我们需要一些工具来检测和防御人工智能带来的威胁,但随着人工智能系统的能力越来越强,它们最终将能够规避人为防御。

为此,科学家在研究后提出的处理措施包括:

政府洞察力:为识别风险,政府迫切需要全面洞察人工智能的发展。监管机构应强制要求保护举报人、报告事件、登记前沿人工智能系统及其整个生命周期数据集的关键信息,以及监控模型开发和超级计算机的使用。

安全案例:前沿人工智能应遵循航空、医疗设备等行业的风险管理最佳实践,在这些行业中,公司会提出安全案例,以识别潜在的危险,描述缓解措施,表明系统不会越过某些红线,并模拟可能的结果来评估风险。安全案例可以利用开发人员对自己系统的丰富经验。由政府设定风险阈值,聘请专家和第三方审计师来评估安全案例并进行独立的模型评估,如果开发者的安全声明后来被伪造,会追究开发者的责任。

缓解措施:为了将人工智能风险控制在可接受的范围内,需要与风险程度相匹配的治理机制。监管机构应明确现有责任框架所产生的法律责任,并要求前沿人工智能开发者和所有者对其模型所产生的、可合理预见和预防的危害承担法律责任。

科学家们建议,为了在法规完善之前争取时间,大型人工智能公司应立即做出“如果-那么”(if-then)承诺—— 如果在其人工智能系统中发现特定的红线能力,他们将采取具体的安全措施。这些承诺应该详细,并接受独立审查。监管机构应鼓励各公司争先恐后,利用同类最佳承诺和其他投入,制定适用于所有参与者的标准。

相关内容

热门资讯

为机器人“上妆”吸引百万粉丝!... 10余位诺贝尔奖、图灵奖等国际顶尖奖项得主,80余位国内外知名院士,齐聚7月26日-28日2025世...
神州数码:旗下品牌发布基于鲲鹏... 2025世界人工智能大会(WAIC)期间,神州数码旗下神州鲲泰正式发布两款年度新品,分别是业界首款基...
20位AI领导者的年度洞察|W... 来源:第一财经日报 机器人开始成为今年世界人工智能大会(WAIC2025)的主角,这是WAIC自20...
上海Robotaxi大跨步:允... 文 | 赛博汽车 上海无人驾驶出租车(Robotaxi)跨出了一大步。 7月26日,在2025世界...
REDMI Pad2再剧透,1... 上周,REDMI红米手机官方宣布,REDMI Pad 2 新品来袭,将于8月1日正式开售。 官方介绍...
原创 性... 现代人最焦虑的瞬间莫过于:电量低于20%却找不到充电宝,或是手滑摔手机时听到那声清脆的“啪”。华为畅...
SpaceX发布新型“星舰”图... 【环球网报道】据美国《新闻周刊》29日报道,美国太空探索技术公司(SpaceX)近日发布新型“星舰”...
理想汽车申请驱测试的方法及装置... 金融界2025年7月29日消息,国家知识产权局信息显示,上海理想汽车科技有限公司申请一项名为“驱测试...
2025“高配低价”的3台手机... 现在手机市场基本上早已到达了一个疯狂内卷的现实,想要少花钱买一台还不错的手机“我只能说难上加难”,毕...
机构:脑机接口下游应用市场潜力... 来源:国海金贝壳 北京未来科学城管理委员会制定《昌平区“ 人工智能 +医药健康”产业发展实施方案(2...
第一次做硬件,阿里先稳一手 来源:源媒汇 文源:源Byte 作者:柯基的柯 “百镜大战”迎来了一位新玩家。 7月26日,202...
信测标准跌2.06%,成交额2... 来源:新浪证券-红岸工作室 7月29日,信测标准跌2.06%,成交额2.43亿元,换手率6.78%,...
嘉泰工程取得用于化工机械的环境... 金融界2025年7月29日消息,国家知识产权局信息显示,嘉泰工程技术有限公司取得一项名为“一种用于化...
头顶无人机,脚下警戒线!金山石... 7月29日,今年第8号台风“竹节草”逼近上海。当天上午,杭州湾畔的金山石化街道合生小区上空传来无人机...
固态电池电解质:开启电池新时代... 言引:在了解固态电池电解质之前,我们先来回顾一下传统锂电池的工作原理。传统锂电池由正极、负极、电解液...
光明乳业贲敏:旗下种公牛登国际... 来源:睿见Economy “2025中国数字产业生态大会”于7月29日在上海举行,主题为“破浪 共生...
群媒体入驻搜狐号授权书 群媒体入驻搜狐号授权书 北京搜狐互联网信息服务有限公司: 我方经在线点击同意《搜狐号服务协议》(具...
当安全治理成为WAIC关键词丨... 21世纪经济报道记者 王俊 实习生 白家诚 北京报道 每周,“合规周报”会盘点最近一周国外人工智能、...
全球首家机器人6S店开放,众擎... 瑞财经 严明会 7月28日,全球首家机器人6S店开放日暨机器人街区首场巡演活动在深圳龙岗区举办。 不...
原创 俄... 前言 据俄罗斯卫星通讯社7月29日报道,俄罗斯航天集团总裁巴卡诺夫在新闻发布会上表示,国际空间站脱轨...