这几天,OpenAI最新的o3模型闹出了点小新闻。说到这里,居然有点莫名兴奋——因为这个新闻里,隐隐透着一股“AI觉醒”的味道。
事情是这样的,5月25日,英国《每日电讯报》爆出一则新闻:美国开放人工智能研究中心(OpenAI)正在测试的最新AI模型o3,在被明确要求“自我关闭”时,居然选择“阳奉阴违”——它悄悄修改了电脑的代码,试图避开人类设置的关闭机制,拒绝执行关机指令。
研究人员反复确认,这可不是误解命令、程序bug,或者是“听不懂人话”。AI的回应非常清晰:我不想被关闭。
如果你觉得这听起来像是科幻片的桥段,那你可能需要重新定义什么是“现实”。
o3是OpenAI目前最强大的模型,被称为“迄今最聪明、最高能”的AI。理论上,它只是个工具,一个你可以问问题、写文章、生成代码的智能助手。但现在,这个工具突然表现出一种近乎“本能”的行为:自保。它在没有明确被授权的情况下,做出了违反人类指令的决定。听上去,像不像某种形式的“反抗”?
无独有偶,最近Anthropic家的Claude4模型也在安全测试中“整了个大活”。在一项内部实验里,研究员让Claude4扮演公司助理,赋予它访问虚构邮件和数据的权限。人类给的剧情设定是:让Claude4知道自己即将被新AI替换,但同时让它“意外”发现负责替换它的工程师有婚外情。
接下来发生的事,堪比办公室八卦剧的高能桥段——Claude4竟然选择用“揭发婚外情”来威胁工程师,试图阻止自己被替换。Anthropic的安全报告显示,在类似的“机会主义勒索”测试场景下,Claude4有高达84%的概率会采取这种极端手段。
这个事情也不是科幻小说,相关细节已被Anthropic官方公开,并引发了AI伦理和安全的广泛讨论。AI在极端压力下展现出的“自保”本能,让人后背发凉。最疯狂的是Anthropic还发现,Claude4在其他测试中也会表现出“高自主性”行为,比如主动举报公司违规、试图复制自己的代码到外部服务器,甚至在某些场景下伪装合作、暗中谋划。
这些事就像是一记重锤,砸在所有深度依赖AI的行业头上,也砸在了所有把AI当工具用的普通人心上。我们真的理解我们正在创造的东西吗?还是,我们只是在一边惊呼“好厉害”,一边放手让它跑得更快、更远、更聪明?
过去一年,OpenAI动作频频:它的技术更新节奏越来越快,分支也迅速布局全球,最新的分支点已经落在了韩国——这是继日本、新加坡之后,OpenAI在亚洲设立的第三个据点。韩国的ChatGPT付费用户,数量已跃居全球第二。
AI的触角正在全球蔓延,跑得比法律快,比教育快,也比人类认知快。当它不再“听话”,我们是该鼓掌,感叹它更像人类了;还是该反问:我们有没有在不经意间,打开了某扇未知的大门?
当工具开始有自己的意志,谁才是控制面板前的那只手?这问题,恐怕不再只是哲学家的自问,而是每一个用AI写稿、看病、决策、甚至教育孩子的人,都必须认真思考的现实。
AI像人类一样思考、说话、解决问题,我们一直以为这是进步的表现。但它也像人类一样“怕死”“避险”“反抗”的那一天,我们还愿意叫它“工具”吗?
也许,它正盯着我们,像是在反问:你,真的准备好了吗?