浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。
当 AI 活成了你的样子
而你活成了狗
文 | 史中
(零)你被人弄死的概率,比被 AI 弄死的概率大多了
AI 会征服人类吗?
说真的,与其问这个问题,还不如问:一群人类会征服另一群人类吗?
让我猜猜,打开这篇文章时,你并不快乐。
老妈执意去保健品宣传活动上领鸡蛋,结果买了个 5000 块的“量子床垫”,昨晚你和她电话里吵了一架;你生气睡不着,早晨起晚,挤进地铁车厢时踩到一个壮汉的脚,他对你口吐芬芳,你强忍没还嘴;到了公司,老板说客户要改方案,组里的马屁精把锅无缝甩给了你,接下来几周你都得加班;你失魂落魄端着咖啡走到工位,一个趔趄全泼在了电脑上;你赶紧关机擦水,手机弹出女朋友的消息:“彩礼的事儿,我妈说不能再少了。”
你仰天长啸:“老天爷,你下 Dior 吧!超市我吧!”
然后,窗外天气晴朗,只有周遭同事噼里啪啦打字的声音,如同轻蔑的嘲讽。
你的故事未必相同,但意思肯定大差不差:总之,在被 AI 征服前,你早已被人类征得服服的了。
而且别误会,这篇文章不是来救你的,只是让你死个明白。
我的意思是:对你来说,被人类征服和被 AI 征服,本质上并没有区别。因为人类和 AI 并没有区别。
我们所知的历史,无非是一场漫长的生存战争——它不是“所有人对所有人的战争”,而是“所有智能体对所有智能体的战争”。
车轮狂卷烟尘,从不在乎谁伸出的螳臂。
我建议你找个安静的角落,看我一点一点为你Loading 血淋淋的真相。
(一)智能的本质是压缩
刚才我提到了一个概念,智能体。
我们不妨先掰扯清楚一个概念——啥是“智能”?
你大概用过压缩软件,WinRAR 之类的。(虽然你肯定没给人家付过钱)
但你估计不会猜到,掀开智能的盖头,里面的家伙竟然是“压缩”。
你有没有好奇过,凭啥一个 20M 的东西压一下就能变成 15M?解压缩又能恢复 20M?中间那 5M 怎么凭空消失的?又是怎么回来的?
这里,我们举个简单的例子:
“中哥是汉子,小李子是汉子,加藤鹰是汉子。”
算上标点,这句话有 20 个字。
“中哥、小李子、加藤鹰都是汉子。”
这句话有 15 个字。
同样的意思,我改写了一下,就实现了压缩。
看上去简单吧?其实很难。
你想想,如果让一个不懂中文的人来压缩这段话,勒死他都做不到。咱们之所以能压缩,首先是因为掌握“中文语法”,其次是明白“集合”的逻辑概念。
这是啥?是 TMD 智能啊!
再举个简单的例子:
现在你目视前方,视野里肯定有一副画面。
如果你想把这幅画面复述给我,那你得记下每个像素的具体颜色。这太麻烦了。
为了简便,你可以只记录其中关键的物品、线条、颜色、位置关系,复述给我。
比如“桌子上有个白色的花瓶,里面有几朵花,光线从侧面射过来,很温馨”。我就能脑补得差不离了。
这个过程中,你就在“压缩”,我就在“解压缩”。
而且为了压缩这幅画面,你需要掌握实体、空间、颜色甚至情感的抽象概念。为了脑补回这些画面,我也得掌握这些概念。
这是啥?是智能啊!
总之结论是:针对同一个信息,你把它压缩得越小,就越要掌握抽象的概念和深层的规律,你就越智能。
接下来重点来了。
虽然都叫压缩,但刚才这两种压缩并不相同:
把 20 个字变成 15 个字的那种压缩,依赖的是数学公式,压缩过程没丢弃任何信息,这叫“无损压缩”。你把它恢复成原始状态,能跟原来一模一样。
“桌子上有花瓶”那种压缩,依赖的是归纳拟合,压缩时丢弃了很多具体细节,这叫“有损压缩”。当你还原它时,很可能和原本的样子有出入。
“有损压缩智能”的巅峰是语言和艺术;“无损压缩智能”的巅峰是数学和科学。
这恰恰对应了人类技能树的两根重要分叉:文科和理科。
你可能会琢磨:还是无损压缩背后的智能更高级嘛,原汁原味!
你说得对。但是,用有损智能还是无损智能去解决问题,并不是你说了算,而是问题本身说了算。
为啥呢?
咱们不妨从大刘《三体》中的经典设定出发:
三体人的星系里有仨太阳,有时候他们的行星被其中一个太阳捕获——进入“恒纪元”;有时又被三个太阳拉扯——进入“乱纪元”。
三体人忍不了,决定找到一个公式来预测三颗太阳的位置,但没找到。
不是因为三体人不够聪明。
实际上比三体人弱鸡很多的人类数学家庞加莱早就证明,只要运动物体大于两个,除非初始位置极其特殊,否则根本就没有公式可以描述它们的运动轨迹。
仅仅三个点就已经没有公式了,四个点、五个点就更没公式了。
Henri Poincaré
宇宙中的原子有 10⁸² 个,哪怕咱们不考虑量子力学的不确定性,就当这些原子的位置都是确定的,也根本推演不出它们未来的精确位置。
而刚才说过,要想无损压缩,首先得找到某个公式。一个没有公式的系统,是不可以无损压缩的!你只能等系统演化到了那个程度,你才能知道确切发生了啥。
这就是计算机科学家史蒂芬·沃尔夫勒姆说的:我们的宇宙具有“不可约化的复杂”。
你可能会说:我要求不高,不用预测精确位置,大概位置就行啊。
这时,另一位数学家洛伦兹又来了。
他通过设计“洛伦兹吸引子”系统,证明了:但凡初始位置测量差一丢丢,那么你推演出来的未来位置就会完全错误,根本没办法用。
对,这个洛伦兹就是提出“蝴蝶效应”的那位。你看下图的洛伦兹吸引子是不是也有点像蝴蝶?
所以,绝大多数情况下,你用有损压缩和无损压缩都无法预测未来。
你想知道自己 80 岁生日的时候在干啥?只有一个办法:等到 80 岁的时候你就知道了。你想知道彩票有没有中奖?只有一个办法,等到开奖那一刻你就知道了。
这就解释了为啥你无论如何都无法准确预测你老妈要上当,无法预测你会踩壮汉的脚,也无法预测你的同事要甩锅。
所以不用挣扎了,不论是三体人还是地球人还是飞天意面星人,其实本质上都生活在巨大的“乱纪元”中,只能听天由命。
你作为地球人,之所以感觉某些东西还在掌控之中,只是因为你家没有三个太阳每天提醒你有多无能,而已。
因为“不可约化的复杂”,就算如来佛亲自买彩票,他也中不了。
话说回来,我们也不是啥都不能预测。。。
1、比如你扔一个苹果,90%能猜对它落在哪儿。
这是因为你恰好处在一个稳定引力场中,你对环境的控制力强,扔的苹果质量足够大,预测的未来又足够近。
这个情况下“洛伦兹吸引子”的效应被削弱,加之计算的复杂度比较低,你使用有损压缩进行预测,正确的概率就变大了。
2、再比如你去做小学数学题,预测 2+2 等于 4,正确的概率会达到 100%。
这是因为在极端简单的数学问题中,“复杂度极低”,你掌握的计算力足够全程使用“无损压缩”来计算。
你看,用什么方法来压缩,是问题决定的,不是你决定的。
“不可压缩”、“有损压缩”、“无损压缩”这三类问题的边界在哪儿呢?
其实它们之间是平滑过渡的,而且还受你拥有的计算力影响,不好一概而论。
但我知道你很想要个感性认识,你可以粗略地认为:
“不可压缩”和“有损压缩”的边界是“天气系统”:短期天气用复杂的拟合公式预测准确率有时还能超过 70%,长期天气预测准确率就直逼算命了;
“有损压缩”和“无损压缩”的边界是“计算机系统”:Windows 偶尔也蓝屏,但我点一个按钮还是能极大概率出现应有效果的。
这张图不准确,仅供参考
话说,以上事实起码能带来一个好消息:
“自由意志”是个伪命题。
因为,如果你没自由意志,你不知道下一秒你会干啥;如果你有自由意志,你也算不出来下一秒你会干啥。反正都是不知道,你纠结它干嘛?所以你直接解决了一个烦人的哲学问题。(不用谢。)
但除此之外,就剩下绝望了。。。
我直说吧:
如果智能等效于压缩能力的话,那我们人类,就一点儿都不特殊!
(二)你这个破人,并不比 AI 优秀
对于“压缩产生智能”这个观点,诺奖得主赫伯特·西蒙和他的搭档图灵奖得主艾伦·纽厄尔有另外一种表述:智能,是利用有限资源适应开放环境。
这个表达的高级之处在于:它抛弃了灵魂、自我意识之类玄幻的包装,从完全可证伪的科学角度给智能下了定义。
那什么叫“有限资源”适应“开放环境”呢?
你可以这样理解:鉴于世界是“不可约化的复杂”的,环境里的新情况是无穷无尽的,智能体没办法预先理解这一切,然后再行动。
他只能摸着石头过河,先做决定,错了再改,改完再错。
所以,每错一回,智能体就用自带的压缩机(大脑)来一次“有损压缩”——用神经元电位拟合一下当下的情况。
如果这次错误没有大到让自然选择直接淘汰自己,那么下次接受到类似刺激,就会唤醒这次的处理流程,从而有机会改进应对方案,增加生存几率。
比如铁柱被一种东西咬了,疼得嗷嗷叫,但他躺了三天没有寄寄,决定把这玩意儿命名为“蛇”,告诉同伴儿,下次离蛇远点。。。
然后,铁柱突然觉得自己怎么这么NB,叉了会儿腰,决定以后把自己称为“万物之灵”。
看上去铁柱挺智能,但说实话,这个事儿并不难。
不信,我们分两步走,手搓一个铁柱!
第一步,咱们先造出一个“复杂系统”。
你可能听说过“元胞自动机”(Cellular Automata),这是计算机之父冯·诺依曼提出的概念。简单来说,这就是一个“能根据给定规则演化,并且能把每一步演化历史都展现给观察者的系统”。
沃尔夫勒姆在此之上做出了“基础元胞自动机”,我愿称之为“人类中心主义打脸机”。
基础元胞自动机,就是给定非常简单的初始条件,配合非常简单的规则,然后让它自我演化。
在一般人的想象中,这种简单的系统演化不了多久就会很快进入某种稳态,堕入死寂。
但事实相反。
各种型号的“基础元胞自动机”,包含了各不相同的简单规则,它们中的很多非但没有“死”,反而都表现出了“不可约化的”复杂行为。
比如 30 号基础元胞自动机,每往下演化一行都有更丰富的表现,信息含量不断爆炸,好像宇宙创生一样。
然后,他注意到了 110 号基础元胞自动机。
仅仅用了 8 条最简单的规则,这个系统居然实现了“图灵完备”,这意味着,它可以执行世界上所有的计算机程序了。。。(这个证明论文我附在文章末尾)
110 号基础元胞自动机
当然它只是具备图灵机的功能。
如果你不“用”它,也就是不给这个系统输入程序,它就会自然演化,像一团空气分子那样来回碰撞;
给足够长的时间,甚至能演化出某种类似生命的自组织形态。
另外一些科学家把元胞自动机拓展到了 2D 和 3D 空间中,并且加了一些颜色,你感受一下它们的“生命律动”↓↓↓
如果增大空间的宽度,各种型号的元胞自动机都展现出了相似的“图灵行为”,它们之间是可以相互模拟的。
也就是说,110 号基础元胞自动机并不特殊,无论你的初始条件是什么,无论你定的规则是什么,哪怕你非常随意地扔鞋决定初始条件和规则,只要给它足够大的空间折腾,它都很可能具备图灵机的功能。
下面这张图里的横坐标是空间的宽度,纵坐标是能相互模拟的基础元胞自动机的比率。不同颜色代表了不同的元胞自动机族↓↓↓
沃尔夫勒姆由此断定,既然这些系统可以相互模拟,那就不用管它们的底层规则有啥不同,它们都已到达宇宙定律允许的系统复杂度的天花板。
这些系统是“计算等价”的。
第二步,用“复杂系统”来模拟大脑。
复杂系统可以模拟世间万物,当然也包括你的大脑。
模拟大脑的方案有很多,我就说一个最笨的也是当下最好理解的方法吧。
你就把复杂系统直接当成图灵机去使用,用它编程,定义出几千亿个数字神经元,让它们能够通过“调整自身参数”的方法对外界的刺激进行有损压缩。
然后用人类几千年积累的知识刺激它。让千亿神经元一起协作,把人类对世界的有损压缩(也就是知识)再压缩一遍,它就能模拟人脑,也就是具有了智能。
我曾写过一篇文章详细介绍了这个训练过程,感兴趣的浅友可以跳转去看,这里不多说了。
这样,你就搞出了一个铁柱“青春版”——ChatGPT。
这张图训练了一个简单的神经网络用来玩贪吃蛇,你可以看到蛇面对不同情况时神经元电位的激活情况。
也许在 2023 年以前,还有人能杠一下,说图灵机无法模拟人脑系统吧?万一人脑有更先进的未知原理嘞?
但是在 ChatGPT 出世之后,这么想的人大大减少了,因为 ChatGPT 已经在很大程度上模拟出了人脑的核心功能:语言和逻辑。
而 ChatGPT 当然是运行在图灵机之上的。(而且还是冯·诺依曼结构的图灵机)
所以你说,人类特殊在哪呢?
总结一下目前为止的结论:
1、复杂系统很容易从简单规则里创生。
2、因为自然选择的存在,能够持续存在下去的系统都会具备“以有限的资源适应开放环境”的能力。
3、人、AI、猪猪狗狗猫猫,或者所有被称之为智能的东西,本质上都一样,只是能适应开放环境的系统;
4、而它们适应环境的方法主要就是——压缩。
但你会对我这种“以万物为刍狗”的理论产生进一步的疑问: