2023:当我们都活成了“大模型”

2023-12-30 06:42:4046:00 81
声音简介

浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信。

2023:当我们都活成了“大模型”

文 | 史中

2023,大模型擦燃了科技进步的火,所有人的迷茫却凝成了脚下的冰。

不是说科技一定会换来幸福吗?我们和上天的契约失效了吗?

在我看来,技术的进步当然会给我们带来生活下去的智慧和勇气,只不过在 2023,启示藏得有点儿深。

建议你温一杯酒,找个阳光和煦的下午,细细体味。

你我都是“高配版”的 ChatGPT

对于奈何桥的设计,我有一些赛博朋克的想法。

我会在转世投胎的闸门口放一个巨型触摸屏,上面显示一个348页的《人类用户协议》,往下拉半分钟才能看见最后的同意按钮。

用户协议里有一行小字:“允许其他玩家读取您的行为数据。”

你选择“同意”,顺利降生;选择“拒绝”,则强制退出投胎过程。。。

我不是针对谁,在座的各位肯定都是签署过这个协议才来的,因为咱们“活法儿”都一样:

通过观察世间万物的行为来收集数据,然后把数据扔进脑袋瓜的神经网络里,用计算力输出决策,再付诸行动,让自己活下去,争取活得好;

当然,你在桥上看风景,也有人在楼上看你。你的行为也会成为他人决策的重要数据。

数据、神经网络、计算力,怎么这么耳熟??

这套操作,像极了大火的人工智能“大模型” ChatGPT 的工作流程。或者说。。。ChatGPT 像极了人脑的工作流程。

人脑就是一个高配版的 ChatGPT。

唐太宗说,以史为镜,可以知兴替;以人为镜,可以明得失。目前大模型虽然比人脑的精密差之万倍,但已足够做一面镜子:

它正面是照妖镜,可以让我们大脑的盲目、短视和不堪瞬间现出原形;

它反面是放大镜,把大自然用亿万年塑造的人类精神映照得熠熠生辉。

它有大用。

好,我们开始。

不妨先简单科普一下大模型的大致原理。

大模型吐出一句话,原理类似于一棵树的生长:

1)人的提问,在大模型里形成一个种子,模型预测“下一个词大概率是什么”,就是种子在生长。

2)每预测出一个词,它就像树根固定在那里,模型再来预测这个词后面大概率是什么。

3)就这样一直预测一直爽,直到预测出休止符。就像一棵大树长出最后一片叶子。

这是马丁路德·金的著名演讲《我有一个梦想》,你甚至能感觉到这些文字是如何从大脑里流淌出来的。

注意!这里有一个鬼魅般的细节:

你在和 ChatGPT 对话时,会观察到一个非常有趣的现象:对于完全相同的问题,可以反复让它生成答案。它每次的答案都不同,但可以说都很“对”。

这是为啥嘞?

这源自大模型工作时的两个心法:

1)大模型工作时,首先会产生一个抽象的念头。但由于最终要呈现给我们一句“具体的语言”,它就必须向“念头”里添加随机细节。每次添加的随机性不同,答案自然就不同;

2)但是,具体到每一次特定的回答,随机性都会像薛定谔的猫一样坍缩成确定值——模型总会选择在这个条件下“大概率”正确的方向生长,不选小概率正确的答案。

这样说有点抽象。我们不妨拿自然界里“种子长成大树的过程”来类比:

橘生淮南则为橘,生淮北则为枳。

首先,在不同的环境中,种子都会以最正确的方式生长,由于环境千变万化,结出的果实当然非常不同;

其次,橘子不论长在哪儿,也永远变不成西瓜。因为它就没有那个基因。

其实我们人脑思考问题的方法,也有类似的特点。

不信咱做个实验:

让你写一篇200字的作文歌颂祖国母亲。你写完一篇交给老师,马上让你再写一篇,你写出来的肯定不会一模一样。而且环境里的“随机性”变化越大,你写出的东西变化也越大。

让你在咆哮的金沙江边写,你会写出祖国山河秀丽;让你在庄严的天安门广场上写,你会写出五十六个民族大团结。

你说哪次的答案对?显然都对。

接下来灵魂拷问来了:

数学题不都只有一个正确答案吗?为啥 ChatGPT 或人脑面对的问题却有无数个“都对”的答案?

如图中暗示的那样:大脑的回答,是对现实的“拟合”,而非严格的“逻辑演算”。

世界有标准答案,但你不配知道

因为考卷上的数学题“条件是完全的”;

而我们日常面临的题目“条件不全”。换句话说,需要在信息不完全的情况下做出决策。

说到信息的完全和不完全,我想到了一个有趣的例子,围棋。

话说,下围棋的盆友都知道,对弈的胜负好像和“先后手”没有必然关系——先下的可能赢,后下的也可能赢。

但从数学上看,情况不是这样。一旦规则确定,则一定有一方存在必不败策略,要么是先手,要么是后手。

这是啥意思嘞?

也就是说,当信息处理能力没有瓶颈时,“谁先下”是决定围棋胜负的唯一因素。

如果你和中哥的大脑都是算力无上限的计算机,那么咱俩下棋,在抽签决定谁先走棋的一瞬间,这局是谁赢就已经知道了。

同时,双方每一步的套路也定了,任何一方不按套路走棋,都会导致自己失败。

这就是著名的“策梅洛定理”。

策梅洛

但是问题在于,现实生活中,以人类可怜的智商,以及人类发明出的计算机的可怜的智商,都不足以穷举所有可能性,从而算出来到底是先手赢还是后手赢。

也就是说,虽然围棋是一个和应用题一样的“完全信息博弈”,但是由于信息量太大,人们只能被迫把它简化为“不完全信息博弈”。这就会造成,真正下棋的时候,有时候先手赢,有时候后手赢。

只有上帝知道,其中一方一直吃着亏呢,但它就是不告诉我们是谁吃亏,所以这个“无聊”的游戏才能延续至今。

当然这也不怪人类不争气。围棋的状态大概有10³⁶⁰种,而宇宙中的原子也大概只有10⁸⁰ 个,宇宙诞生更是只有可怜的10¹⁷秒。起码在我们这个宇宙里,不太可能有人揭开围棋的终极答案。

所以,面对“不完全信息博弈”时,不管是人还是人工智能的严肃对策都是差不多的:用大量已有的对弈数据,训练出一套神经网络模型,从中“拟合”出规律,从而预测在某个具体状态下,胜率最大的一手是什么。

这里我掀开 AI 的脑壳,大家简单感受一下具体过程:

训练阶段

1)在大模型中存在几千亿个参数,每个参数就粗略相当于人脑的一个神经元。

2)用大量数据训练模型,就是在调整参数,就像人脑在调整神经之间的连接关系和轴突树突之间的连通强度。这些参数,就内嵌了训练数据里的各种概率关系。

就像下图↓↓↓

预测阶段

1)把一个问题输入大模型,它就会让数据在参数里流淌。输入的信息不同,“流经”的参数也不同。这个过程就像人类思考时不同神经元被电位激活。

2)最终信息就会像大河一样流出一道蜿蜒且独特的形状。这条大河的终点,就是模型认为的大概率正确的答案。

就像下图↓↓↓

无论人脑还是AI,一旦被迫运用了“模型”,判断就从严格的“逻辑方法”降级到了“统计方法”。

有趣的认知来了:

1)如果把“逻辑方法”视为“绝对理性决策”,那么人脑和 AI 所运用的“统计方法”可以视为一种“不绝对理性决策”。

2)模型越大,参数越多,决策的“含理量”就越多。但只要用到了模型,它就对世界进行了“约化”,从而不是绝对理性。

3)面对同一个问题,A、B两个大模型给出了不同的答案,但是从逻辑上,A和B都无法严格证明自己的答案比对方更正确。

以上,就是面对一个问题可以有无数“正确答案”的根本原因。

说到这,我们已经解决了一些基础的技术问题。

现在我们终于可以回到开头的任务:拿 ChatGPT 作为镜子,照照人类自己。

ChatGPT 强在:学会一些道理,就能成为最好的自己,尽一切可能给出它的认知范围内正确概率最高的答案;

人类弱在:学了很多道理,还是过不好这一生,经常会做一些从概率收益上看很愚蠢的决定。比如明知道冰淇淋不健康,但有时候就管不住嘴。

比如↓↓↓

只有人类里的智者,那些经常驾驭复杂思考的精英,才多少带点 ChatGPT 的气质。

比如芒格曾经说:“普通人可以通过长期不做蠢事来积累巨大的优势。”

比如巴菲特曾经说:“用亏损的概率乘以可能亏损的金额,再用盈利概率乘以可能盈利的金额,最后用后者减去前者。这就是我们一直试图做的方法。”

你看到了么,这对老搭档说的基本是一个意思——做事情之前,要用足你的大脑,像 ChatGPT 一样去充分思考概率,然后严格按照概率收益最高的那个方案去行事。

可为啥很少有人类能做到巴菲特那样呢?

很可能因为,我们的大脑决策机制更加复杂,有很多模型在做决策——不只有“大模型”,还有“小模型”。

这么多模型在一起,堪称颅内《绝地求生》。

可能就在你纠结“要不要吃冰淇淋”的当口,几个模型已经在脑子里骑砖甩狙杀疯了。。。毒圈缩小,最后只有一个意见“吃鸡”,而你却以为这个意见来自那个唯一的“我”。

吃鸡的那个,很可能不是你脑子里最理性的那个模型。。。

这么说来,为了过好这一生,我们还得认识一下大脑里的其他模型。

你的大脑里,时刻有一群“模型”在战斗。

大脑里的“权力斗争”

情绪,就是一个非常重要的“小模型”。

比如,一种典型的情绪是恐惧。

当你在森林里探险,看到一个蜿蜒的物体,会马上产生对蛇的“恐惧”情绪。这种情绪瞬间接管你的四肢,你就会后退。

你发现了没,情绪这种小模型有三个特点:

1、它产生决策很快。

甚至在你没完全搞明白发生了什么的时候,它已经驱动你的身体后退了。

2、参与推理的数据极少。

耳眼鼻舌每时每刻传来数据都如“弱水三千”,但小模型“只取一瓢饮”。这就导致它的判断非常容易出错。

3、情绪决策优先于强理性分析决策。

你看到“蛇”,会不自主地后退。然后定眼儿一看不是蛇,你还可以回去。但你很难一开始就控制住自己不后退。

明显小模型的理性更弱,为啥还优先级这么高嘞?

因为人类的祖先在大自然里生活,危机四伏,遇到危险如果短时间内不作出反应,早就成了狮子老虎的点心。反应错了倒没啥,被大家笑话两句也就过去了。。。

所以那个时候,人类进化出了情绪这种“快但不准”的小模型;活过这个阶段,人类才有资格面对更复杂的决策,才进化出了“准但不快”的大模型。

这个进化“包袱”,导致了无论在昨天今天还是明天,我们都会先用小模型“决策”,再留出较为充裕的时间用大模型进行“修正”。

刚才这些只是基本原理,相信很多人早就了解。

我要讨论的真正问题在于:大模型在什么情况下会对小模型进行修正,以怎样的速度进行修正,人和人之间可是天壤之别。

喝酒的浅友都知道,人在喝酒前后,对于同样刺激的反应会很不同。比如,正常状态下人听到一些不痛不痒的话可能没有什么反应,可是喝酒之后人听到同样的话就会傻笑或者哭泣。。。。

这背后一个重要的原因就是:酒精抑制了大脑中“大模型”的活动,从而影响了“大模型”对“小模型”的修正能力。

酒后的大脑,小模型容易吃鸡。

有关这种模型之间修正关系,有个有趣的例子。

心理学教授理查德·戴维森曾经去印度,给一群修行的僧人和普通人进行了对比实验。

在手上绑一个装置,它会扎你一下,让你很疼。可气的是,它在扎你之前十秒还会发出一个提示音,告诉你十秒之后你会被扎。然后科学家探测受试者的大脑活动。

普通人一听到提示音,大脑就开始剧烈活动,等到被扎之后很久,大脑才慢慢平息。

修行人则不同,他们听到提示音之后大脑仍旧平静,直到被扎的一瞬间大脑才开始剧烈活动,然后很快就恢复平静。

理查德·戴维森给僧人搞了一脑袋电极。

这说明,在情绪出现的一瞬间,修行人就快速用理性对它进行了修正。

你看,别以为修行人和普通人的区别只在于有没有头发,其实这两种人脑瓜里“大模型”对“小模型”的修正能力完全不在一个等级。

结论来了:

1)每个人脑子里都有大大小小N个模型,这些模型就像是一个个国家,在一起组成了每个人的“模型世界”。

2)真实世界没有一个“世界总统”,大脑中也没有“绝对权威”,模型们需要靠自己长期的发展来一点点争取各自的话语权。

3)当一个人的大脑里所有的模型都已经尽力争取了自己的话语权,形成了某种稳态,属于这个人大脑的“模型权力格局”就形成了。

显而易见,一个人的“模型权力格局”如果和它要面对的情况不匹配,就会降低ta的竞争力。

比如 A 跟别人发生了冲突,在法治社会最好的方法当然是叫警察来处理,但假如 A 的大脑各个模型经过短暂博弈,还是驱动他来了个痛快的现世报——拿酒瓶子把人家开了。

这大概就是“和法治社会不匹配的模型权利格局”。

由此说来,黄、赌、毒、甚至游戏、短视频、高热量食品饮料,也是在不同程度卡人大脑里“模型权力斗争”的 Bug 而形成的商业模式。

还有一个典型的例子就是股票市场。

成熟且稳定的股票市场是一个典型的反复博弈环境,在这里你可以泾渭分明地找到两类玩家:

长期盈利者和长期亏损者。

查理·芒格和沃伦·巴菲特

长期盈利者在做投资决策时,“模型权力格局”中大模型占据更大的话语权,所以他们可能会在某一笔交易中亏损,但是由于大模型对概率的充分计算,博弈次数越多,总体就越可能盈利。

长期亏损者则相反,他们做决策时“模型权力格局中”小模型占据更大的话语权,所以他们可能会在某一笔交易中盈利,但反复博弈时,由于概率并不站在他们一边,长期可能是亏损的。

你看到了吗?越是需要“反复博弈”的环境,就越对“模型权力格局”中大模型占优的人有利——股市里残酷的优胜劣汰正是这样实现的。

它背后的原理是“大数定理”:博弈次数越多,博弈结果的“算术平均数”就越接近你的策略中所隐含的“期望值”。

这张图显示的是“扔硬币看正反面”实验结果。扔的次数越多,正反面比例越接近1:1。图里10根线表示独立用10枚硬币做的测试结果。

那么,一个有意义的问题是:

每个人大脑里的“模型权力斗争”到底是怎么形成的呢?

有一个经典案例,叫做“延时满足实验”。

实验者在一些小孩子面前放了棉花糖,并承诺如果坚持15分钟不吃,就会得到第二块棉花糖。

实验分成了两种结果,一些小孩遵循了“小模型”的结论,直接吃了棉花糖;另一些遵循了“大模型”,等到了第二块糖。

最初实验者的结论是:孩子的自控力存在天然差异。

但是,后续一位名叫道格拉斯·肯里克的学者重复了这个实验,并且在他的书《理性动物》里推翻了最初的结论。

因为他发现了一个隐藏的变量:孩子和实验者的信任关系,对他们“吃不吃糖”的选择影响很大。

毕竟,一个陌生的叔叔说让我等15分钟,万一骗我怎么办?我可能连这块糖也没了。。。

也就是说,当他们判断自己处在一个信任度高的稳定博弈环境,则会倾向于“长期博弈策略”,当他们判断自己处在一个信任度低的不稳定博弈环境,则会倾向于“短期博弈策略”。

这个结论很好地体现了人脑中各种模型的博弈过程:人脑里的“模型权利格局”并无对错,它们往往来自于环境塑造,也适应塑造它们的环境。

权力格局的可塑性,看来是进化造就的高级生存策略。

为了后面行文方便,我们不妨简化一下:

把小模型占优的策略称为“一颗糖策略”,把大模型占优的策略称为“两颗糖策略”。

然后我们来讨论一个现实问题:

我们应该以怎样的策略面对当下的环境呢?

“命运场”和面对世界的调参

要回答这个问题,我们首先得回答:2023 我们面对的博弈环境是怎样的嘞?

我来展示一种流行的看法:平稳而复杂。

1、你粗略一撇,看到的是平稳。

大概从2018年开始,我们的社会的几大因素“经济”、“技术”、“基础设施”和“社会治理”就都站在一个相对平稳的高台上,可以说我们浸泡在一种“高水平的稳态”里。

就像一条高速路,车道清晰,边界分明。沿着车道行进,诸事皆宜;要是犯糊涂撞上护栏,那“车毁人亡”在所难免。

就像酱↓↓↓

2、但这并非全部,你要用放大镜,才能看到复杂。

普通人表达权的历史性崛起让个体命运被空前关注;同时互联网让信息光速裂变,很多“小共识”很容易凝聚。

这些小共识如碎石一样坚硬,被随机洒在高速路上。你的车一不小心压到上面,就会不知向哪个方向打个滑。

就像酱↓↓↓

这里我们引入一个“命运场”的概念。

我们每个人,在选择开车策略的时候,各种命运以不同的概率型成一个又一个圆环,这就是鬼魅般的“命运场”。

而因为每个人生活策略选择的不同,命运场也很不同。如果我们拥有无限的计算力和数据,我们甚至可以算出每个人的“命运场”,把各种概率像圈圈一样画在它周围。

“一颗糖策略”命运场的随机性大于“两颗糖策略”。

就像酱↓↓↓

假设我们就在这样的路上赛车,最终选择的策略会很相似:

1、一旦压到石子就会打滑,打滑可能撞上护栏,为了把坏的结果概率降到最低,我们应该尽量靠路中心走。

2、速度越高,换道越频繁,事故概率就会指数提升。为了规避这类情况,我们应该降低车速,较少超车,更不要尝试排水沟过弯。

3、先胖不算胖,后胖压塌炕;不求走得快,只求走得远;找个长雪道,慢慢滚雪球。

这是典型的“两颗糖策略”,从某种角度来看,这种策略非常无聊,它的核心精神就是:“各安其位,长期重复。”

来自 OpenAI 的两位人工智能科学家斯坦利和雷曼曾经写过一本书《为什么伟大不能被计划》,其中提到:环境筛选压力大时,生物的生存策略会趋同,从而失去多样性。

说的就是这个道理。

“两颗糖策略”比“一颗糖策略”可能压到的石子更少。

但竞争中处于劣势地位的竞争者,很不甘心使用“两颗糖策略”,因为风险降低,逆风翻盘的可能性也降低了。

那弱者有更好的策略吗?

大家都读过“田忌赛马”的故事,孙膑上知天文下肢残疾,他建议田忌用下等马对齐王的上等马,从而2:1赢得整场比赛。

你看,这个故事告诉我们:弱者不得剑走偏锋嘛,哪能各安其位?!

非也,田忌的策略只适合“单次博弈”。

你孙膑聪明,齐王也不傻啊,如果再赛一场,齐王还会按照“上中下”的顺序出马么?

如果反复比赛,最终肯定会形成一个局面:齐王每次会随机出马,田忌也只能随机出马,这样算下来全场比赛田忌的胜算只有六分之一。

这是田忌所能得到的最好结果,是一个纳什均衡——这就是田忌的“命运场”。

你看到了吗?在一个规则明确且反复博弈的场景里,无论强者弱者,最好的策略都是“各安其位,长期重复。”

为了改变命运,我们必须改变命运场;

为了改变命运场,我们必须“面向世界调参”——想办法从“一颗糖格局”变成“两颗糖格局”。

这个转变其实非常难,它的核心就是“八字真言”:你要能感受到概率。

这样说有点抽象,我们把它具体分成三点:

第一,你得感受到收“概率收益”。

人脑其实非常不善于计算概率,有时候你得借助纸笔或者计算器。

有一个著名的思想实验:给你两个选项。A,直接给你100万;B你有50%几率拿到1亿,有50%几率拿到0元。你选哪个?

如果你能感受到概率收益,那么你应该选B。

至于为什么,第二章里我已经让巴菲特老爷子介绍过了:你要用盈利的概率乘以可能盈利的金额,哪个大就选哪个。

也就是说,参加这个实验,你有可能既没拿到1亿,也没拿到100万,你什么都没拿到,但你做对了,因为你使用了“两颗糖策略”。

如果你真的最后什么也没得到,你不该懊悔,而是应该默念一遍罗翔老师的名言:“我们只能做我们认为对的事情,然后接受它的事与愿违。”

图中这两种命运场的概率收益不同。

第二,你得感受到“概率风险”。

风险就像一条河。

很多人心里的河岸就是一个理想的线条,左边是岸,右边是水。严格沿着岸走就不会落水。但真相怎么可能是这样?

河岸蜿蜒曲折,而且有的地方是硬土,有的地方是烂泥,它们以概率分布在整条河岸线上。所谓“常在河边走哪有不湿鞋”,就是考虑了概率因素。

如果能感受到概率风险,你就应该认同芒格那句话:如果知道我会死在哪里,那我将永远不去那个地方。

甚至可以把这句话推广一下:如果知道我大概率会死在哪里,那我将以小概率去那个地方。

如果你能感受到一些风险,就让命运场远离它。

第三,你得感觉到概率的实时变化。

比如概率收益的变化:

股市在成长的初期投机氛围严重,你的投资策略就应该偏向于短期,股市各方面制度都完善健全时,你的投资策略就应该偏向于长期。

比如概率风险的变化:

当社会风气较为宽容时,你可以更无顾忌地表达;当社会风气较为严苛,你的言论就应该转变得更加谨慎。

根据数据来“构建你的参数”,根据新的数据来“调整你的参数”,这个过程就是经典的“贝叶斯理论”,它也是人工智能的理论基石之一。

不知道你发现了没,有关“命运场”和“调参”理论,其实和佛学的“业力说”不谋而合。

佛教讲究你的行为和思考都在影响你的业力,从而影响你的命运。但如果去掉宗教化和神秘化的部分,“业力”在微观层面的推动力不就是“概率”么?

从这个角度说,高僧大德很可能都是概率高手嘛!

好了,说到这,你大概以为我要总结陈词了吧?

人人都把自己活成“大模型”,世界将会变成美好的明天。

非也。

以上,其实是在一层层构建“我执”。

“我执”可以把很多具体的“小问题”解决得很漂亮,但它解决不了“大问题”。

接下来,我试着一点点破除“我执”。

一切模型都是对世界的“过拟合”

我们面临一个灵魂拷问:

进化没有把所有人规训为凡事都靠大模型修正的“概率人”,是还没来得及做到,还是根本做不到?

我的答案是:根本做不到。而且没必要。

我们之前说过,一切模型,不管多大,在宇宙的复杂性面前,都是小到不能再小,失真到不能再失真的局部归纳。

为了让你切身感受这个有趣的原理,我们不妨一起做个思想实验:

1)一个未知的星球,山川险峻,地形复杂。

2)这个星球上海拔越低的地方,食物就越充足。

3)你作为一个探险者降生在这个星球上随机的一点上,你应该怎么办?

你大概会沿着山坡往下走,直到走到一点A,从A往任何方向走,都比A高。你就坐在这安营扎寨,了此一生。

你使用了一个标准的“梯度下降”算法。

但你有没有想过,如果你往高处走,翻过这座山,会不会找到一片更低洼,食物更丰富的地方?

注意!没人禁止你翻山越岭,我只说越低的地方食物越丰富,可没说你爬到山上就会饿死,你只是可吃的东西少一点。

你可能会说,那好吧,我就鼓起勇气翻过一座山,果然找到了更低的地方B,我可以安营扎寨了。

我接着问你:眼前有一座新的更高的山,可能后面隐藏着更深的低地C,你还翻吗?

你可能还会翻。

那我接着问你:如果此时,眼前出现了一座比珠穆朗玛峰还高的山,里面可能有各种危险,你绞尽脑汁,也算不出不自己有多大概率翻过这座山,你还翻吗?

我讲这个故事,其实是想说:任何模型和算计,在真正复杂的自然环境中都会有边界,它只能用来找到“局部最优解”。

无论你使用什么模型,在遍历之前都无法100%找到星球上的最低点。

你甚至可以理解为:任何模型,都是对训练它所用到的数据的“过拟合”。

“过拟合”就像围绕某个点打转

你还记得我们之前提到的命运场吧?

你根据世界调整了半天参数,最终为了避开撞上墙壁的结果,收敛了自己的命运场。

但收敛命运场的时候,你也同时收敛了自己命运的可能性。你就像那个可怜的探险者,永远徘徊在A点。

如此,你可能比你目之所及的人都过得好,但也仅此而已。

当然每个人可以有自己的选择,但是,如果像第四章所述,所有人都调整参数,选择了同样的生存策略,那么就没有人会翻越山谷,找到新的栖息地。大家的“命运场”全部重叠在A点周围。

就像这样↓↓↓

此时,如果这个山谷发生了环境巨变,比如一颗陨石砸中了它,那对不起,等待所有人的命运只有一个:团灭。

结论很明确:“多样性”对于种群来说是福音,“高度共识”对一个种群来说是危险的信号。

就此,我们推翻了“第四章”的某些结论。

在第四章,我悄悄用了“赛车”这个词,预设了“生命的目的就是赢得竞赛”。但事实上,没有一条自然法则可以推导出“生命的目的是赢得竞赛”这个结论。

如果你把生存的目的当成竞赛,你的生存策略很容易就变成“围绕A点终老一生”,从而和一些同类进入“内卷的共识”,陷入囚徒困境。

这里,我们不妨更新一下结论:

1、生命没有目的,只有两条底线,“生存”和“繁衍”。突破这两个底线,生命就会掉下牌桌。

2、在不涉及生命的底线时,做“新”的事情,比做“对”的事情更有利于种群的总体利益,也可能更有利于个体利益——你不妨从环形公路上找一个出口开下来。

就像这样,人们不只围在一个点打转。

而当你一直向远处走的时候,你更可能找到比A更好的B。

这么说太抽象,没关系,在《为什么伟大不能被计划》中,作者举了很多例子,我帮你转述几个:

约翰尼·德普儿时的梦想是成为摇滚明星,但他的乐队一直没起色。不过他通过乐队认识了一位化妆师,并且和她结婚,通过她认识了尼古拉斯·凯奇,凯奇把德普介绍给自己的经纪人,德普欣然接受,才走上了演艺道路,成为家喻户晓的明星。

你看,德普的目标是“摇滚明星”,但无论怎么折腾,他就是无法达到这个目标;德普没有固守在这个目标上,而是尝试新东西,反而最终获得了更成功的人生。

如果德普一开始就铆足了劲儿去当影星呢?那大概就跟“摇滚明星梦”一样,也是竹篮打水。

你可能好奇:为啥我就断定德普成不了呢?

这背后的原理非常反直觉。

德普的“The Kids”乐队

你无法成为你想成为的人

我用另一个例子帮你感受:

OpenAI 的小组曾经做过一个“图片繁育”的网站。这个网站的工作原理是:人们可以在20张图片里选择一张,然后网站会根据这张图片随机变异,得到新的20张图,你可以一直点击,它就一直变异。

这种“点击-变异”的过程就被称为“图片繁育”。

图片繁育N代之后,就会出现在人看来有意义的图片。

当然这不稀奇,毕竟人的智慧和文化在每一次挑选的过程中渗入了图片。于是人们得到了汽车、骷髅之类的图案。

但真正有意思的事情来了:你得到汽车图片的前提是,你并没把汽车当做目标。

换句话说,如果把得到汽车当做目标,你就繁育不出汽车。。。

实际上,这个汽车图案,是由一个外星人图案经过变异得到的。

你想想看,如果你的目标是繁育一个汽车,那你怎么可能想到先去繁育外星人呢??

回到德普的例子,如果德普最初的目标想要当影星,他怎么可能想到先去当歌手呢??

你可能玩过一个叫《奇怪的大冒险》的游戏,自然界就有点像它。你越想要啥,越得不到啥。

不妨再举一个书中的例子。

基因证据表明,人类是从一种叫“扁形虫”的生物演化而来的,扁形虫和今天的人类不能说不像,简直是毫无关系。

现在,让你当一把上帝,给你一堆“扁形虫”,你负责把它们繁育成高智慧的人类。

你会怎么办?

如果动用“大模型”的目标思维,你应该给所有扁形虫测智商,然后选择“智商”最高的继续繁育。那样。。。你绝对繁育不出人类。。。

你唯一有可能繁育出人类的方法,就是不按照特定“目标”对它们进行筛选,而是让这种虫子不断往“新”的方向变异,哪怕看起来很蠢,只要是“新”的变异就好。

这样的话,经过一段时间,你会得到10086种新生物,然后你可能会从里面发现人类。如果没发现,就继续等待它变异出1008600种新生物,直到等待几亿年,甚至几十亿年,等出人类。

你发现了没,这,其实就是大自然造人的路径。没有一种方法比它更简洁!

造物主像是在往星球上一直倒水,水满了就会溢出山口,满了之后又会溢出山口,足够长的时间之后,就越来越有机会覆盖到整个星球的最低点。

回到我们的日常生活,你会发现两种成功者:“巴菲特型”和“马斯克型”。

这两种人有啥不同?我们不妨听听他们相互如何评价。

芒格评价马斯克说:他喜欢啃硬骨头,我和巴菲特喜欢简单的。

马斯克评价巴菲特说:老实说,我并不是巴菲特的粉丝。 他每天就是坐在那里,阅读各种年度报告,而这些报告超级无聊。

总结一下就是:

巴菲特善于利用较完全的信息,在既有的世界里耕耘;

而马斯克善于利用不完全信息,在未知的世界里寻找。

所以巴菲特炒股一辈子还在炒股;马斯克从电动车到储能到隧道挖掘到火箭卫星到twitter,没准哪天就上火星了。

你可以说巴菲特是一个“手艺人”,也可以把巴菲特归为“利己主义者”。

但大自然的宽容之处在于:没有一种机制避免“利己主义者”产生。

幸运的是,并不是所有人都会变成巴菲特那样的“概率人”。

你有没有发现,成为老巴是很难的?

你必须在一生的时间里,一直进行反人性的自律,事事都交给“大模型”和“概率”去修正。

别说你我了,就连伯克希尔的第三大合伙人瑞克·格林也没能做到。1983年格林因为心急,使用杠杆投资,在经济危机中陷入困难,不得不把伯克希尔公司的股票低价卖给巴菲特,自此下了牌桌。

不客气地说,要想成为巴菲特,达到五祖的“时时勤拂拭”都不够,你得到六祖的“本来无一物”境界。

一个普通人成为“马斯克”的可能性,也许要比成为“巴菲特”更大呢。

你发现没?进化在我们每个人的人性里都植入了四个字:喜新厌旧。

“简单的东西”很容易重复,成为无聊的体验;而为了寻找新的体验,我们只能探寻“更复杂的东西”。好奇心促使每个人的认知逐渐攀登向高级。这才是学习最基本的动力学过程。

而“好奇模式”其实是一个小模型。

小模型提供更宽阔的“命运场”,反而在很多情况下能解决“大”问题。

这里面好像藏着生活解药。

放松缰绳

心理学家乔纳森·海特曾经提出过一个经典的隐喻:“象与骑象人”。

意即情感为大象,理性为骑象人。骑象人以为自己可以驾驭大象,但大多数时候,骑象人都去不了象不想去的地方。然而象也不是完全自由,在它的意图不够强烈的时候,最终去向还是会受到骑象人影响。

那我们应该怎样利用“象”的好奇来帮助我们过好这一生呢?

答案可能是:放松缰绳。

我们不妨继续讲几个机器人的故事。

用户评论

表情0/300
喵,没有找到相关结果~
暂时没有评论,下载喜马拉雅与主播互动
猜你喜欢
当我们婚后

当我们婚后一部良心作品,震撼来袭。真正的经典中的经典。也希望你多多点赞,您的每次点赞就是我们的动力。更欢迎您的踊跃评论和建议,喜欢就请多多分享,分享到朋友圈哦。...

by:来听转播

当我们混在一起

兄弟本色献唱电影《兄弟,别闹!》片尾曲《当我们混在一起》嘻哈组合兄弟本色献唱电影《兄弟,别闹!》片尾曲《当我们混在一起》,歌曲朗朗上口,加上嘻哈说唱的特色风格...

by:华语音乐

当我们不再理解世界

智利当代作家本哈明·拉巴图特的代表作,收录了五则以真实人物为原型的短篇小说,小说文本模糊了历史、回忆录、散文和小说的边界,创作出一种独特的叙事风...

by:艺文妈

当我们开始旅行-SOWHAT乐团

OWHAT乐团第二张创作专辑<当我们开始旅行>是谁在唱Don’tGoAway是谁感动落下了泪是谁给了SOWHAT一个名字“摇滚乐队”2006年SOWH...

by:流行风ING

《当我们不再理解世界》

智利当代作家本哈明·拉巴图特的代表作,收录了五则以真实人物为原型的短篇小说,小说文本模糊了历史、回忆录、散文和小说的边界,创作出一种独特的叙事风格。全书主要讲述...

by:老木老木

当我们看星星时我们看见了什么

当我们看星星时我们看见了什么

by:瓜瓜妈妈故事会

当我们谈论村上春树时

本专辑里包含两本书的部分章节,一本是《当我们谈论村上春树时,我们在谈论什么》,另一本是《愿你拥有打败一切的力量》。愿我的声音能伴你左右~简介一:每个人眼里都有一...

by:爱吃猫的鱼吖吖吖

当我们谈贝多芬,我们在谈什么

关于贝多芬,曾经有个著名的故事:歌德和贝多芬散步,路遇国王仪仗队,贝多芬昂首而过,歌德停下来,脱帽,致敬。有人说,贝多芬的狂狷与歌德的世故,由此可见一斑。然而,...

by:壹咖啡

当我们旅行-Lonley Planet的故事

lonelyplanet的传奇创业故事,被奉为背包客圣经的创始人自传。

by:河马不慌

当我们走进心理咨询室

22个鲜活的故事,带领我们走进心中“隐秘的角落”。

by:慧心智语