人工智能将毁灭人类吗?| 科幻作家江波

2024-01-31 08:40:1817:07 8.8万
声音简介

出品:中国科普博览 SELF格致论道讲坛


导语:作为科幻中很大的母题,人工智能经常在科幻电影中出现,比如《I,Robot》、《黑客帝国》、《机械姬》,其中人工智能往往扮演反叛者的角色,对人类造成伤害。结合现实来说,这样的事情会不会发生?


---嘉宾介绍---

江波

科幻作家


以下为江波演讲实录:


    从生物智能开始探讨自我意识,比较直观的方式是对照生物智能。原因很简单,生物智能是唯一一种产生了自我意识的智能形态。生物智能的演化发展历程,能够给未来的人工智能许多启发。

  生物智能的演化是一个很有意思的话题。整体而言,智能对于生物的意义,就是无需基因的变异就能适应环境变化。基因变异是生物的本底色彩,环境不断筛选合适的基因推动生物的演化(自然选择),演化的方向可能是更快,更有力,繁殖更多,有毒……生物的适应性多样性,可以用一个词来形容:鬼斧神工,或者再加上一个:叹为观止。智能作为适应性的一种,在全体生物而言,未必是最重要的,但对于人类来说,却是最重要无可替代的一种,是整个人类文明的生物性基石。

   镜子试验:衡量自我意识的准绳

  生物是否具有自我意识,这是个很难验证的问题。人类肯定认为自己具有自我意识,那么其它动物呢?如何才能确认动物的自我意识?

  从前庄子和惠子有一场濠上辩论,叫做子非鱼安知鱼之乐。看到鱼儿在水里游,谁知道它的内心是快乐还是痛苦?不能深入任其它动物的内心,怎么谈论动物的自我?

  为了衡量自我意识,需要一个外在的标准。科学家设计了镜子实验来检验动物的自我意识。就是让动物照镜子,如果能认出镜子里是自己的影像,那么就判断具有自我意识。

  这个实验显然并不能十全十美地衡量出动物是否具有自我意识,但是它至少是一根准绳,一个充分非必要条件:能通过镜子实验的,可以认为具有自我意识,不能辨认自我,也就不能辨认出镜像(按常理说,这个假设是正确的);而未通过的,则未必不具有自我意识。

  所以我们拿镜子试验做标准,筛选出的对象应该是具有自我意识动物的子集。

  都有些什么动物能够通过镜子试验?大象,鲸鱼,黑猩猩,海豚,喜鹊……据说章鱼也可以。以镜子试验为标准,自我意识的分布相当地广泛。还有一些处在边缘上,比如猴子。为什么如此说?我们来看一个特殊的镜子试验——关于一只特别的猴子。与此对照,放上另一种灵长目:银背大猩猩作为对照。

  首先看银背大猩猩。这是一张gif的图片,但是在word文档里不知道怎么让它动起来。需要看动图的,可以自行Google图片“银背大猩猩,镜子试验”。脑补一下,这只雄壮的猩猩勇猛地向着镜子里自己的影像撞了过去,结果被拉到了及格线以下。

  然后是猴子。上图中是一只猕猴。猴子一直是镜子试验中的失败者,闯关多次,都悲惨地败下阵来。然而图中这只猴子成功地通过镜子辨认出了自己脸上的红点,因此通过了镜子试验。

  这……究竟说的是猴子能过还是不能过?原本是不能过的,经过训练之后,它就能过了。这只猴子是中科院神经科学研究所的科学家在2015年初的研究成果,使用合适的训练方式,可以让猴子通过镜子测试。

  这里带来一个很重要的启示:自我意识的有无,和是否能利用镜子辨认自我一样,并没有一个严格的界限,具有很大的模糊性。

  当然可以认为这是一个猜想,并没有得到完全的证明。从人的自我意识萌发来看,也是如此,人在两岁左右开始萌发自我意识,从无到有,并非一个截然的突变。推广到自然界中的情形,可以认为具备复杂神经系统的生物,从简单到复杂,自我意识逐渐变得强烈,清晰,并非有一个截然界限。

  关于生物自我意识的一般性结论性如下图所示。

  对于生物的自我意识,如下两点该是基本事实:

  生物的自我意识广泛存在,并非人类特有;

  自我意识的存在,边界是模糊的;

  广泛性和模糊性,这是两个很有力的指标,表明自我意识对于生物而言并非属于人类的天赋异禀,突然间神性般的降临,而是一种演化的自然产物。

  对于智能的演化细节,在尼克·莱恩的伟大著作《生命的跃升——40亿年演化史上的十大发明》中有精彩的描述,当然有更多的细节仍旧有待发掘。在此处,我们仅仅就形而上的思辨来分析这个问题。

  一个三段论是可以破除自我意识的神秘感的。

  大前提:智能是生物体认识客观世界的手段,生物能够借助智能充分认识客观世界

  小前提:生物的本体是客观世界的一部分

  结论:生物可以认识到本体的存在,也就是生物能拥有自我意识。

  换而言之,对于一个生物体来说,一旦它的智能达到足够的复杂程度,能够对客观世界作出充分的认识,便能够产生自我意识。

  但是,在这里还有一个核心的问题。

  这个核心的问题,是学习。生物塑造神经系统的手段,无一例外是通过学习。外界的刺激作用于神经系统,从而塑造神经系统,这就是生物的学习。当我们谈论生物的自我意识,很容易注意到生物神经系统的复杂性与之相关,却很容易忽略学习这个重要因素。

  在前面提到的三段论中,大前提(智能是生物体认识客观世界的手段)得以实现的前提,就是学习。可以说,学习是前提的前提。

  当然,生物还有本能。编辑在DNA中的本能行为也可以具有很高的智能性而且不需要学习就能获得。因为无需对客观世界进行认识,也就无法认识到自身,本能行为不会产生自我意识。

  所以,如果对生物的自我意识进行小结,可以概括如下:

  按照是否需要学习,可以将生物的智能行为划分为本能和智能。通过学习得到的智能是生物体认识客观世界的手段,一旦这个手段复杂到一定程度,生物体就能从环境中辨认出本体,从而获得自我意识。

  如果把这样的结论推广到机器,会怎样?

  借助于对生物本能的理解,我想引入一个词汇:拟智能。

  在生物智能中,本能和智能的最关键的分别,不在于复杂度,而在于是否需要通过学习获得。学习,也是为人工智能定性的关键。

  我们首先要对人工智能的学习进行定义,对于人工智能来说,什么是学习?

  所谓人工智能的学习,是指通过对环境的认识,不断修正内在逻辑。

  定义了学习之后,就可以这么定义拟智能:所有不通过学习而形成的智能都是拟智能。

  换而言之,拟智能就是由编程预先决定的智能。

  现今我们看到的绝大多数人工智能,都是拟智能。比如工业机器臂,无人机,无人汽车,聊天机器人……拟智能拥有广阔的市场,而且我们丝毫不担心它会产生自我意识。哪怕复杂强大到匪夷所思的地步,它的工具属性不会有一丝一毫的改变。历史上有几次著名的拟智能的胜利:

  1997年,深蓝战胜国际象棋大师卡斯帕罗夫;

  2011年,沃森战胜人类选手,获得“危险边缘”游戏的胜利

  这些计算机程序的算法已经很复杂,从单项智能的角度来说,大大地胜出了人脑,然而,它们却不会产生除了这项智能之外的任何想法——原因很简单,它们的智能由编程决定,根本不经历学习的过程。(请注意,所谓的学习需要改变内在逻辑,而不是简单地从外界得到输入变量)因此,单就智能获得途径,已经杜绝了产生自我意识的可能性。

  从这个意义上来说,这些拟智能机器,类似于昆虫,凭本能行动。虽然它的高度复杂让人迷惑,让人产生“怎么能够如此聪明”的错觉,它的本质不会改变。能够产生自我意识的机器,必然是能够学习的机器。这样的机器有没有?有。我们来举例说明。

  2014年初,Google以4亿美金的价格收购了DeepMind。这家公司做出的产品是一个玩游戏的程序。程序可以控制上下左右开火的动作,躲避或者击毁从上方不断落下的方块。没错,这就是类似打飞机,打砖块的那种电子游戏。程序中并没有内置逻辑遇到怎样的情况该如何动作,这个程序要通过训练才能学会打游戏。大约的过程就是,在程序中,从输入(屏幕上掉方块)到输出(采取动作)间有几层网络,因为每一层网络都有许多节点,从输入到输入就有许多可能路径。如果某条路径导致游戏失败,这条路径的权重就会被降低,反之,路径的权重会被升高。这样不断训练,最后这个程序能够很好地玩这个游戏,拿到很高的分数(它能够形成一套特定的网络结构,适应打游戏)。

  这个过程完全符合学习获得智能的定义。自我意识会就此诞生吗?当然不会。因为这个程序还相当地简单。它甚至根本没有把本体(程序的本体可不是那个在屏幕上被控制的小亮点)当做认识对象来考虑。

  要从数字程序中产生自我意识,最大的困难之处,应该在于如何定义本体。一个不明确的本体,无法被认识,也是无法产生自我意识的。但是计算机的世界自然有它的游戏规则,虚拟世界中智能体对于本体的认识,也许和我们的认识截然不同,那需要计算机学家对此进行深入探讨。

  那么是否有会学习的实体智能机器呢?有。2014年8月,IBM发布了一款模拟生物神经系统的芯片,真北(TrueNorth)。它利用现有的半导体技术,模拟了人脑的功能,可以说,这是一个真正的人造脑。

  那么自我意识呢?这款芯片会认识到自我吗?答案仍旧是否定的。主要有两个问题。

  首先是规模。这款芯片有4096 个内核,54亿个晶体管,模拟100 万个“神经元”、2.56 亿个“突触”。54亿个晶体管,这样的规模对现在的芯片来说是很可观的。作为对比,2013年英特尔酷睿i7 4960X,制作工艺22nm,晶体管数量18.6亿。所以这大概接近目前半导体工业的极限。

  最后的板子上,有16块芯片,那么就是一千六百万个神经元。相比人脑有140亿个神经元,只有大概千分之一,还不考虑人脑细胞错综复杂的连接方式。

  如果这是一个脑,最多只是大型昆虫的脑。规模相差很远,这是第一个问题。规模的问题,可以用钱搞定,一般不是真的问题。

  更具有限制性的问题是如何让这个大脑工作。我们可以认为,这个模拟芯片很大程度上模拟了人脑,却还没有相对应的算法来匹配它。生物大脑的发展是生物体本身演化的一部分,并不是一个独立器官,而现在IBM制造出来的这个芯片,仅仅是一个脑而已,没有躯体,没有系统。独立的神经系统是没有任何意义的,它需要感知,需要输出运动,自我被抽象综合出来,是基于感知和运动的,一个神经系统不能依靠没有外部特征的事物而抽象出自我(这一点的理解,可以想象一个关在黑屋子里的人,如果不能接受外部的刺激,这个人不会生成任何概念,更不会形成自我。如果这个人可以接受外部刺激,却不能予以反馈,他或许会对外部世界有一些认识,但是不会形成自我,因为在这样的情形中,本体不能和环境互动,也就不会被认识)。

  驱动这个头脑工作的程序,应该是一个体系,能够让这个头脑在学习中不断修正逻辑,同时必须和环境产生互动。目前看起来,配套的算法还没有诞生。因为规模和算法还都不具备,这样的人脑芯片距离自我意识也还很遥远。

  但是没有任何理论性的阻碍让自我意识成为不可能。无论是基于神经网络算法的程序,还是基于神经网络模拟的芯片,它们已经具备了萌发自我意识的要素,不断地加以完善,达到相应的复杂度,则自我意识的产生是一种必然。

  所以,我们已经走在创造人工智能的自我意识的道路上。所以,如果做一个小结,那么就如上图所示。人工智能的自我意识,只是一个时间问题。面对这样的情形,人类该怎么办?人工智能会杀出来毁灭全人类吗?

  对于人工智能毁灭人类的可能性,我持肯定态度。就连人类当中的恐怖分子都有毁灭全人类的可能,何况人工智能?一个发疯的人工智能能做出任何举动。问题在于,人类的智慧是否足够驾驭它。

  一个拥有自我意识的人工智能,必然是一个学习型的人工智能。而人类则是它唯一的老师,或许称为父母。它就像初生的孩子,我们教给他什么,他就学会什么。是暴力杀戮战争,还是慈悲和平爱,取决于它的一念之间,也取决于从现在开始,我们会做些什么。

  如果把视野拉得稍宽一些,自从十八世纪工业革命之后,人类就在工业化的道路上狂奔,不断地发明各种机器,丰富物质生产,填充我们的生活。这个过程,或许可以称之为“赋文明以机器”。我们无需担心机器的感受,因为无论怎样,它们始终是工具而已。

  然而到了具有自我意识的机器诞生的时刻,事情就要发生本质的变化。自我意识的机器,需要人类的悉心呵护和引导才能向着对人类无害的方向成长。如果不在它成长的阶段帮助它懂得慈悲和平爱,懂得克制和尊重,当它长大成熟,一切就都太晚了。

  “赋机器以文明”,面对浮现出自我的人工智能,这将是人类的使命,或许是人类作为一个物种的最后使命。


“SELF格致论道”是中国科学院全力推出、中国科普博览承办的科学讲坛,致力于精英思想的跨界传播,由中国科学院计算机网络信息中心和中国科学院科学传播局联合主办。登陆“SELF格致论道”官方网站、关注微信公众号“SELF格致论道讲坛”、微博“SELF格致论道”获取更多信息。更多合作与SELF工作组self@cnic.cn联系。

用户评论

表情0/300

网事如烟_4i

猴子本来是不能通过镜子测试的,但是这只猴子通过了,原来这只猴子是来自中科院的😀️

不火的乌鸦

听得有点晕

第六弦3875

智能!自抡...自论...无语

小黑屋的我 回复 @第六弦3875

听的是内容么,宽容些。

沙湖之春

一个科幻作者谈论如此问题似乎有点不胜重负