版权归原作者所有,如有侵权,请联系我们

奇点时代:未来会属于超人类吗?

利维坦
乱七八糟,什么都有,微博:利维坦行星。
收藏

1572577756%E5%9B%BE%E8%99%AB%E5%88%9B%E6%84%8F-751912090556956709.jpg?size=267072

利维坦按:

和其他科研领域一样,人工智能方面的研究也无时无刻不在发展。或是前沿理论预测,或是基础实验应用,这一领域自一诞生就未曾停滞。但和其他领域不同的是,人工智能研究似乎充斥着危险的气息。这一领域的发展触动了许许多多人关于自身存在的担忧。与传统的危险研究课题(比如大规模杀伤性武器)不同的是,人工智能的研究人员甚至还没法完全弄清楚自己研究的东西究竟是什么。科技向善是美好期望(事实上科研人员也在朝这个方向努力),但大多数研究人员认为,强人工智能将会在50年内出现,人类的未来将会无可避免因此而发生剧烈演化。

迈入不朽还是走向灭亡,恐怕只有到那时才会有答案。1956年6月,几十个科学家、数学家聚集在美国的达特茅斯学院开会。期间,大多数参会者在红砖砌成的汉诺威酒店安顿了下来,他们漫步穿过这个比美国独立历史还要年长的古老校园,走到数学楼的顶层。会议上常见斩钉截铁的断言或难以驳倒的假设,充斥着天真与浪漫。而这些特征,日后也成了整个领域的特征。这个领域很奇怪,奇怪到开会的时候都还没有名字。控制论、自动机理论、复杂信息处理……当时的人们对于如此一个全新的世界有着各种不同的名称,但每个名称都有概念取向的偏重性。在这片密布参天大树、森林般的校园里,他们所讨论的是如何建造一台会思考的机器,一台可能会触发全人类生存恐惧的机器。他们决定用“人工智能”为其命名。达特茅斯会议的参会者大多来来往往,算法信息论的发明者雷·所罗门诺夫(Ray Solomonoff) 却在那里呆了整整一礼拜。作为人工智能研究的先驱,此人一直关注着人工智能的潜在利益和危险,并在1985年首次阐述了他有关“无限点”(infinity point)的概念:假设按照目前的人类研究能力水平,四年内可以将人工智能的能力提高一倍,接下来再翻一倍只需两年,再接下来只需一年……在有限的时间里,人工智能的能力将会被无限放大。这个概念被未来主义者雷·库兹韦尔(Ray Kurzweil)取用并发展成为了他那饱受争议的“奇点理论”。包括库兹韦尔在内的大量奇点主义者认为:未来技术发展不可逆转且不可控制,将会带领人类文明走向一个难以估测的境遇。一旦人工智能学会如何进行递归的自我改进,每一次改进都会使其更快发展,就像在滚雪球。这样的猜测被库兹韦尔用加速回报定律进行了描述,他在论文中是这样解释的:

在科技的早期阶段,轮子、火、石器——费时数万年慢慢演进才普及开来。1000年前,诸如印刷术等典范转移,也用了百余年才被广泛采用。而今天,重大的范式转换,例如移动电话及全球互联网,则只消数年的时间就大行其道了。20世纪100年来的进步,以2000年的速度只需要20年就能完成——因为当年的发展速度是20世纪平均值的5倍,而人类在21世纪的进步将是20世纪的1000倍。

如果我们按人工智能的能力来给他们分级的话,现在被我们广泛应用到各行各业的人工智能仍处于弱人工智能阶段,而

强人工智能将会在各方面都达到人类的水平,与人相当。我们仍处于由弱到强的进步阶段。

什么是智力?20世纪初为公立学校的低能儿童发明智商测试的心理学家阿尔弗雷德·比奈(Alfred Binet)的回答非常谨慎——智力就是“我的测试所测量的东西”。在优生学盛行的时代,智力被迫具有了标尺化的实际数值。但这一狭隘的标准显然不适用于强人工智能时代。

弱人工智能怎样才能变强?基础条件是硬件水平的进步,但更重要的是策略。目前让人工智能变强的主要策略大致有三种。首先是让人工智能学习人脑,模拟人脑进行架构,组成人工精神网络。我国清华大学类脑计算研究中心施路平团队研发的“天机芯”人工智能芯片,

结合了基于神经科学的类脑计算和基于计算机科学的人工智能。今年8月,第三代“天机芯”登上了《自然》(Nature)封面。第二种策略是指模仿生物的进化。如果人脑太难模拟,就模拟人脑的演化过程。这种策略将人工模拟一个演化环境,使得人工智能自己想办法进化。第三种策略,就是让人工智能自我改进。与其思索如何制造更强大的人工智能,不如制造一个研究人工智能的智能,让它代为研究。而根据加速回报定律,人工智能自我改进的幅度最终将会迎来指数式的爆发,以难以理解的失控速度进步(即所谓的“智能爆炸”,既是加速回报定律的最终表现,又会是超人工智能出现的必要条件),最终成为超级智能。按照他的计算,电脑将在2029年成为强人工智能,而等到2045年,超级智能会带领人类进入一个全新的历史篇章——奇点时代。奇点一词出自宇宙学,意味着一条明确的分界,迈过去之后原有规则将会彻底消失,最早是被冯·诺伊曼用到对人类进化的描述中的。而库兹韦尔的理论,无疑将奇点从一个有趣的理论推测转变为一场席卷全球的社会活动。在他看来,超级智能的能力将不再是人类所能理解的,就像一只蚂蚁无法理解人类一样。凭借着指数爆炸后的智能水平与全球互联,它甚至能够准确回答几乎所有问题,比如如何打造一个时间机器。它还能延长人类寿命。想象一下经wifi控制的纳米机器人在你的血管里前行,修复受损部位,摧毁癌症细胞,届时疾病和衰老都不再是问题。或者是意识上传,全人类共联,进化成单独的群体意识,在云端实现永生。总有一天,超级智能将彻底改变“人类是什么”的答案,就好像自然进化的目标是终极智能,而智人只是通往目标之路上的一个必经阶段。正如科幻作家维诺·温格(Vernor Vinge)所说:我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大。听上去既紧张又兴奋。但库兹韦尔说的话靠谱吗?此人有点一言难尽。一方面他年少有成,发明工作硕果累累,在多个领域被各所顶尖名校授予了21个名誉博士学位,应邀在谷歌当过工程总监,创办奇点大学,是《华尔街日报》笔下“永不停歇的天才”,《福布斯》口中的“终极思想机器”,还被比尔·盖茨称为“我认识的人里对人工智能预测最准确的人”。但另一方面,此人又被CBS(哥伦比亚广播公司)称为“垃圾科学的销售员”,一个招摇撞骗的欺诈者,90年代创立的公司还曾被美国证监会起诉证券诈骗。认知科学家侯世达认为,库兹韦尔的观点就像是彻底搅和在一起的好想法和废话,让你分不清是好是坏。他成功预测了苏联解体,计算机在2000年之前击败人类最佳棋手,还预测到了上世纪90年代的全球互联网的爆炸性普及。事实上在他2010年发布的报告《我的预测是如何实现的》中,库兹韦尔声称自己对未来一共做了147个预言。其中115个完全正确,12个基本正确,17个部分正确,只有3个是错误的。准确率达到了86%。但在另一番事实上,批评者认为库兹韦尔有着不止3个完全错误的预测,并指责即便是他那些成功的预测,都是大概率自然就会发生的事件。为了能够亲眼见证奇点时代的到来,库兹韦尔希望自己能活得更久一些,因此坚持每天服用150-210种维生素和矿物质补充剂,每周到医院接受一次“出于长寿治疗目的”的静脉注射。假若死于奇点到来之前,在他看来将会是一场悲剧,就像一个在停战协议宣布的前一秒壮烈牺牲的士兵。因此,作为奇点主义者的他同时又是一个超人类主义者(关于超人类主义和永生的话题,我们后天再详细讨论)。

至于他的奇点理论,支持者认为他是在机器中寻找上帝,宗教保守主义者则认为他是在亵渎上帝——尽管在某种观点上,他所描述的“超级智能世界”非常契合基督教末世论中描述的“天国大收割,新世纪开始”。

但其他研究者怎么想?未来真会那么美好吗?牛津大学哲学系教授尼克·博斯特伦(Nick Bostrom)曾提出这样一种可能:

当我们创造出第一个超级智能的时候,我们可能会犯一个错误——给它设定的目标将引导它消灭人类。比如说我们让超级智能去计算圆周率,结果为了获得更多存储介质,它利用纳米机器人分解掉了包括我们人类在内的所有物质,最后把整个地球转化成了一个巨大的硬盘。它对人类并没有恶意,就像你剪头发时也不会对头发有恶意。很显然,这样的人工智能会比人类友好型人工智能更容易制造。一个友好的人工智能需要保持自己某一部分的目标结构保持不变,以使其与人类价值观保持一致,这才是最难的。博斯特伦教授认为,未来我们将会面临两种可能的结果——永生和灭绝。而包括库兹韦尔自己也承认,快速发展的技术可能会带来严峻的后果,但他更倾向于乐观地思考。“技术进化是生物进化的延续,”他说,“这是一个非常自然的过程。”但在2015年的国际人工智能联合会议上,包括霍金、比尔·盖茨、埃隆·马斯克等上千名行业大拿联名签署公开信,敦促次联合国禁止开发自主化武器。霍金警告说:人工智能要么在疯狂追求自身目标的过程中毁灭地球,要么意外地消灭人类,要么不是意外。马斯克则认为,我们很有可能会“意外地”制造出一些邪恶的东西。科技向善在此时就显得尤为重要。与此同时,还有大量科学家对超级智能是否会与人为善表达了高度怀疑——这并不是一件意料之外的事。超级智能的正邪争辩暂搁不表。只是,我们离这些事还有多远?就在去年,作家詹姆斯·巴特(James Barrat)在一场强人工智能大会上做了次调查。他询问受试者认为强人工智能会在哪一年前出现,并给出四个选项:2030年、2050年、2100年、永远不会。结果42%的回答者认为强人工智能会在2030年之前出现,25%认为是2030-2050年,20%认为2050-2100年,10%认为要等到2100年以后,而只有2%认为永远不会出现。类似的调查博斯特伦在2013年也做过。他在一系列会议上向数百名人工智能领域的专家提出问题:假设人类科学活动继续,不会出现重大的负面干扰。你们觉得什么时候有10%的可能出现强人工智能,什么时候几率是50%,什么时候是90%?取各自答案的平均值,博斯特伦得出结论:

人们认为10%可能出现强人工智能的年份是:2022年

人们认为50%可能出现强人工智能的年份是:2040年

人们认为90%可能出现强人工智能的年份是:2075年

这意味着只要你足够年轻,超过一半的专家都认为:你将在有生之年看到强人工智能的出现。那么超级智能呢?博斯特伦的问卷同样涉及了这一点。调查结果显示:平均意见认为两年内强人工智能发展成超级智能的可能性只有10%,但30年内发生的概率高达75%。不过博斯特伦认为,目前来看无论谁所猜的时间都没有任何准确性可言,我们还没到能猜中答案的那个阶段(如果存在的话),要么即将发生,要么需要更久,要么不发生,都有可能。近几年来,研究者都在刻意避免“奇点”的说法,以免引起不必要的联想。人工智能也一直在成长,似乎非常有可能成为人类诞生以来最有力的工具——不逊于火和语言。去年早些时候,人工智能在斯坦福大学的阅读理解测试中击败了一组人类对手。他们都需要先“阅读”维基上一系列关于成吉思汗和阿波罗太空计划的条目,然后比赛谁能更准确地回答相关问题。这次胜利被视作一个“里程碑”。而就在几天前,谷歌开发的量子计算机Sycamore在200秒内完成了世界上最快的超级计算机Summit 1万年才能完成的特定问题计算。谷歌声称通过Sycamore已经实现了“量子霸权”。变化一直在发生。不管我们关心或不关心,参与或不参与,前沿科技无时无刻不在改变我们的生活。如何引导科技向善发展,是所有科研人员需要思考的问题。毫无疑问,哥伦比亚的霍徳·利普森(Hod Lipson)是这一方面的专家。早在2007年,利普森教授就曾和他的“自我感知”机器人共同席卷了全球科技媒体。与当时其他机器人不同的是,利普森制作的机器人将脱离人为灌输的物理、几何或自身结构程序,而是完全通过实验来学习如何操作。在经历一段时间的手舞足蹈和密集计算之后,它成功开始学习处理复杂情况,包括自我修复和用记号笔书写文本。通过模拟人类的学习过程探究人工智能的意识水平,利普森这项工作的成功有如一剂强心剂,打到了每个研究前沿科技的工作者心坎里。而在12年后的今天,利普森教授又带来了新玩意。由其团队研发的仿生群体“粒子机器人”可以像活细胞一样实现自主运动,其仿生系统比传统机器人有着更高的可扩展性。最关键的是:在意识研究与智能控制之外,利普森的研发同时也意味着环境、医疗等多方面的巨大应用潜力。

正如其他科技研究一样,利普森希望他的工作能更好地造福人类。当被问及机器人最后是否会统治宇宙,利普森回答说:“科技是一面镜子,反映了我们的意图和作为,同时也放大了我们的心思和举动。它的发展方向,取决于开发者的意图。”