如果AI拿起枪

光明网 2016-07-28

  这件血案发生在20天前,美国达拉斯警方出动MARCbot型号机器人,通过摄像头靠近的方式,在嫌疑人附近引爆炸弹,炸死枪杀警察的嫌犯。

  有人认为这是对机器人的滥用,有人更深层地考虑到人类可能被机器人毁灭的未来——

  “当被命令时,机器人能毫不犹豫地杀人”,它们会不会被发展成嗜血的杀人工具?

  “有了自主意识的机器人,不被命令时,会不会心起杀机?”当人工智能变得不受控,整个人类会不会被取而代之?

  面对越走越近的“人工智能”,如何有节制地应用,如何把未来走向握在人类手里?我们不妨在几位未来学家的预测情境下,回归案件现场,以他们的视角重新推演事件,可能从中看出些端倪。

  三大法则版 一言不合算到懵圈

  创立者:

  预言作家艾萨克·阿西莫夫,1920年出生,他提出的“机器人学三大法则”对机器人学影响重大,他预言了今天的生物科技,预言了互联网时代的数字图书馆。

  预测情境:

  在《我,机器人》一书中,艾萨克·阿西莫夫预设了机器人学三大法则——

  一、机器人不得伤害人类,或因不作为使人类受到伤害。

  二、除非违背第一法则,机器人必须服从人类的命令。

  三、在不违背第一及第二法则的情况下,机器人必须保护自己。

  三大法则在整个机器人世界中堪称“铁律”。

  这一铁律得以实现的核心元件被称为“正子脑”。三大法则被写进正子脑的最底层程序中,除毁坏外完全不可更改。

  “正子脑”是铂铱合金的海绵状球体,体积与人脑相当,用来赋予机器人生命和心智。脑中电位的高低决定机器人的行动,第一法则电位高于一切,第二法则电位高于第三法则电位,机器人即使生命危急也会服从命令,但当命令不明确,机器人又意识到危险时,第三法则产生的电位就令他回头。

  阿西莫夫在《转圈圈》的故事中,讲述了一个机器人在人类命令和自身危险中懵圈的故事。“他”被派去采矿,由于是随口命令,电位微弱,当发现矿池附近有腐蚀物会危及自身生命时,“他”根据第三法则后退,退到一定距离后,又根据命令前进,陷入了一直转圈的死结中。为了救“他”出来,“他”的主人把自己放在快要烤焦的位置,才用“救人”的第一法则,打破了二三法则的电位平衡,解开这个结。

  案件重演:

  在这个剧情中,机器人认为人命高于一切,那么美国机器人引爆炸弹的案件推演应该是这样的——

  “机·1号,带上炸弹炸了他!”头儿命令道。

  “呃,如果是杀人的命令,我只能说不。”机·1号答。

  “带上炸弹平了他十米外的遮蔽物!”头儿改口道。

  “噢,十米是危及生命的危险距离。”机·1号依然不动。

  “……带上这个,接近他。”头儿的眉头拧成“山”字,右手丢给机·1号一个遥控炸弹,左手把遥控器藏在背后,拇指抚住触发键。

  “嗯……”此时机·1号脑中的电位翻江倒海,循环往复,评估到懵圈……(此处省略几十亿次的正子脑计算)

  自我意识版 你可曾看到我眼角的泪

  创立者:

  未来学家雷·库兹韦尔,1948年出生,他在1990年对2009年做了147项语言,86%得到证实。他认为,2029年,机器人智能将能够与人类匹敌,2045年,大脑新皮层可以与云端的人造新皮层无线相连,人的智能就是人工智能,还比现今增强10亿倍。

  预测情境:

  将人类的思维注射到机器中去,或者让机器获得与人类相同的心智,在诸多科幻电影中都有体现。从机器猫到《机器人总动员》里的瓦力,从有自我意识的《超能查派》到想变成人、想被爱的《AI》,这些形象都在与人的无限接近中闪光。

  雷·库兹韦尔的答案是,这完全可以实现。他的方法是制造一个人脑。“只要有真实大脑的详细数据,我们就能模拟出生物学意义上的大脑。”

  他和团队对大脑的结构、运转进行了细致入微的分析——大脑新皮质分6层,包含300亿个神经元,它们又组成了3亿个模式识别器,每秒钟有1万万亿个电信号在其间传递。

  “我们已经能模拟包含160万个视觉神经元的人脑视觉新皮质,预计2023年可模拟完整的人类大脑。”在《人工智能的未来》一书中,雷·库兹韦尔谈到目前的进展。

  通过制造、模拟和运行,非生物系统有了人的智力和情感,而人有了非生物系统的可复制、存储、上传、重建的能力。

  案件重演:

  这个版本中,机器人警察和警察毫无二致,且具备高智能,案件现场将是这样——

  “壹仔,带上炸弹炸了他!”头儿下达命令。

  “同归于尽不是最好的方法,悬空秒狙怎么样?”壹仔建议。

  “去吧。”遂见壹仔腾空近十米,翻转360度,在最高点顿停,掏枪,瞄准,射击,一气呵成。

  对他来说,杀人太简单,只是他也许会眼角飙泪,和人类一样对死亡无限伤感。

  杀人机器版 生而为斯,死有何憾

  代表人物:

  斯坦福大学历史学和古典文学教授伊恩·莫里斯,他通过战争史试图回答“战争哪里好”的问题,并认为战争对人类社会有着长期的“建设性”,在他眼中,人们总会研制并使用新武器,否则,就被敌人占了先。

  预测情境:

  未来战场,就是机器的战场。

  “因为我们别无选择,”伊恩·莫里斯在《战争》一书中说,杀手机器人是必需的,因为“军事的OODA(观察、调整、决策、行动)步骤到时纳秒便可完成,当极超音速战机互相较量时,机器人无疑会击败反应速度在毫秒级的人类。

  对于武器而言,人是迟钝、近视、笨拙的,美国陆军中校托马斯·亚当斯说,“现在的武器太快、太小、太多,超越了人类能指挥的范畴。”

  由于联合国要求禁止研制和使用“致命自动化机器人”,在多本专业教材中,机器人武器的假想敌是“洞库”,但从未明确,“洞库”中是否有人。

  这是最接近现实的版本,包括物理学家霍金在内的全球1000多位科学家和机器人专家去年发表公开信,警告称致命性全自动化武器数年内就能实现。各国在机器人武器的研制上不遗余力,美英联合研制的反直升机地雷,可以判断敌友,随后弹起百米左右击毁直升机……

  案件重演:

  既然有了武器的基因,那案件推演应该是这样的——

  “Bot1号,去轰了那个可恶的狙点。”

  “是,长官!”

  是的,情节就这么简单,顶多在机器人走向杀戮时,它会想,“就这么完结一生,可太亏了,没轮上打个大战役,倒在小阴沟里翻了船,希望爆炸之后,我不会太碎,还能拼得上……”

  (图片来源于网络)

  

责任编辑:lijia

科普中国APP 科普中国微信 科普中国微博
光明网
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢