人工智能,情感可以有

俄教授称AI技术控制好能成为人类助手

科技日报 2016-11-29

  阿列克谢·萨姆索诺维奇教授。本报记者 亓科伟摄

  ■今日视点

  本报驻俄罗斯记者 亓科伟

  近年来,随着人工智能(AI)领域的飞速发展,包括史蒂芬·霍金在内的科学家不止一次表达了对人工智能潜在风险的担忧。在此背景下,赋予人工智能丰富情感似乎是一个危险的想法。但在俄罗斯国家研究型核大学莫斯科工程物理学院控制论教研室教授阿列克谢·萨姆索诺维奇看来,这种风险是完全可控的,未来具有情感的机器人将成为人类的可靠助手。

  全能机器人需要有人类情感

  “最早,人们发明了各种各样的设备:照相机、摄像机、计算器、电话,如今这些设备的功能已经被整合在一部小小的智能手机之中。现在,计算机程序的发展同样到了一个新时期,需要出现一种综合程序,能够独立完成几乎所有工作,并与人类进行有效交流,准确理解我们的需求。为实现这一目标,需要制造出具有情感的人工智能。”萨姆索诺维奇如是说。

  他认为,赋予人工智能情感是一个复杂而庞大的工程:首先,要实现人类与机器间的正常交流,使人工智能正确认知人类语义,并用相似的语言系统进行反馈;其次,创造出虚拟助手,在现实世界中自主学习,理解人类情感与感受,获得人类信任;最终,制造出助手机器人,能够完成人类指令,甚至成为人类身体的延伸,可以通过思维对其进行有效控制。

  人工智能同人类“情比金坚”

  1942年,阿西莫夫在短篇小说《环舞》中提出了机器人三定律,那么现实中真的能实现这样的定律,用来规范人工智能的行为模式吗?

  萨姆索诺维奇认为,答案显然是否定的。未来人工智能需要独立面对复杂的、不可预知的外部环境,通过分析数据自主做出最优选择,三定律自身所存在的漏洞和模糊之处将使人工智能在现实世界中寸步难行。但他认为,人类可以通过其他方法训练人工智能,使其自觉做出对人类有益的行为。

  萨姆索诺维奇的团队正在进行一项很有意思的试验:他们设计出一个简单的电脑游戏,背景是三个人工智能虚拟角色被隔离在某个星球,需要通过两个传送点进行救援,这两个传送点只能互相激活,最终只有两个角色可以获救,而留在星球上的角色需要等待已经逃离的同伴再次返回进行救援。这将测试具有情感的人工智能能否适应人类社会关系,与同伴建立起信任,对处于不利情况下的同伴产生同情并自觉进行帮助。研究团队将通过这项试验收集数据参数,对人工智能情感模型进行优化。

  人工智能威胁来自人类自身

  “阿尔法狗”在围棋人机大战中战胜李世石后,人们开始担忧未来人工智能会获得超越人类的智力优势。萨姆索诺维奇认为,“阿尔法狗”的胜利标志着人工智能在深度学习方面取得了长足进步,但棋类是较易进行数学抽象的领域,目前人工智能相较人类的优势仍是基于其运算能力,从本质上说,这种优势仍是由人类赋予的。未来人工智能的存在和发展完全受限于人类,其能力提高仍需依赖人类对算法和模型的不断优化。

  萨姆索诺维奇认为,如果说人工智能发展最终会给人类生存带来威胁,那么还是要从人类自身去寻找原因。他说:“我毫不怀疑,未来会有心怀不良的人利用人工智能技术制造出一些危险的机器人,甚至是机器人武器。事实上,新型犯罪始终与计算机技术的发展如影随形,比如病毒和恶意程序,恶不在于技术,而在于人。人类可以有选择地赋予人工智能正面情感,使其成为我们工作生活的得力助手,而不是毁灭我们的灾难。”(科技日报莫斯科11月27日电)

责任编辑:lijia

科普中国APP 科普中国微信 科普中国微博
科技日报
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢