专家:杀手机器人一年内将上战场 而且敌友不分环球网 2018-04-12 作者:汪雄飞 |
据英国《每日邮报》报道,英国谢菲尔德大学诺埃尔•夏基博士近日预言,无法分清无辜民众和敌人的杀人机器人一年内即会踏上战场。
一些国家正在开发AI武器,这些机器人完全自主,无需人类监管。专家认为,根据联合国公约,应该禁止这种机器人。本周的日内瓦联合国大会上,专家和官员聚集起来讨论在全球范围内禁止研发杀人机器人。
如果联合国限制开发杀人机器人的国际公约未通过,杀人机器人一年内即会踏上战场。诺埃尔•夏基博士认为,早期战争机器会导致大规模伤亡,而且它们没法分清敌人和民众。
作为谢菲尔德大学AI和机器人学教授,夏基博士对《每日邮报》网站说,“迫切需要”国际公约来禁止使用全自动杀人机器人。这位AI专家具有丰富的机器人学领域经验,曾任流行电视节目“机器人战争”裁判长。夏基教授说:“大部分(国家)说过有意义的人类掌控武器是至关重要的。我相信公约会通过的,但担心是哪种公约?如果没有公约禁止,一年内杀人机器人就会上战场。”
目前,机器人系统能使用AI开发致命的武器,但必须“有人监管”。专家强调,所有机器人武器必须有一定程度的“有意义的人类控制”。夏基教授说,“‘人类监管’这样的术语就和按下按钮发射导弹一样简单。‘有意义’这个词非常重要,它意味着在决定交火和决定目标时有人参与。”夏基教授认为,这是军人和武器制造商争论的关键点。与其他专家一起,夏基教授认为杀人机器人的主要缺点是技术无法实现像人一样做决定。在生死的抉择中,会有毁灭性的后果。
本周,来自90个不同成员国的专家和官员聚集到日内瓦参加联合国大会,将要讨论这一话题。10日是他们讨论“致命自主武器系统(LAWS)”的第一天。11日的主要话题是“考虑致命机器人力量中的人类因素”。
责任编辑:王超
最新文章
-
为何太阳系所有行星都在同一平面上旋转?
新浪科技 2021-09-29
-
我国学者揭示早期宇宙星际间重元素起源之谜
中国科学报 2021-09-29
-
比“胖五”更能扛!我国新一代载人运载火箭要来了
科技日报 2021-09-29
-
5G演进已开始,6G研究正进行
光明日报 2021-09-28
-
“早期暗能量”或让宇宙年轻10亿岁
科技日报 2021-09-28
-
5G、大数据、人工智能,看看现代交通的创新元素
新华网 2021-09-28