探讨:假如AI系统惹了祸 这个锅该由谁来背?

环球网 2018-03-20 作者:心月

  科技的发展日新月异,我们不妨来畅想一下未来的某个场景:某年某月的某一天,一辆自动驾驶汽车在路上第一次撞上一名行人并致其死亡。那么这种情况适用什么样的法律呢?

  日前,英国布莱顿大学的John Kingston对未来智能驾驶汽车若发生交通意外,致使人员被撞受伤的刑事问题该如何审判,依据什么等问题深入研究,并给出了结论。他提出了AI领域的刑事责任理论,并指出自动化、计算机和法律领域需改变态度,谨慎应对等关键问题。

  Kingston说,他与以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任。

  现行法律可能适用于AI的三种情况

  人工智能系统能否自行承担刑事责任?构成刑事责任通常需要明确其行为和意图。Kingston称Hallevy描绘了AI系统可能涉及的三种刑事犯罪情况。

  第一种情况为间接犯罪,肇事者为存在精神缺陷的人或动物,此类肇事者无需承担法律责任。但任何操纵精神病患者或动物实施犯罪的人均需承担相应刑事责任。

  第二种情况为不可抗力与意外事件,即指因不当使用AI系统导致的犯罪。Kingston以日本摩托车工厂智能机器人杀人案件为例,解释道:“机器人将工人误认为危险对象,采取消除威胁的最有效方式,挥动力大无穷的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行工作任务。”

  第三种情况为行为与意图兼具的直接犯罪,如果AI系统的作为或疏忽不作为构成犯罪,则可直接证明其犯罪事实。Kingston认为,犯罪意图虽然难以界定,但仍具参考价值,他表示:“超速属严格责任犯罪。因此根据Hallevy的说法,自动驾驶汽车如果超速行驶,法律上有充分理由追究驱动该汽车AI技术团队的刑事责任。”

  AI系统将如何为自己辩护?

  如果一个人工智能系统可能会承担刑事责任,它会使用什么来辩护?

  被追究刑事责任的AI系统将如何辩护?Kingston列举了几种可能:AI程序是否可效仿精神病患者,以系统故障为由进行辩护?或效仿人类被迫或醉酒犯罪,将受电脑病毒袭击作为辩护理由?

  这些辩护手段并不是理论上的。Kingston 指出,在英国,一些被指控电脑犯罪的人成功地辩称,他们的电脑感染了恶意软件,而这些恶意软件恰恰是导致犯罪的罪魁祸首。

  在一个案例中,一名被指控执行“拒绝服务型攻击”(Denial-of-Service Attacks)的少年电脑黑客声称,为此事件负责的应该是特洛伊木马程序,而这个木马程序在被进行初步分析之前已经从电脑中自我清除了。Kingston说:“被告的律师成功地让陪审团相信,这样的情况并不超出合理的质疑。”

  AI系统犯罪这锅谁来背?

  最后,涉及刑罚类型。既然AI系统是犯罪行为的直接责任方,那么应由谁来接受何种刑罚?这些问题尚不得而知。但若AI系统触犯的是民法,就不应再追究其刑事责任。那么问题来了,AI系统究竟属于服务还是产品?

  如果它是产品,那么产品设计立法将作为适用于这种情况的基础保证。

  如果它是服务,则过失侵权行为适用。在这种情况下,原告通常必须通过三个要素来证明过失。第一个是被告有照顾义务——通常是很直接的,尽管在人工智能的情况下,很难评估护理标准,Kingston说。第二个因素是被告违反了这项义务。第三个因素是,这一违反行为对原告造成了伤害。如果这一切还有些含糊不清,人工智能系统的法律地位可能会随着它们的能力变得更像人类(甚至是超人)而改变。

  当我们在人工智能研发的道路上不断奔跑前行的时候,围绕人工智能构建规章制度就成了重中之重。否则当有一天真的发生无可挽回的事情的时候,后悔已来不及。

责任编辑:王超

科普中国APP 科普中国微信 科普中国微博
环球网
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢