关键词: 人工智能;应用;人类;伦理风险
摘要: 随着人工智能技术的迅速发展,其在多个领域的应用日益广泛,伴随而来的伦理问题和风险也引起了全球的广泛关注。本文通过文献综述、案例分析和比较研究等方法,探讨了中国与外国在人工智能应用中面临的伦理风险及其应对策略。本文首先界定了人工智能伦理风险的概念和分类,随后分析了国内外人工智能应用中的伦理风险现状,并对比了两者在伦理风险表现上的异同。在此基础上,本文提出了针对性的管理对策和建议,旨在为学者、企业家以及军事家提供参考和指导,以促进人工智能技术的健康和可持续发展。
引 言
人工智能在国内外的发展有力促进了智能经济、智能社会、军事智能化的发展。但人工智能技术也带了一些难以避免的问题,如伦理风险问题。党和国家对科技伦理给予高度的重视。2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,该意见指出,科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。2023年,中共中央、国务院印发了《党和国家机构改革方案》,该方案指出,组建中央科技委员会。国家科技伦理委员会作为中央科技委员会领导下的学术性、专业性专家委员会,不再作为国务院议事协调机构。新时代党和国家领导人也对人工智能应用伦理风险及治理给予了关注。2023年10月18日,第三届“一带一路”国际合作高峰论坛在北京举行。中方在高峰论坛期间提出了《全球人工智能治理倡议》,呼吁各国在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。
人工智能技术是典型的军民两用技术,对其分析需要兼顾军事领域和民用领域。现有的研究对军民领域进行共同研究的有限,本文从科技伦理的视角尝试对人工智能技术的军事属性、民用属性问题进行探究。伦理视角还可以帮助加深对人工智能技术科学属性与社会属性特征的理解。促进我国实现科技自立自强,促进人类命运共同体倡议的实施。
本文旨在深入分析人工智能在中外不同文化和社会背景下的应用伦理风险,并对比其现状与特点,从而提出有效的管理对策。
1**.**人工智能应用伦理风险的内涵
根据中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》,对科技活动提出的要求是:增进人类福祉,科技活动应坚持以人民为中心的发展思想,有利于促进经济发展、社会进步、民生改善和生态环境保护;尊重生命权利。科技活动应最大限度避免对人的生命安全、身体健康、精神和心理健康造成伤害或潜在威胁,尊重人格尊严和个人隐私,保障科技活动参与者的知情权和选择权;坚持公平公正,科技活动应尊重宗教信仰、文化传统等方面的差异,公平、公正、包容地对待不同社会群体,防止歧视和偏见;合理控制风险,科技活动应客观评估和审慎对待不确定性和技术应用的风险,力求规避、防范可能引发的风险,危及社会安全、公共安全、生物安全和生态安全;保持公开透明,科技活动应鼓励利益相关方和社会公众合理参与,建立涉及重大、敏感伦理问题的科技活动披露机制。公布科技活动相关信息时应提高透明度,做到客观真实。上述对科技活动提出的伦理要求,本文认为其来源应该是人类社会的基本伦理原则,主要涉及4个方面:人权伦理、道德伦理、责任伦理、代际伦理。
人工智能的应用伦理指的是人工智能应用伦理风险指的是,人工智能应用以后,对人类伦理产生的消极影响、危害。本文认为,人工智能应用包括民事、军事两大类;人工智能应用伦理风险则主要有人权伦理、道德伦理、责任伦理、代际伦理4种类型。
**2.**中外人工智能民事应用伦理风险分析
**2.**1中外人工智能民事应用概貌
中外人工智能技术快速发展、数据和算力资源日益丰富,民用人工智能应用场景不断拓展。民用人工智能应用主要有:
经济领域。中外人工智能已经开始塑造高端高效的智能经济,人工智能已经应用于制造、农业、物流、金融、商业、商务、交通运输等行业,促进了智能经济的高质量发展。制造领域已经探索工业大脑、机器人协助制造、机器视觉工业检测、设备互联管理等;农业领域已经探索了农机卫星导航自动驾驶作业、农业地理信息引擎、网约农机、智能农场、无人机植保、农业生产物联监测、农产品质量安全管控等;物流领域已经探索了机器人分流分拣、物料搬运、智能立体仓储、商品智能追溯等;金融领域已经探索了大数据金融风控、企业智能征信、智能反欺诈等;商业领域已经探索了无人货柜零售、无人超市、智慧导购等;商务领域已经探索了多人在线协同会议、线上会展等;交通运输领域已经探索了自动驾驶、船舶自主航行、智能配送、智能货车编队行驶、港区智能运输与作业、智能道路建设、智能机场和航道建设等。
社会领域。中外人工智能参与建设便捷、安全安全的智能社会。人工智能在城市管理、公共安全、家居、养老、医疗健康、教育、科研、生态环保等领域得到积极应用。城市管理领域已经探索了城市大脑、城市物联感知、政府数字采购等;公共安全领域已经探索了交通管理大脑、智慧道路、智慧停车、智慧走失人员搜索等;家居领域已经探索了家庭智慧互联、建筑智能监测、家居产品在线设计、社区无人配送等;养老领域已经探索了老人居家智能监测、老人智能可穿戴设备等;医疗领域已经探索了医疗影像智能辅助诊断、临床诊疗辅助决策支持、医用智能机器人、智慧医院等;教育领域已经探索了个性化学生学习方案制订、智能机器人教学辅导、数字校园、虚拟教研室等;结合新药创制、基因研究、生物育种研发、新材料研发、深空深海等领域,科研领域已经探索了智能文献数据获取、科学实验预测、智能实验结果分析等;生态环保领域已经探索了环境智能监测、无人机森林消防自主巡检等。
**2.**2中外人工智能民事应用伦理风险类型
一般而言,在人类社会的长期发展过程中,人与人之间出现了伦理的概念。伦理是指人与人在交往中形成的人际关系以及处理这种关系是所应遵循的准则,是相对固定的准则,以他律性为主要的特征。人类社会的伦理主要有人权伦理、道德伦理、责任伦理、代际伦理。人工智能民事应用中的失误、错误的出现等会造成危害上述五类伦理的情况,成为人工智能民事应用的伦理风险。相应的,人工智能民事应用伦理风险包括4种类型。
2.2.1****生命伦理风险
2016年5月,美国一辆以自动驾驶的知名品牌家庭乘用车在高速路上发生事故,造成车毁人亡的严重事故,这显然就侵犯了人的生存权,违反了人类社会的人权伦理。美国公路交通管理局最终认定,该型汽车设计上无缺陷,对事故的法律责任问题没有给出明确结论。这里的人权伦理指人类所有的人权,智能科技应该坚持“以人为本”的伦理原则,以避免出现生命伦理风险的发生。尽管本案例中的管理部门认为产品设计无问题。但不代表使用者、生产厂商不存在过失以及其他使用过程中可能出现的产品瑕疵问题。
2**.**2.2 道德伦理风险
伦理是人类遵循的社会原则规范的宏观领域,而道德是人类遵循的社会原则规范的微观领域。美国曾出现过聊天机器人在聊天过程中被用户恶意引导,口出脏话的情况。这就是人工智能技术带来的一种道德伦理风险。道德是人在社会生活中应当遵循的原则和规范以及将这些外在的原则和规范内化而形成的品质、情感和精神境界,以自律性为主要的特征。道德是随着社会所处的阶段乃至文化环境的不同而有着不同规范的。对人公平正义是人类社会的伦理要求。如果被训练的机器人对人辱骂、敌视、这就有违人类社会的公平正义的伦理要求。
2.2.3****责任伦理风险
人类社会中,当人为事故发生时,需要相应的责任人承担一定的责任,包括法律责任。随着无人驾驶技术的兴起,相关事故的责任问题也得到了广泛的关注。相关国家纷纷立法,为自动驾驶的应用扫除法律障碍。美国对自动驾驶汽车测试事故的责任承担进行了规定,车辆的原始制造商不对自动驾驶车辆事故负责,英国扩大了强制机动车保险的范围,自动驾驶事故受害者可以向汽车保险人申请赔偿。
2.2.4****代际伦理风险
人类社会的“代”际间,如父母与子女、祖辈与晚辈,都要遵循一定的原则与规定。虽然这些原则和规定因民族而异,但整体而言,都比较注重尊老爱幼的行为习惯,强调基于血缘联系的的家庭文化、家风、信仰、技艺的传承等。在日本的养老院,特种陪护机器人已经得到使用。机器人陪同老人们聊天,为老人们读书、跳舞,排解老人们孤独的情绪。这对于老人而言是有益的。但某种程度上,机器人也在代替子女以及晚辈的角色,使得更多老人对特种陪护机器人产生了精神的依赖,这也在某种程度上侵害了人类的代际伦理,对家庭建设带来的挑战。
2.3****中外人工智能民事应用伦理风险对策
生命伦理风险的对策是无人系统的设计方、生产方在出产前加强安全测试,并采取措施加大对准驾驶员的培训力度,完善销售及服务;道德伦理风险的对策是设计更加符合公平正义伦理原则的算法,对出现违背该原则的无人系统的言行采取强制中止措施或者设计为无人系统不执行模式;责任伦理风险的对策是围绕人工智能技术的失误带来的事故完善相应的法律,并补充相应的补救措施,如发挥保险行业的力量与举措;代际伦理风险的对策是把陪护机器人的作用限制于辅助性,还是需要鼓励人们热爱家庭,关心爱护家人,鼓励晚辈积极照顾长辈。即便老人们有特种陪护机器人的陪伴,晚辈的陪伴也是不可替代的,毕竟家人之间的情感是与人对机器的依赖感是有着本质区别的。作为生物的人产生的情感应该是特有的,也应该是人类应该守护和发展的。机器感情不应该也不能与机器视觉类似,取代人的这一特有的功能,虽然视觉功能可以在某种程度被机器的能力所取代。
作为一种科学技术,人工智能也可以被科学家、工程师们用来维护人类的伦理,防止人类的伦理原则被破坏,稳健发展人工智能势在必行。2017年9月,“百度安全”的技术团队配合公安部门在全国15个省18个地市开展“滤网行动”,在掌握大量证据的基础上,帮助破获了国内首例新型侵犯用户个人隐私的黑色产业犯罪团伙“手机访客营销”,抓获犯罪分子数十人。该团伙犯罪分子利用运营商系统漏洞,非法获取公民手机号,将信息转卖给医院、教育培训、金融机构用作所谓“精准营销”。因此,人们在防范人工智能应用伦理分险的同时,也应该安全可控的大力发展人工智能。
3**.**中外人工智能军事应用伦理风险分析
**3.**1中外人工智能军事应用概貌
恩格斯在《反杜林论》中说,“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志而引起作战方式上的改变甚至变革。”具体到人工智能领域,目前,人工智能被认为已具备颠覆未来战争形态的潜能。人工智能首先在民用领域取得了繁荣,并正加快向军事领域转化的步伐。
3.1.1美国
在全球范围内,美国人工智能向军事领域的转化最为充分,美国主要从总体战略布局、作战概念牵引、智能装备研发等角度开展了美国军事智能化建设。
总体战略布局。美国从国家和军队两个层面加强对军事智能化总体战略布局。国家层面着眼于人工智能总体规划,为包括军队在内的多部门多领域人工智能发展提供前瞻性引领和政策性支持;军事层面又包括军队总体战略与各军种的战略,其中军队的总体战略由国防部负责制订,这是军队为对国家层面人工智能总体规划的的具体落实。各军种又制订相应的的战略和措施。
从国家层面来看,美国政府2016年以来发布了一系列战略性文件,直至2021年,完成了完成人工智能战略部署及政策设计。这些战略性文件包括2016年的《为人工智能的未来做好准备》、《美国国家人工智能研究和发展战略计划》、《人工智能、自动化与经济》、《美国人工智能倡议》。这一系列战略文件指出,人工智能将在提升社会福祉、改进政府执政水平等方面发挥重要作用,但同时也可能产生失业率增高等负面影响,因而要加强人工智能治理,了解并解决人工智能伦理法律社会影响、确保人工智能安全可靠,开发用于人工智能培训及测试的公共数据集和环境,制定标准和基准以测量评估人工智能技术、了解国家人工智能人力需求。
军队的战略制订紧跟国家战略之后,军队的战略分为总体战略和各军兵战略两个层面。军队的总体战略由美国国防部为主进行制订。美国国防部从2016年至2022年,先后发布的文件有《智能化夏季研究报告》《2018年国防部人工智能战略概要》《人工智能教育战略》《国防部负责任人工智能战略和实施路径》,这些战略文件指出,国防部必须强化对智能化的作战牵引,加快推进人工智能军事化运用,增强美军全球行动能力、强化美国本土安全防御能力、提高国防部机构运行效率等方面的重要价值,并从实践、合作、人才、安全、机构、治理等方面阐明了人工智能发展战略。此外,国防部还成立了联合人工智能中心,美国国会为该机构通过了配套的《军队人工智能法案》。美国各军种也制定了人工智能发展战略。如2017年3月,美国陆军发布《美国陆军机器人与自主系统战略》,提出到2020年采购一部分便携式机器人和自主系统,2021年至2030年发展先进机器人与自主系统、人机协作等技术,2031年至2040年替换过时自主系统、装备新型无人自主系统并将其完全集成到部队。
作战概念牵引。在以人工智能为核心的技术群的支持下,美军提出一系列具有颠覆意义的新型作战概念。如:分布式作战、决策中心战、马赛克战、反无人系统作战。分布式作战是指通过分散编成、有人无人协同的方式,将作战力量部署于广阔的地理空间,产生分布式的杀伤能力和信息对抗能力,以达到广泛控制、灵活行动、提高生存能力等目的;决策中心战通过智能化手段,使己方更快做出有效决策,形成较之于敌的决策优势,使敌陷入多重决策困境;马赛克战将高价值复杂系统离散为一系列低价值无人智能元素,然后通过网络信息对诸元素进行重构与集成,使之形成一个价值密度较低但整体效能较高的大规模弹性杀伤网;反无人系统作战在作战中往往需要应对敌方无人机的威胁。
智能装备研发。智能装备是以人工智能为核心的技术群在军事领域的物化成果,美军主要在智能决策系统、人体增强系统、无人自主系统三个方面进行了研发。美军智能决策系统主要包括深绿、阿尔法AI和指挥官虚拟参谋等。阿尔法AI系统由美国一所大学的公司开发。2016年6月在虚拟空战环境中阿尔法AI系统多次击败空军上校吉恩·李。据悉,在动态环境中,阿尔法AI的响应速度是人类的250倍,可同时躲避数十枚来袭导弹并对多目标进行攻击,同时还具备协调队友、记录行动、学习敌人战术的能力。美军人体增强系统主要包括智能头盔、智能作战服、智能探测仪等。智能头盔在原有防护及通信功能的基础上,通过智能算法、VR/AR、人体增强等新型技术赋能增效,使作战人员态势感知、目标识别、信息交互能力大幅提升。美国国防高级研究计划局研制的智能作战服将单兵载荷在士兵身上合理分布,提高士兵负重能力,减轻士兵关节损伤,并且还具备一定的自主治疗辅助功能。美军无人自主系统主要包括无人机、无人潜航器(UUV)、无人水面艇(USV)等,形成较为完善的无人装备谱系,构成美军新型作战力量的重要组成部分。总体战略、军事理论、军事装备三方的革新,为美军军事智能化发展提供了有力的支持
3.1.2日本
日本的军事智能化建设也涉及总体战略布局、智能装备研发、作战概念牵引和理论创新方面三个方面,但规模和程度相对美军还是有限的。
总体战略布局。日本相继于2019年、2021年、2022年出台3版《人工智能战略》。日本政府还成立人工智能战略小组,由首相辅佐官村井英树担任组长,组员包括内阁官房、外务省、数字厅等部门人工智能政策主管官员。该小组计划每周召开一次会议,试图以全政府一体化战略能力解决人工智能相关问题。日本政府还召开了人工智能战略会议,就人工智能相关政策方向进行探讨。日本自卫队则在此战略指导下制定相关政策措施。
战法创新与智能装备研发。日本防卫省效仿美国国防部,全面推进人工智能在军事领域的运用。自2020年起,日本自卫队开始利用人工智能技术实施网络攻防行动。据日媒报道,日本防卫省已着手研究利用人工智能技术在社交网站引导舆论。防卫省设想:首先利用人工智能技术搜集和分析社交网站上的海量数据,锁定具有号召力且在军事领域具有影响力的网红,而后将防卫省加工的信息发布到网红经常浏览的网站,使其无意识地接受相关观点并发布有利于防卫省的信息,最后在社交网站上反复进行信息操纵,使其爆发式扩散,打造出防卫省预期的舆论热点。此外,防卫省还在推动人工智能技术在无人机侦察巡逻、军舰维修、可疑船只监测等领域的运用。
3.1.3印度
印度的军事智能化建设主要包括总体战略布局、智能装备研发,由于科技实力、制造能力有限,印度的军事人工智能还处于装备研发探索使用的阶段,与装备应用有关的作战理论自主创新方面还很有限。
印度的人工智能总体战略布局强调强调无人系统制造国产化,包括军事无人系统也要与常规武器装备一样,实现国产化为主。如印度曾经宣布一项国防科研计划,将投入1.6万亿卢比(约合192亿美元)支持国防现代化,其中70%留给国内产业,包括无人机制造产业。印度政府希望借此推动本土无人机发展,使军方摆脱对进口无人机的依赖。
能装备研发。印度自主研发无人机始于20世纪80年代,最早的机型是印度航空发展建设公司研发的“尼尚特”无人机。由于该机频繁发生坠毁事故,目前印度军方已停止相关采购计划。印度自主研发的另一款“鲁斯特姆”无人机于2009年完成首飞。其改进版“鲁斯特姆2”原计划在2016年完成研发,但由于资金和技术问题导致拖延,直到2022年才进入机体生产阶段。该无人机在测试飞行阶段事故频出,最近一次是一架“鲁斯特姆2”无人机在印度西南部一航空试验场坠毁,引发军方对该款无人机性能的担忧。与此同时,印度加快推动小型无人机发展。2021年1月15日印度建军节当天,印度军方首次展示自主研发的75架无人机,并进行了蜂群无人机自杀攻击、空投补给等课目演示。印度空军已经和本国军工企业签订合同,由该企业为印度空军生产200架远程小型无人机。另外,印度斯坦航空有限公司正在开发类似于美国“忠诚僚机”系统的无人机。据称,这款无人机具备隐身性能,将在2024年进行测试飞行。
3.1.4 中国
中国的军事智能化建设主要包括总体战略布局、智能装备研发、作战理论自主创新方面。
中国军队重视推进机械化、信息化、智能化的融合发展,即“三化”融合发展。这符合军队建设规律与实战需要。中国凭借全面的工业体系,积极实施军民融合发展战略,在地面、空中、海上、空间无人装备方面都进行了研发、生产,并逐步装备部队。中国军队现役与预备役、民兵队伍均装备了无人作战系统,并进行了战术演练。
3.2****中外人工智能军事应用伦理风险类型
信息化战争飞速发展,智能化战争雏形已显。近期的俄罗斯与乌克兰的武装冲突,乌克兰军队使用巡飞弹(自杀式无人机)对俄罗斯军队的装甲、坦克集群造成的装备、人员的重大杀伤。俄军不得不对传统坦克进行了改装,在传统坦克的上方加装了防范无人机攻击顶部的铁丝棚架。这是无人系统参与实战的一个案例。本文认为人工智能军事应用伦理风险存在以下3种类型:
3**.2.1****生命伦理风险**
军事智能无人系统包括军用机器人会担负侦察、打击敌军等军事行动;尊重人的生命和尊严,同样面临类似的困难,对军事人工智能应用而言,人工智能需要完成对敌方有生力量、军用设施的攻击任务,就难以避免伤害无辜人群的生命。
3**.2.2****道德伦理风险**
军事智能无人系统如果用于战争中的心理战、认知战,会难以避免对人的心理空间、认知空间造成震撼与伤害,军事智能无人系统会对敌人产生非公平正义的认识并采取相应的敌对行为。相应的措施应该是在技术上对潜在风先进行预警,向军事智能无人系统嵌入人类的军事伦理原则如善待俘虏等,并采取人机混合智能联合监管的形式,由人类指挥员与专职监督人工智能系统对军事智能无人系统进行监管。另一方面,在信息战的网络战、电子战领域,人工智能系统也在加大参与的力度。网络空间、电磁空间与认知空间作战相互交织,军队应用人工智能通过网络网络、电磁空间制造错误、虚假信息、信号欺骗敌军成为可能。人工智能的欺骗行为在民事应用领域是不被鼓励的,但在军事领域,欺骗行为受到了许可。
3**.2.3****责任伦理风险**
与无人驾驶事故类似,如果军事智能无人系统出现事故,其责任人的认定也存在很大的困难。依照民用无人驾驶汽车事故的立法实践经验,对军事智能无人系统应该制订相关的专门法律,对设计者、使用者(军队)、公民都做出相应的权利与义务分工。
3.3****中外人工智能军事应用伦理风险对策
生命伦理风险对策是对军事智能无人系统的使用场景进行人为控制,控制权禁止与人工智能分享。军事战略层面的决定应该始终掌握在人类手中。军事智能无人系统智能参与战役、战术层面决策。本文认为人工智能的发展趋势是从弱人工智能迈向强人工智能。智能系统目前还没有被视为伦理和道德主体,今后也不应该被视为伦理与道德主体,但鉴于人工智能具有一定的“人的智能”甚至会是很强的一定的“人的智能”,智能系统可能会被人赋予一定的 “权利”,但这样的“权利”应该是以尊重人的生命为前提的,基本智能系统需要参与战争,杀伤敌人,其最终目标还是维护人的尊严、服务于人类社会的政治需要。军事智能系统依旧是人类军事系统的组成,而不是单独的一个体系;道德伦理风险的对策是严格限定军事智能系统采取欺骗行为的场景,并建立军队的监督体系对其进行监管;责任伦理风险的对策是政府应该制订措施,对公民进行防范军事智能无人系统侵害的技能培训,而军队则应该在管理机制、军事法规方面对军事智能无人系统进行规约。
结 语
人类社会的发展,建立了比较完善的法律体系以及伦理体系、道德体系,保证人类社会的健康、有序发展。大致而言,法律体系、伦理体系、道德体系从他律、相对的他律、自律三个视角对人类社会产生的约束的效应。而人工智能的失误及错误,已经并将对人类社会的伦理体系中的人权伦理、道德伦理、责任伦理、代际伦理产生了侵害。人工智能民事应用产生的伦理风险主要是人权伦理风险、道路伦理风险、责任伦理风险、代际伦理风险四类风险,人工智能军事应用产生的伦理风险主要是人权伦理风险、道路伦理风险、责任伦理风险三类风险。做出这样的区别有助于人们认识人工智能应用带来的伦理风险并采取一定的规避措施。
本文来源于云南省教育厅科学研究基金项目。
作者单位:龙 瀛 杜 鹃 马克春
(1、昆明学院人文学院,云南 昆明;昆明学院人民武装部,云南 昆明,中国自动化学会工业控制系统信息安全专业委员会,浙江 杭州;2、昆明学院马克思主义学院,云南 昆明;3、昆明学院人文学院)
本文图片来自互联网。
参考文献:
[1]孙力王莺 新时代军民融合发展战略研究(新时代 新思想新战略研究丛书)【M】.北京:人民出版社, 2019.1-2.
[2] 古天龙 人工智能伦理导论【M】.北京:高等教育出版社, 2022.32-33
[3] 《人工智能读本》编写组 人工智能读本【M】.北京:人民出版社, 2019.260-261.
[4]张翔鸢 美国军事智能化的探索与实践【OL】.中国社会科学网, 2023.5.22
[5] 栗硕 巩克 美日加速布局谋划抢占人工智能霸权【N】.中国国防报, 2023.7.18
[6] 吴卫 施海波 印度推动本土无人机发展【N】.中国国防报, 2023.9.