自去年底ChatGPT“一夜成名”,人工智能(AI)迎来“狂飙”时刻,AI生成内容(AIGC)领域快速发展。与此同时,数据泄漏、电信诈骗、个人隐私风险、著作权侵权、虚假信息等挑战层出不穷,关于AI监管的讨论正在全球范围内升温。
包括埃隆·马斯克在内的1000多名科技领袖、技术人员和研究人员今年3月就签署过一封公开信,呼吁暂停开发最大的AI模型6个月,理由是担心“开发和部署更强大数字思维的竞赛失控”。超过350名AI领域的行业高管、研究人员和工程师5月30日又签署了一封公开信,他们在信中警告称,AI可能给人类带来“灭绝风险”,签署者包括美国OpenAI首席执行官山姆·阿尔特曼和谷歌DeepMind首席执行官杰米斯·哈萨比斯。
从欧洲《AI法案》到七国集团(G7)“广岛AI进程”,目前,全球许多国家正在讨论AI的监管规则,不过它们正处于监管和立法过程的不同阶段。
欧洲议会通过《AI法案》草案
当地时间2023年6月14日,在法国斯特拉斯堡举行的欧洲议会全体会议上,议员投票决定对生成式人工智能增加更多安全控制措施。(图片来源:视觉中国)
德国《法兰克福评论报》指出,目前关于AI的最具体、最先进的规则是欧盟的《AI法案》。作为其数字战略的一部分,欧盟希望对AI进行监管,以确保为这一创新技术的开发和使用提供更好的条件。
当地时间6月14日,欧洲议会以499票赞成、28票反对和93票弃权的压倒性结果通过了《AI法案》草案。若最终法案获得通过,这将成为全球首个关于AI的法案。美国有线电视新闻网报道称,一旦获得通过,该法案将适用于在欧盟开发和部署AI系统的任何人,包括位于欧盟以外的公司。
监管的程度取决于特定应用程序产生的风险,从最小到“不可接受”。属于后一类的系统将被彻底禁止。
该法案还对“高风险”AI应用设置了严格限制,“高风险”指的是可能“对人们的健康、安全、基本权利或环境造成重大损害”。
该法案还概述了AI系统的透明度要求。例如,ChatGPT等系统必须表明其内容是AI生成的,以方便区分深度伪造图像和真实图像,并提供防止非法内容生成的保障措施。用于训练这些AI系统的受版权保护的数据详细摘要也必须公布。
G7呼吁出台AI技术标准
据《日本时报》报道,由于对生成式AI日益担忧,G7领导人5月在广岛召开峰会,同意成立一个工作组,以加强合作,解决与新技术相关的各种问题。他们还表示,将创建一个名为“广岛AI进程”的部长级论坛,在今年年底前针对生成式AI导致的版权、虚假信息等问题展开讨论。
G7发布的联合声明表示:“我们认识到有必要立即评估生成式AI的机遇和挑战。”他们将致力于通过透明、公开和公平的方式与多个利益相关者合作,起草“负责任的AI”的标准。
声明表示,各国对AI监管的立场可能有所不同,但需要有一定程度的标准化,这种标准化也适用于其他新兴技术趋势,例如元宇宙和量子信息科学。
澳大利亚计划加强AI监管
澳大利亚是最早提出监管AI的国家之一,于2018年推出了一个自愿的道德框架。
澳大利亚工业和科学部部长埃德·胡西克承认,版权、隐私和消费者保护方面的法律目前仍然存在不足。他表示,鉴于AI行业的快速发展,政府希望确保其法律框架能起到有效保护效果。同时,如果在制定新的AI法律过程中,公众有强烈要求,澳大利亚也会考虑禁止AI中的高风险成分。
在2023年的联邦预算中,澳大利亚政府宣布成立“负责任的AI网络”,并为在全国范围内负责任地推广多种AI技术提供约2690万美元的资金。
此外,该国监管机构也意识到了现行法律的不足,拟对更广泛的《隐私法》进行修改,修改后的法律将涉及如何应对在没有人类监督的情况下,AI模型训练通过反馈环路可能出现的缺乏透明度的问题。
美国AI监管仍在路上
美国也加入了这场生成式AI的监管风暴。当地时间5月23日,美国政府宣布了一系列围绕美国AI使用和发展的新举措,希望全面了解并捕捉到快速发展的AI技术所蕴含的风险和机遇。
白宫官网发布消息称,“AI是我们这个时代最强大的技术之一,具有广泛的应用。为了抓住AI带来的机会,我们必须首先管控其风险。为此,政府已采取行动,促进负责任的AI创新,将人、社区和公共利益放在中心位置,并管理AI技术发展对个人和社会、安全和经济的风险。”
不过,美国对于AI监管的思路与欧洲不同。欧盟倾向于由统一法案带来集中协调和全面的监管覆盖范围;而美国则采取不干涉的做法,着重于依靠业界“自律”,提出自己的保障措施。
来源:科技日报