随着技术与应用不断涌现,人工智能背后的风险也已逐渐暴露:虚假信息传播、个人信息权益侵害、数据安全、偏见和歧视等问题,引发了诸多舆论争议。
然而,AI与千行百业不断融合的趋势短时间内很难改变。高盛研究显示,但市场对AI的兴趣已经迅速升温,罗素3000指数公司中超过16%的公司在财报电话会议中提及AI技术。
既然技术和产业的狂奔的无法阻挡,如何握好治理的“缰绳”,使风险可控成为了当前需要解决的关键问题之一。事实上,世界各个国家与地区都在寻求符合发展目标的有效解决方案。
在驯服与放任AI的博弈中,欧盟一直扮演着强监管的角色。自2018年的政策文件《欧盟人工智能战略》始,欧盟相继发布多份政策文件,从算法治理、伦理规制等多方面提出要求,试图为人工智能发展指明方向。
2021年,欧盟委员会通过了制定人工智能统一规则的法律提案《人工智能法案》(以下简称“法案”),试图为地区内人工智能技术发展和使用“立规矩”,该法案目的在于制定统一的法律框架来改善内部市场运作及保护公共利益。法案对人工智能系统提出了诸多要求,违反相关义务将被处以最高4000万欧元或上一财年全球年营业额的7%的罚款。
值得注意的是,法案将对人工智能产业侧产生极大影响。法案适用于在欧盟开发和部署人工智能系统的任何实体,包括位于欧盟以外的实体,这意味着,AI企业面临的将不再是柔性的监管,而是确凿的门槛,唯有符合法案标准,从业者的触角才能够探入欧洲市场,乃至触及全球。
北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武指出,“欧盟的AI治理模式主要是以保护欧盟公民免受人工智能的权利侵害为目的,如之前苹果的信用卡算法被指责歧视女性。此外,也是为了巩固欧盟在科技领域的领导地位,限制美国AI巨头企业对欧盟企业的倾轧。”早在去年欧盟委员会释放对通用人工智能监管信号的释放时,企业便开始担心自己相关业务的发展处境。据媒体报道,去年9月,OpenAI向欧盟委员会及理事会官员发送了一份名为《OpenAI 关于欧盟人工智能法案的白皮书》的文件,对欧盟人工智能法案表达了一些担忧。白皮书认为,法案的某些表述在一些场景下可能会无意中将对工作效率有帮助的人工智能系统划进高风险人工智能系统的范畴,进而抑制人们从AI中广泛受益。
AI从业者选择“主动出击”将AI治理话题摆上台面,Open AI、微软等科技巨头都分别提出了对AI治理设想的蓝图和规划。同时,AI科技商行动活跃,正尝试参与制定行业“游戏规则”,在其中开拓一隅立足之地。
不过,产业侧与监管侧在博弈中相互交融,一方面,欧盟修订过程中纳入企业的合理提议,另一方面,从业者在调整自己的模型系统向欧盟所提出的AI治理方向靠拢。同济大学法学院助理教授、上海人工智能社会治理协同创新中心助理研究员朱悦表示,“前段时间欧盟立法机构和美国科技商公开接触较为明显,游说也一直在进行中,等过段时间人工智能法案(AIA)整体成型,两者的治理方案在一些关键细节上可能会更加明显。”
美国:市场机制和企业自我规制主导
美国在人工智能产业发展的赛道上一直保持绝对的竞争优势。
斯坦福大学发布的《2023年人工智能指数报告》中提到,2022年,美国人工智能私人投资总额达到474亿美元,大约是中国(134亿美元)投资额的3.5倍。美国政府也增加了对AI的支出,自2017年以来,美国政府人工智能相关的合同支出金额大约增加了2.5倍。
产业发展的同时,治理也在发力。从2016年起,美国在战略层面上对人工智能持续加大关注与支持,除了相关政策,美国还陆续成立了国家人工智能倡议办公室、国家AI研究资源工作组等机构。
在生成式人工智能及相关技术引发越来越多关注和担忧后,美国的治理步伐加快,思路从重视产业更多转向监管治理与行业发展平衡。数据显示,2021年,美国所有联邦人工智能法案中只有2%被通过成为法律。这个数字在2022年跃升至10%。同样,去年所有州级人工智能法案中有35%被通过成为法律。
具体政策上,今年1月,美国国家标准与技术研究院(NIST)在与私营和公共部门的合作下发布了《人工智能风险管理框架》,为有需求的各方提供可参考的AI风险管理框架,旨在帮助任何部署人工智能的组织评估风险并确定干预点。5月,2023年的《国家人工智能研发战略规划》美国政府宣布了一系列围绕美国人工智能使用和发展的新举措,以全面了解并捕捉到快速发展的AI技术所蕴含的风险和机遇。
不过在同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋看来,虽然美国在治理方面已经取得可喜进展,但目前为止,还没有联邦层面法律法规出台和实行的真正体现。这意味着,美国在AI治理问题上还是秉持实用主义的基本原则。
“从近期动向来看,美国仍然遵循一贯的监管理念,即以市场机制和企业自我规制为主导,辅之以政府的监管和软法治理。”对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示,虽然白宫等成立了一系列针对生成式人工智能的工作组,但至今尚未有实质性的进展,更多的仍然是通过企业自我承诺和自我规制的方式构建柔性的监管框架。
亚洲:模块化治理值得借鉴
欧美之外的多个国家与地区也已迈开脚步。
地处亚洲的日本、韩国今年以来有诸多动态。韩国在今年8月发布韩国个人信息保护委员会(PIPC)发布《人工智能时代个人信息安全使用指南》,提供了韩国《个人信息保护法》(PIPA)的实务解读,旨在降低人工智能在隐私和数据保护方面的潜在风险。
今年2月,韩国国会科学、信息通信技术、广播和通信委员会通过了一项拟议立法《促进人工智能产业和建立可信人工智能框架》,规定政府应每三年制定一次新的人工智能发展计划,并成立一个人工智能委员会来考虑具体政策。
而日本则从知识产权等受人工智能影响较多的领域入手,提出了多项举措。今年4月,日本政府决定设立一个名为“人工智能战略会议”的新机构,负责人工智能技术的研究开发、应用普及和相关法律规则制定等工作。这个跨部门、跨行业的国家级决策机构,其成员包括研究人工智能技术的学者、法律领域专家及负责人工智能业务的政府公务人员等。
作为“亚洲四小龙”之一,新加坡也加入了这场AI治理竞速,强调政府企业合作,提出“模块化监管”的概念。2022年5月,新加坡发布了人工智能(人工智能)治理评估框架和工具包——A.I.VERIFY。这一工具包可以用于企业进行技术测试并记录过程检查,是全球首个官方发布的人工智能检测框架和工具包,旨在结合人工智能系统的技术评估和程序检查,提高评估主体与利益相关者之间的透明度。
今年6月,新加坡金融管理局发布了Veritas Toolkit 2.0版,是全球首个专门为金融行业开发的AI工具包。Veritas Toolkit 2.0版改进了公平评估方法,使金融业能够负责任地使用人工智能,促进负责任的人工智能生态系统,并协助开展评估方法,以评估遵守公平、道德、问责及透明度原则。7月,新加坡个人数据保护委员会就拟议的《AI建议和决策系统中使用个人数据的咨询指南》征求意见。
张欣认为,新加坡人工智能“模块化监管”思路一定程度上对我国的监管具有启发意义。未来可根据新技术或服务的共性元素拟定对应的规制框架,框架搭建好后,再根据每种技术或服务的特性进行综合调整。“先把框架搭建好后,再根据每种技术或服务的特性进行综合调整,这是一个非常重要的治理理念。这样既保证了监管具备敏捷性和韧性,搭建好的监管框架可以在一定程度上包容新兴科技的发展。”她指出。
供稿:《21世纪经济报道》