人工智能全球治理的困境及启示2024版.docx
《人工智能全球治理的困境及启示2024版.docx》由会员分享,可在线阅读,更多相关《人工智能全球治理的困境及启示2024版.docx(16页珍藏版)》请在三一办公上搜索。
1、人工智能全球治理的困境及启示2024版目录摘要1引言11 .人工智能对国际安全的挑战21.1. 刺激军备竞赛论:引发大国军备争优,加深危机升级风险21.2. 破坏危机稳定论:增加战略决策不确定性,冲击危机稳定性41.3. 3.加深大国竞争论:人工智能竞争的意识形态化加剧了国际体系的分裂51.4. 风险高估论:军事应用受阻,安全挑战被高估62 .全球主要经济体加速Al监管探索73 .全球Al监管合作的主要困境83.1.监管碎片化加剧,不平衡问题突出83.2.监管方式存在分歧,互操作性不足93. 3.国际协调缓慢,国际组织作用发挥受限IO4.国际安全规范演化路径的多元视角114.1. 军备控制路径
2、:大国借鉴国际军控的经验教训114.2. 全面“禁武”的手段:国际组织倡导禁止完全自主的致命性自主武器124. 3.技术发展规制的道路:知识共同体规范技术发展的专业治理134. 4.多路径演化的国际规范145. 总结及启示16摘要近一年来,以ChatGPT为代表的生成式人工智能快速发展,给各国监管机构带来重大挑战。全球迫切需要在Al治理尤其是Al监管方面达成共识,防范可能出现的重大风险。但目前全球监管格局碎片化,主要经济体对Al及其治理的基本概念、价值理念和路径策略等均存在分歧,同时主要经济体也在激烈争夺Al治理的话语权。对此,我国应在迭代完善国内Al治理体系基础上,通过推动全球共治共享、构建
3、监管合作规则、加快国际标准制定和创新多边协调机制等举措,持续提升国际Al治理的影响力。引言人工智能武器化对国际安全的挑战到底几何?一些战略学者对人工智能的军事效能有很高期待,认为它如同核武器横空出世一般引发军事革命,改变了人们对国际冲突和战场的基本认知。一些军事安全研究者则态度保守,将之视为既有武器的“放大器”,认为它不足以改变国际安全体系,并质疑其战场应用效果能否满足预期。在学者争论和政策辩论热闹非凡之时,中美对人工智能前沿技术的追赶竞争,使这项具有颠覆性潜能的技术成为“权力游戏”的新宠。在大国战略竞争和军备竞赛升温的背景下,以自主武器为代表的人工智能赋能的武器备受推崇,人们的关注已从该技术
4、在军事领域的发展机遇转向随之而来的严峻挑战,以及以何种理念、方式、工具开展有效的安全治理。参与到这场论辩的各方纷纷提出开展军备控制的倡议,但在如何实现维护国际稳定的方式上存在巨大差异。通常而言,当某一种巨大且急迫的危机降临,引起精英和大众的广泛关注和行动意愿,经历一段相对漫长的时间将催生出新的国际规范。在人工智能的军事应用还没有展现出全球性恶果之前,该如何平衡技术发展红利和潜在风险是一项难题。基于上述理论思考的目标,本文结合国际安全的现有理论视角,从人工智能引发的国际安全挑战,比如军备竞赛、安全困境、危机稳定、中美科技领导权竞争等方面进行文献梳理,而后梳理多元行为体对于正在演进的国际安全规范过
5、程的主张。有鉴于管控人工智能军事化的国际规范还处于争论发展阶段,本研究的目标不是提出规范建构的理论框架,而是对现有纷杂的各种治理观点及其逻辑假设进行梳理,为探索人工智能规范演进的路径提供新的思考方向和视角。1 .人工智能对国际安全的挑战弗兰克斯利珀(FrankSlijPer)等学者对美国、中国、俄罗斯、法国、以色列和韩国的人工智能军事化行为的研究发现,这些国家正加大研发投资,联合企业和科研机构落实研究方案,都竞争性地坚持绝不能落后于人的人工智能战略。人工智能属于军民两用技术,易于扩散的特性意味着斥巨资带来的技术优势很可能不会长期保持。但是,一些国家对人工智能军事化的执念不仅会挤兑提升国民福利的
6、财政储备,还会引发军备竞赛,破坏战略稳定,零和的人工智能军备竞赛似乎成为自我实现的预言。1.1. 刺激军备竞赛论:引发大国军备争优,加深危机升级风险人工智能有可能掀起一场军事革命。与核武器时代追求弹头数量优势相比,算法战时代追求的远非武器数量优势,而是信息技术领导地位,以获得军事实力“质”的突破。面对智能技术迭代速度加快的趋势,军事技术差距放大了国家的生存恐惧,由此军备竞赛似乎不可避免。令人担心的不只是军备竞赛本身,还有尖端武器部署和反制技术研发的竞争,恶化了国家安全预期并陷入不断升级的安全困境。国际军控学者认为,优势争夺引发军备竞赛,加大国际安全风险。2020年9月27日,阿塞拜疆和亚美尼亚
7、两国为争夺纳卡地区控制权爆发冲突。在地面进攻受阻的情况下,阿塞拜疆动用TB-2察打一体无人机、“赫尔墨斯”长程侦察无人机、“哈洛普”自杀无人机、“搜索者”中程侦察无人机、“人造卫星”短程侦察无人机和阿塞拜疆改装的安-2无人机等取得纳卡冲突主导权。有观点认为,无人机展现出来的战场颠覆性效果恐怕会让更多国家购买先进无人机,导致武装无人机扩散问题。另一方面,国家可能迫于军备竞赛压力而部署危险的人工智能系统。人工智能技术虽然强大却不一定可靠。很多系统易受攻击,或者在非训练环境中失灵。从技术安全角度看,人工智能武器的固有安全风险有助于降低决策者的部署意愿,进而在一定程度上延缓军备竞赛。但是,国家渴求权力
8、的现实会打破这种理想状态。有的国家迫于军备竞赛压力,会不断放宽对智能武器的安全限制,甚至会接受不合格的以及未经检测的武器系统。更为谨慎的分析认为,人工智能武器化使国家陷入安全困境。国家既难以明晰对方的战略意图,又恐惧于别国终将获得比自己更强大的军事力量,为了提高自身安全,应对他国的潜在进攻,从而选择增加军备。有观点认为,中美已经被拖入一场安全困境中,即美国将中国的人工智能发展看作一种安全威胁,而中国认为必须加快发展速度以反制美国的各种压制政策。由于人工智能技术具有军民两用的特性,可通过公开渠道获取相关技术要素并辅助训练军用系统,它的赋能效果带来何种程度的军事优势具有不确定性,这进一步放大了国家
9、的生存恐惧。错误认知驱使美国更加怀疑中国维持两国关系稳定的意图,对意图的曲解将中美推向一场更加严峻的“科技战”,或者陷入赢得领导力却减少安全的自我挫败中。1.2. 破坏危机稳定论:增加战略决策不确定性,冲击危机稳定性战略博弈终归是人和人的较量,引入非人类智能将加大战略误判的可能性。由人定义的算法和数据训练集会无意间将偏见带入训练系统,使人工智能给出错误建议。敌国可能污染己方的训练数据集,导致人工智能系统提供错误的侦查信息,诱骗己方落入敌人设置的陷阱。虽然人工智能可提出令人意想不到的建议,使实施建议的一方在博弈中以奇致胜,但可能增加对战略意图的判断难度,导致危机持续升级。除了理性决策的风险外,人
10、工智能技术还会影响决策者的信念体系,让他们对机器抱有错误期待,相信机器总会正常运作并发挥奇效,因而有恃无恐地炫耀武力,从而造成危机不断升级。有研究认为,人工智能军事化造成的潜在战略风险是削弱核打击报复可信度,进而造成冲击危机稳定性的恶果。2017年5月,美国兰德公司发布报告表示,人工智能可以提高对竞争对手的核报复力量的侦查、跟踪、瞄准和打击的能力,这会削弱核报复的能力和可信度。其可能结果将是加大依赖二次打击的国家应对危机的决策压力,迫使他们要么做出率先发动核打击的决定,要么提前落入失败的境地。另外,他们还可选择攻击敌方的探查器件、生成对抗性网络或者采取战略欺骗来防止对方打击自己的报复力量。虽然
11、这在一定程度上有助于保护自己的核报复设施,但加大了国家行为的不可预测性。上述参与讨论的部分专家认为,国际战略稳定不必然被人工智能轻易打破。人工智能可辅助决策者提高对情报的收集和分析能力,使威慑、保证和再保证更可信,起到巩固战略稳定的作用。这个过程会形成良性循坏,最终降低战争风险。从博弈信息沟通而言,拥核国家互信不足或者难以揣测对方意图,更高效的侦察能力给决策者提供了更多可信的信息。此外,人工智能可更有效发挥对核设施的监督和核查作用,提高定位一国的导弹发射井的能力,被威慑国可提升导弹发射井承受打击的防御力,保留第二次打击的战略威慑实力。上述理论推演能否得到验证恐怕需要更多的时间,不过美国近年来的
12、军备智能化迭代给维护国际稳定注入了更大的不确定性。2019年9月25日,时任美国联合人工智能中心主任杰克沙纳汉(JaCkShanahan)中将公开表示,美国将确保继续由人类控制核发射决策,人工智能技术应用于武器平台应该扩大我们的优势来威慑战争的发生。2019年11月1日,美国国防创新委员会发布的人工智能原则:国防部人工智能应用伦理的若干建议报告指出,当人工智能系统用于核武器等高危武器结合必须经过严格的测试和验证,就授权、安全和可靠性做更多研究项目,以避免出现技术事故。美国国防部反复声明不会将危险的技术部署于核武器指挥控制系统,或者强调对大型武器平台的部署必须经过严格安全审查,都不是维护战略稳定
13、可信度很高的信号,因为其刻意回避了美军对可搭载核武器的平台进行智能化升级。例如,美国空军已经将人工智能技术部署于F-35和可搭载核弹的B-2轰炸机上,以改进他们的攻击目标瞄准系统和忠诚僚机的协同。对于技术安全和维护战略稳定的问题,美军的逻辑是不断升级智能化作战能力。相比于新兴技术在安全方面的不确定性,更好的办法或许不是加速智能化迭代,而是更加注重人类的控制和技术安全的可信度。1.3. 加深大国竞争论:人工智能竞争的意识形态化加剧了国际体系的分裂政策界有一种观点认为,中美科技领导权的战略竞争正危险地滑向一场“大国政治的悲剧”。人工智能将从经济和军事上改变国家间的力量对比,甚至引发新一轮大国兴衰。
14、在人工智能军事应用方面处于劣势的国家面临更大的国际竞争压力。2021年3月,美国人工智能国家安全委员会发布最终报告,提出创建技术咨询委员会,统筹制定一项同中国竞争的人工智能战略。同年7月,拜登政府的商务部长吉娜雷蒙(GinaRaimOndo)、国务卿安东布林肯(AntonyBlinken)美国国安全杰克沙利文(JakeSImiVan)等高官在美国人工智能国家安全委员会举办的讨论会上表示,美国必须确保自身的技术全球领先,要加紧制定新政府的人工智能战略,加强与盟友的合作来稳固所谓的“民主价值”以及主导规则制定权。这种零和竞争的思维会将世界推向一个分裂对立、激烈对抗的格局。联合国秘书长安东尼奥古特雷
15、斯(AntOniOGUteITeS)曾警言道:世界上最大的两个经济体(中国和美国)创造了两个独立的、相互竞争的世界,各自拥有自己的主导货币、贸易和金融规则、自己的互联网和人工智能能力,以及自己的零和地缘政治和军事战略。相反的观点则认为,虽然权力争夺加深了中美长久以来的战略互疑和科技“脱钩”,但解决之道不是升级地缘政治竞争,而是要理解深厚的中美相互依赖现实,看到绝对收益对技术安全的重要性。在人工智能技术发展方面,中国和美国已然形成不可分割的共同体。有研究通过对科学和工程领域的研究进行文献统计发现,如果美国贸然切断同中国的科研合作关系,将导致美国的发表成果数量大幅下降,承受更大的科研损失。断绝中美
16、科研合作的负面冲击是双向的。前外交部副部长傅莹认为,中美不应该任由传统的地缘政治、零和竞争思维主导两国关系,因为其结果将是自毁性质的。1.4. 风险高估论:军事应用受阻,安全挑战被高估除了上述强调人工智能时代的巨大挑战外,还有观点认为人工智能若得不到人类的信任就难有影响现实的机会,它对国际安全的挑战自然就大打折扣。国家部署人工智能武器的动力是欲求它带来的军事优势,但人工智能的革命性效能如何还没有定论。当革命性的新技术嵌入到战略决策环节时,决策者和武器操作员都需要得到培训,才能适应新技术带来的变化。不同的军事部门在接纳和使用新技术的程度和速度不同,带来的潜在问题是军事部署和作战效率反而因协调障碍
17、而降低。加之人工智能的判别能力还未达到人类智能的程度,经过智能系统提供的情报信息和分析有可能引发人类的错误决策。如果人工智能在战场上错误识别敌方目标,并影响指挥员的军事部署,显然会造成战场上的巨大损失。考虑到这些现实安全问题,人工智能何时能得到人类的信任,展现其全部军事潜力就不得而知了。较为乐观的研究者认为,军事部门保守的制度和文化会阻碍人工智能的部署,部署人工智能系统要面临长时间的安全审查。以美国为例,递交申请实际上只需两周,却要花六个月分享必要的数据以获得组织的批准许可,之后再花六个月或一年时间让其他相关部门同意在平台上运行。在完成艰难的审批程序后,申请者还要再等几个月进行软件更新。冗长的
18、审批过程反映出和平时期的精神状态和最小化风险的组织文化,严重阻碍人工智能的应用。同时,新技术的应用还受到组织文化的限制。美国的MaVen项目成员曾表示军事组织排斥这种改变,因为这项技术的融入可能带来颠覆性影响,但是这些好处不会马上就显现出来。2 .全球主要经济体加速AI监管探索2023年以来,主要经济体的Al监管明显加速,相关立法、指南、规范陆续出台或提上议程,部分经济体新建了专门治理机构或委员会,Al治理呈争先恐后、你追我赶的态势。一是欧盟依托法律、法规和指令等全面实施强监管。2021年4月,欧盟提出AI法案草案,该法案根据不同安全风险等级,将Al系统分为最小或无风险、有限风险、高风险、不可
19、接受风险四个类别,并相应采取不同的监管措施,在极端情况下,违规公司可能被处以高达3000万欧元或公司全球年收入6%的罚款。2023年6月,欧洲议会批准AI法案草案,该法案正式进入欧洲议会、欧盟委员会和欧盟成员国三方谈判协商程序,有望在年底前达成协议,并在2026年对相关公司产生影响。二是美国倾向“软”监管进行规范引导。主要是通过地方自治、行业规则和自愿倡导等“软”性方式进行规范和引导,监管导向以促进Al发展为主要目标。2020年1月,白宫科技政策办公室发布AI应用监管指南,提出一系列风险评估与管理方案,但其重点仍为确保监管规则不阻碍Al的发展。2022年10月,白宫科技政策办公室发布AI权利法
20、案蓝图,列出了美国公众应该享有的五项核心权利:不受不安全或低效系统所害、不受算法和系统歧视、个人隐私受到保护、知晓Al系统的使用并理解Al如何和为何产生最后的结果、有权选择不使用Al技术。2023年1月,美国商务部发布AI风险管理框架,将可信度考量纳入Al产品、服务和系统的设计、开发、使用和评估中。2023年以来,美国对Al立法给予更多关注:6月,民主党众议员泰德刘(TedLieu)等人提交了国家AI委员会法案提案;7月,国务卿安东尼布林肯和商务部长吉娜雷蒙多在英国金融时报发文呼吁制定更完善的Al监管法案。在实质性的法律法规出台之前,美国政府希望用“自愿承诺”的方式,实现Al技术安全、可靠和透
21、明的发展目标。2023年7月21日,美国白宫公告称,亚马逊、Anthropic谷歌、InfIeCtion、Meta微软和OPenAl这七家AI巨头“自愿”就应对Al风险做出一系列承诺。三是我国同时实施“软”引导与硬”约束。在硬性约束方面,随着电子商务法数据安全法个人信息保护法网络安全法等相继发布实施,AI领域底层规则基石逐步规范。国家网信办等印发关于加强互联网信息服务算法综合治理的指导意见互联网信息服务算法推荐管理规定互联网信息服务深度合成管理规定,为规制生成式Al等应用场景制定了基本框架。2023年7月,国家网信办等七部门联合发布生成式Al服务管理暂行办法,成为全球率先针对生成式Al制定的强
22、约束规则。在“软”引导方面,2019年我国发布新一代人工智能治理原则一一发展负责任的人工智能,提出了人工智能治理的框架和行动指南。随后,围绕科技伦理、算法治理及行业应用安全等方面,新一代AI伦理规范科技伦理审查办法(试行)等文件围绕解决Al带来的社会规范失序、伦理道德等问题提供了重要指引。2023年3月,我国组建国家数据局,负责协调推进数据基础制度建设,统筹数据资源整合共享和开发利用,进一步夯实了Al监管组织架构层面的新基础。我国“软”“硬”相结合的治理方式已经走在全球前列,如果能实现动态优化迭代,该模式将成为国际Al治理的重要参考。四是英国、东盟等积极抢占Al监管制高点。2023年3月,英国
23、政府发布创新型Al监管白皮书;4月,发布生成式AI使用指南;6月,宣布将于下半年举办首届AI安全全球峰会,召集全球“理念相近”的国家来制定Al规范,并力争在英国建立全球Al监管机构。东盟正起草Al监管准则:据路透社2023年6月16日报道,新加坡正在牵头东盟国家起草Al治理规范和伦理准则,草案完成后预计将在2024年初的东盟数字部长会议上正式宣布。印度也正在积极行动,试图通过拟议的2023年数字印度法案强化对Al进行监管。3 .全球Al监管合作的主要困境当前,全球AI监管合作的主要困境主要体现在监管的国家间不平衡问题、监管基础概念与理念分歧,以及相关国际组织作用发挥受限等方面。3.1. 监管碎
24、片化加剧,不平衡问题突出一方面,主要经济体Al监管方案差异较大,引发监管碎片化问题。2023年3月,加拿大国家治理创新中心发布报告指出,截至2022年8月,全球62个国家向经合组织Al政策观察站(OECD.AI)提交了800余份与Al相关的政策文件或倡议,旨在报告该国支持Al发展和治理的相关举措。其中,主要发达经济体提交的相关倡议居多。分析发现,各国监管举措划分类型不明确、各类政策文件内容交叉,同时缺乏对政策的有用性、可信性和独立性等多方面评估,特别是AI国际合作或援助的措施相对较少,突出反映了AI监管碎片化问题。另一方面,Al创新和应用主要集中于发达国家,监管不平衡问题加剧,发展中国家缺乏话
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 全球 治理 困境 启示 2024
链接地址:https://www.31ppt.com/p-6931534.html