2023大模型治理蓝皮报告.docx
《2023大模型治理蓝皮报告.docx》由会员分享,可在线阅读,更多相关《2023大模型治理蓝皮报告.docx(67页珍藏版)》请在三一办公上搜索。
1、大模型治理蓝皮报告(2023年)前言近一年来,以ChatGpT为代表的大模型技术引发通用人工智能新一轮发展热潮,在带动大规模产业升级、劳动力转移、产品的分配机制等方面均带来深刻变革,成为改变世界竞争格局的重要力量。与此同时,围绕人工智能治理的议题探讨显著增多,全球人工智能治理体系加速构建。党中央国务院高度重视人工智能治理工作,作出一系列重要部署。形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。寻找大模型治理的准确定位,构建适应技术发展趋势的治理体系愈加重要。面对大模型带来的新问题新挑战,传统监管模式面临着Al自主演化控制难、迭代快速跟进难、黑
2、箱遮蔽追责难等问题,一劳永逸的事前监管模式已经难以应对不断推陈出新的人工智能发展需求。从治理框架来看,敏捷治理成为回应大模型技术快速迭代的重要治理模式,软硬法协调、多主体协同的治理需求更为突出。构建高质量数据集、创新知识产权制度、探索价值7寸齐实现方式、Z用户信息内容安全等成为各方关注的热点问题。美国、欧盟、英国等主要国家和地区加紧推进人工智能治理布局,共同寻求具有共识和互操作性的治理规则。我国围绕人工智能发展、安全、治理三方面提出全球人工智能治理倡议,通过算法备案、评估评测、事后溯源检测等方式,推动人工智能治理从规则走向实践,为全球提供人工智能治理中国方案。希望研究成果为社会各界进一步参与大
3、模型治理实践提供有益参考。目录一、大模型治理的重要性紧迫性凸显1()大模型浪潮起*1(二)大模型引领数字化变革3(三)大模型带来的典型风险5二、技术变革下大模型治理框架日渐明朗11(一)治理模式:敏捷治理成为国际较为通行的治理方案11(一)治理主体:激励多元主体协同治理成为全球共识14(三)治理机制:软硬兼施推进大模型治理18三、聚焦大模型治理核心议题规则22(一)数据治理规则23(三)伦理问题治理36(四)信息内容治理40四、把握全球大模型治理最新动态趋势42(一)美国从松散碎片式治理逐步趋向体系化治理42(一)欧盟继续发挥人工智能治理领域布鲁塞尔效应45(三)英国力图以促进创新的监管方法引
4、领全球治理49(四)国际组织在大模型治理国际合作中各显其能52五、探索我国大模型治理的主要落地工具55(一)事前备案55(三)事后溯源检测60六.完善我国大模型治理体系的思路建议63(一)确立促进创新的人工智能敏捷治理理念64(一)聚焦人工智能场景应用细化制度方案64(三)立足当前治理实践创新人工智能治理工具65(四)激励企业积极管控风险以推动平台合规,66(五)促进全球人工智能合作治理体系构建67一、大模型治理的重要性紧迫性凸显(一)大模型技术浪潮兴起当前,世界人工智能领域科技创新异常活跃,日益成为改变世界竞争格局的重要力量。一批里程碑意义的前沿成果陆续突破,以ChatGPT为代表的大模型技
5、术引发通用人工智能新一轮发展热潮。1.对大模型的基本认识大模型(LLM,LargeLanguageModel)指的是具有超大参数规模,建立在多头自注意力机制TranSformer架构之上,以深度神经网络为基础,用海量文本数据预训练而成的语言模型。以ChatGPT为代表的大模型能够模拟人类的创造性思维,生成具有一定逻辑性和连贯性的语言文本、图像、音频等内容。大模型基于大数据、大算力、多模态的技术优势,实现从感知世界、理解世界向创造世界的跃迁,推动人类社会加速迈向人机共生的智能社会阶段。大模型体现出三方面技术趋势:一是从决策式Al到生成式AL决策式Al主要是通过分类回归对数据进行分析,主要应用于图
6、像识别、推荐系统、决策智能体等领域。生成式AI借助TranSformer架构等,具有全局表征能力强、高度并行性、通用性强、可扩展性强等优势,主要应用于内容创作、科研、人机交互等领域,实现了从简单感知到内容创造的跃迁。二是从单模态模型到多模态模型。多模态是指通过处理和关联来自多种模态的多源异构数据,挖掘分析信息、提高模型能力的学习方法。典型任务是图像/视频/语言间的跨模态预训练、跨模态定位等,如给定文本生成一段对应的声音、图像/视频与文本的相互检索或生成等。三是从亿级到千亿、万亿级参数的预训练模型。大模型指的正是模型参数规模庞大,大模型参数规模从亿级发展到百亿、千亿级S!J,并向着更高规模的参数
7、探索。例如,GPT-3参数量达1750亿,文心一言参数规模为2600亿等。随着参数规模的增长,模型能力也得到显著提升。2.大模型的变革影响(1)内容生产方式的颠覆者大模型实现了高质量、高效率、多样化的内容生产,成为推动内容生产方式变革的重要力量。一是信息内容生产主体发生显著变革。人工智能在信息收集、筛选和整合、推理的全过程都能替代人力,极大地解放人力资源。二是信息内容生产效率快速提升。大算力驱动强算法处理大数据,在自然语言处理、计算机视觉、自动驾驶、等各领域多种任务上,都能高质量作出结果判断,高效率进行内容生成。三是信息内容传播出现颠覆性变化。信息的生产、传播更加便利,尤其是降低了专业知识的获
8、取门槛。信息内容的表现形态更加丰富,利用人工智能创生技术,图、文、代码等相互转换更加自由,可以一键生成数字人”分身,开启智能互联时代。(2)通用人工智能的先行者”大模型是迈向通用人工智能的重要技术探索。一是具备了与人类智能相媲美的综合智能能力。大模型的能力不再局限于自然语言、视觉等特定方面,而是具备了执行一般智慧行为的能力,广泛拓展了人工智能技术的适用范围。二是具备了通用型技术能力的潜力。业界普遍认为,大模型是智能时代的关键基础底座,各领域不再需要单独开发人工智能,仅需调用大模型接口即可。将来可能构建出新的应用生态、创造新的用户接口,并带来潜在商业模式的变革。三是具备了赋能千行百业的适应性。大
9、模型可作为底层技术,垂直应用于各个产业和复杂场景。这种可以嫁接千行百业的智能生产力,正在重塑和影响未来生活。(3)人机交互的协作者大模型使得人类行为与机器运行之间的协作更加自然、高效和智能,拓展了更为广阔的人机交互空间。一是呈现出极大的语言表达的自由度。大模型善于”理解和生成自然语言,人们可以自由提问或表达需求,不必担心特定的格式或指令。这种自由度使得人与机器的交互更为自然、灵活。二是呈现出极为个性化的交互体验。大模型可以通过分析和理解用户的喜好、兴趣和上下文信息,进行定制化的服务和建议。大模型的即时回应和连续对话,给用户提供了实时的帮助和引导。Web2.0之父蒂姆奥莱利(TimOReiny)
10、认为未来的人工智能系统将成为人类工作的协作者,通过人机合作实现更强大的效果。(二)大模型引领数字化变革大模型体现出强智能性、强通用性、强交互性,为进一步的产业革新与数字政府发展奠定了坚实的基础。根据麦肯锡报告,生成式人工智能每年或将为全球GDP增加2.6-4.4万亿美元。根据MarketsandMarketS报告,2023年全球生成式人工智能的市场规模预计为110.3亿美元,2028年预计将达到518亿美元,年复合增长率达35.6%。1大模型推动产业跨域深度融合凭借大数据、大市场、多场景优势,人工智能与交通、医疗、工业等传统行业深入融合,涌现出一批新业态新模式。在工业领域,大模型实现汽车、建模
11、等设计的自动优化、打造3D模型、通过智能物流、智能安防实现智能化管理;在医疗领域,大模型实现蛋白质分子的结构预测、辅助医生影像读片与分析病例报告,推出Al陪护与交互式心理咨询;在金融领域,大模型催生了数字员工,借助Al客服、Al投资顾问、Al财务实现服务的自动化,并进一步优化投资管理与风险管理。据埃森哲预计,2035年人工智能应用将为制造业带来4万亿美元额外增长,年增长率可达4.4%o2大模型提升公共服务水平当前,公共领域大模型应用如火如荼,为公共服务提质增效。美国、英国、葡萄牙、新加坡等13个国家或地区已将ChatGPT应用于政府内部办公、公共服务提供等场景。据日本野村综合研究所开展的网络问
12、卷调查显示,政府部门对ChatGPT的利用率达17.5%,仅次于信息通信业(32.8%)和制造业(19.2%)。从市场份额来看,根据普鲁杜尔公司(PrudourPvt.Ltd)数据显示,2022年各国政府应用大模型的市场份额超过1千万美元,预计2032年超过5亿美元,年复合增长率达45.8%o大模型技术的引入可以显著提升人机交互的友好程度。同时,大模型在信息收集、数据分析以及语言重塑能力层面的优势,能够有效协助整合政府治理资源,改善政府治理结构,打破政府组织壁垒,实现跨部门、跨层级的协同治理。(三)大模型带来的典型风险大模型在提升产业效率与社会生产力的同时,亦伴随着多重风险与挑战,有必要从技术
13、自身缺陷引发的风险、技术应用在不同层面带来的问题与挑战等维度出发,梳理和探讨大模型发展面临的困局。1.大模型自身技术缺陷带来的风险挑战一是大模型的生成幻觉问题引发生成内容不可信。生成幻觉通常指模型按照流畅正确的语法规则产生的包含虚假信息甚至无意义内容的文本。幻觉一般被认为是模型生成的文本不遵循原文或不符合事实,在大模型场景下主要指不符合事实,即出现一本正经胡说八道的情形。幻觉产生的本质原因是大模型的输出结果是根据概率推理而成的,这导致了大模型可能针对一个原本模糊或者不确定的预测,给出一个过度自信”的结果。因此,OPenAl公司首席技术官MiraMurati亦指出,ChatGPT和底层大型语言模
14、型的最大挑战是其会编造错误的或不存在的事实。二是大模型的涌现效应带来模型能力不可控。所谓智能涌现”,是指大语言模型在没有经过针对性训练的任务,包括需要复杂推理能力的任务中,同样表现出卓越的性能。这种“智能涌现能力通常在小模型中未被发现,而只会在具备一定规模的大模型中出现。目前仅能够明确观测到当模型大小超过一定阈值时,模型各方面综合能力得到质变式爆发增长的涌现现象但却无法确定涌现的阈值所在,这使现有大模型的智能涌现能力具有突发性、不可预测性和不可控性,例如,在某用户故意激怒ChatGpT后,后者威胁将披露该用户的IP、居所等个人信息,甚至损害其名誉。不少人工智能研究人员亦发出警告,如果控制不当,
15、足够强大的人工智能模型可能超越人类智能成为地球主导力量,引发灾难性后果。三是大模型的脆弱性和攻击性造成外部安全隐患难以根除。由于技术本身的特性,没有一个系统是永远安全和不可能被攻破的。一方面,随着大模型生成侧的高度发展,对其进行网络攻击日渐增多。例如通过在提示词后增加一些不规则后缀,即可让此提示词绕过大模型的拦截策略,让其生成预料之外的内容。另一方面,大模型应用降低了漏洞查找与系统攻击的难度。如果模型被恶意植入后门,模型的安全也会受到威胁,尤其在大模型应用下,漏洞查找与系统攻击变得更加容易,导致系统安全隐患持续升级。例如,有攻击者利用ChatGPT生成自动攻击的代码,让它更加高效的利用某个目标
16、系统的漏洞,进行网络攻击。2.大模型在个人维度引发的风险挑战一是加深信息茧房并影响公平正义。一方面,以呈现高频次单一信息为生成机制会加深信息茧房。过去,个人自主进行信息检索是往往能够获得来源丰富、多种多样的信息以供选择,从而形成对所欲探究事物更全面的认知;而在大模型应用下,个人只能被动接受模型提供的信息,而无法获取样本数量不占优势的小众信息,使得大模型生成内容类似于“茧房”,将个体对事物的认知桎梏于有限信息之中。I另一方面,大模型训练数据存在的固有偏见和歧视问题。这是由于大模型对数据高度依赖,所以生成结果会体现出数据源的偏向性。如GPT-3显示出了基于宗教信仰的偏见和性别歧视,大语言模型GOP
17、her存在职业与性别之间的刻板印象联想,图像生成模型Dalle-2则表现出显著的性别和种族歧视。二是技术滥用侵犯人格尊严并阻碍个人发展。一方面,大模型的恶意利用侵犯人格尊严。当前已有大量案例表明,大模型被用于生成虚假的有损公民人格尊严的视频、音频、图像等,进而被恶意应用于网络欺凌、辱骂、造谣等场景下,给当事人带来极大的精神及财产损害。例如,乔治华盛顿大学法学院教授JonathanTurley发现,ChatGPT生成内容显示他在阿拉斯加课程旅行中对学生进行了性骚扰。然而,TUrIey教授并未带领学生去阿拉斯加或任何其他地方进行课程旅行,也未曾受到过性骚扰学生的指控。另一方面,大模型的过度依赖阻碍
18、个人发展。当前越来越多个体频繁应用大模型服务完成工作学习任务,例如用ChatGPT写论文、写判决书的案例屡见不鲜,且个人对大模型的依赖表现出应用日益广泛、程度日益加深的特征,恐导致个人学习能力以及认知水平可能大幅退化,影响人与社会的长期发展潜力。美国智库布鲁金斯学会刊文指出,ChatGPT将可能导致人类记忆和批判能力的下降。三是情感计算造成潜在伦理风险并扰乱人际关系。情感计算是模拟某个角色并设定其情绪或心理状态的新型人工智能应用,其发展与普及可能给个人行为、社会关系、伦理道德等诸多领域带来巨大的冲击。一方面,情感计算可能瓦解传统人际关系。以近期众多人工智能企业推出的AI伴侣为例,该类应用可能导
19、致个人不愿花时间精力与真正的人类进行情感交流,从而导致传统的人际关系与婚姻家庭结构遭到重创,甚至颠覆过往的伦理道德观念。另一方面,情感计算可能不正当地引导个人情绪、行为乃至价值观。人工智能产品可能会有偏见或有目的性地引导某些个体,尤其当人类习惯于长期与机器人交互时,人获取的信息会很自然地被机器所引导,进而影响个人的价值观,或是控制个人的情绪与行为。3.大模型在企业维度引发的风险挑战一是用户过度授权、违规信息使用以及黑客攻击,引发用户隐私与商业秘密的泄露风险。在用户个人隐私方面面临侵权诉讼,当前,大模型的用户使用条款普遍给予企业超出必要限度的个人信息使用权,加大了用户个人信息泄漏的风险,从而担负
20、极大的违规风险。以ChatGPT为例,其使用条款明确规定,除非用户要求OPenAl不对其输入和输出内容进行使用,否则OPenAl拥有对任何用户输入和输出内容的广泛使用权,以达成优化训练ChatGPT的目的。在企业商业秘密方面,企业员工很有可能故意或过失地违反公司保密制度,将公司的营业信息、技术信息、平台底层代码、近期营销计划、公司薪酬体系等信息泄露,黑客也可能利用系统漏洞发起攻击获取海量涉密信息,从而导致企业商业秘密泄露风险。二是内容生成依托海量文本与图像数据,引发版权侵权风险。一方面,大模型生成内容由于缺乏规范的许可使用机制具有侵权风险。由于大模型根据概率推理的生成机制,其使用作品难以逐个、
21、准确地援引法定许可或合理使用条款,这使得大模型未经许可使用作品的行为可能会侵犯被使用作品的复制、改编、信息网缔专播权等权利。例如2023年1月,全球知名图片提供商华盖创意(GettyImages)起诉热门人工智能绘画工具StableDiffusion的开发者StabilityAI,称其未经许可从网站上窃取了数百万张图片。再如,用于谷歌T5和META的LLaMA等大模型训练的C4数据集,虽然源自公开网站,但也包括至少27个被美国政府认定为盗版和假冒产品市场的网站。另一方面大模型生成内容存在与既有作品实质性相似的潜在侵权风险。如果大模型通过分析学习后生成的内容与原始作品过于相似,以至于可能会误导公
22、众或混淆原始作品的来源,其可能会因与他人作品存在实质性相似”而被认定为侵权,从而导致著作权侵权相关的诉讼,而含有侵权内容的大模型生成内容的使用者亦有可能需要承担侵权责任。2三是应用形态颠覆现有数据收集模式,引发数据安全风险。大模型生成工具的运作机制导致企业纬度的违规数据传输与敏感信息泄露频发。以ChatGPT为例,根据其运作原理,用户在输入端提出的问题首先会传输到位于美国的OPenAl公司,随后ChatGPT才会给出相应回答,因此存在数据泄露风险。如韩媒报道,三星半导体事业部向员工开放使用ChatGPT后短短20天内即发生多起数据违规输入事件。又如数据安全公司Cyberhaven调研显示,不同
23、行业客户的160万名员工平均每周向ChatGPT泄露敏感数据达数百次。4.大模型在社会维度引发的风险挑战一是冲击就业市场,提升劳动力转型下的社会不安定性。虽然大模型带来的岗位智能化升级将提升社会生产效率、创造新兴岗位,但也会导致特定领域或人群的失业危机。大模型对初等和中等技能白领岗位需求的冲击较大,从事重复性、机械性等工作的劳动者将极易被大模型工具替代。据高盛研究报告分析,以美国为例,46%的行政工作和44%的法律工作将受到较高程度的影响。在此趋势下,相当数量的劳动者需在短期内进行与社会新需求相匹配的职业转换,这对他们的经济收入、社会地位、身心健康都可能产生较大影响,如果大规模劳动力转型不当甚
24、至有可能引发社会动荡等风险。二是扩大数字鸿沟,加剧社会分化和不平等。大模型的拥有程度、应用程度以及创新能力的差别将引发信息落差,进而造成新一轮数字鸿沟,甚至加剧社会分化和不平等。从国家与地区层面来看,在大模型加速迭代的进程中,仅有少数发达国家能够能够凭借庞大的数据、算力等资源进一步掌控生产力资源,这将进一步扩大发达国家与发展中国家的差距。例如,美国的GpT-4总共包含了1.8万亿参数,一次的训练成本为6300万美元,非百亿美金公司很难持续跟进。从组织和个人层面来看,大模型服务对于不同群体的可得性是不同的。部分地区或群体可能由于无法获得高质量的互联网连接、教育水平与专业背景不足等原因,无法有效且
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2023 模型 治理 报告
链接地址:https://www.31ppt.com/p-6670677.html