欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > DOCX文档下载  

    欧盟人工智能责任指令(译文).docx

    • 资源ID:7010621       资源大小:33.13KB        全文页数:10页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    欧盟人工智能责任指令(译文).docx

    欧盟人工智能责任指令(译文)欧洲议会和欧盟委员会关于使非合同性民事责任规则适应人工智能的指令(人工智能责任指令)的提案翻译:周辉,中国社会科学院法学研究所副研究员;朱凌云,中国社会科学院大学法学院2022级法学硕士研究生;刘致远,中国社会科学院大学法学院2020级本科生。欧洲议会和欧盟理事会,考虑到欧盟运作条约,特别是其第114条,考虑到欧盟委员会的提议,在向各国议会转递立法草案后,考虑到欧洲经济和社会委员会的意见,考虑到地区委员会的意见,按照普通立法程序,鉴于:(1)人工智能(Al)是一套赋能技术,可以为经济和社会的各个领域带来广泛的利益。它具有巨大的技术进步潜力,助力数字经济的诸多部门建立新的商业模式。(2)同时,根据其具体应用和使用的情况,人工智能可以产生风险并损害受欧盟或成员国法律保护的利益和权利。例如,人工智能的使用会对一些基本权利产生不利影响,包括生命、人身安全以及不受歧视和平等待遇等方面的权利。欧洲议会和理事会的(EU)/条例人工智能法案规定了旨在减少安全和基本权利的风险的要求,而其他欧盟法律规定了通用和适用于人工智能的机械产品、无线电设备等行业的产品安全规则。尽管这些旨在减少对安全和基本权利的风险的要求是为了预防、监测和解决风险,从而解决社会关切,但它们并没有为那些遭受人工智能损害的人提供个人救济。现有的要求特别规定了与人工智能系统有关的授权、检查、监测和行政制裁以防止侵害,但它们没有规定对受伤害者因人工智能系统的输出或未能产生输出而造成的损害进行赔偿。(3)当受伤害者为所遭受的损害寻求赔偿时,成员国基于过错的一般责任规则,通常要求当事人证明可能对该损害负有责任的人的过失或故意的损害作为或不作为(“过错”),以及该过错与相关损害之间的因果关系。然而,当主体的作为或不作为与损害之间涉及人工智能时,某些人工智能系统的具体特征,如不透明、自主行为和复杂性,可能会使受伤害者难以甚至不能满足这一举证责任要求。特别是,如果要求证明潜在责任人所负责的特定输入导致了特定的人工智能系统输出,从而导致了相关的损害,这会更加困难。(4)在这种情况下,成员国民事责任规则所提供的赔偿水平可能低于对非人工智能技术造成损害的赔偿。这种赔偿的差距可能会降低社会对人工智能的接受程度以及对人工智能产品和服务的信任程度。(5)为了获得人工智能的经济和社会效益,并促进向数字经济的过渡,有必要以有针对性地调整成员国某些民事责任规则,使其适应某些人工智能系统的特定特征。这种调整应有助于提高社会和消费者的信任,从而促进人工智能的推广。这种调整也应保持对司法系统的信任,确保在人工智能参与下造成的损害的受害者获得与其他技术造成的损害的受害者同样有效的赔偿。(6)利益相关者-遭受损害的受害者、潜在的责任人、保险公司-面临着法律上的不确定性,即成员国国家法院在面对人工智能的具体挑战时,如何在个别案件中适用现有的责任规则,以实现公正的结果。在欧盟没有采取行动的情况下,至少有一些成员国可能会调整其民事责任规则,以解决与某些人工智能系统的具体特征有关的赔偿差距和法律不确定性。这将为开发或提供创新型人工智能产品或服务的企业造成法律上的分裂和内部市场障碍,中小型企业也将受到特别严重的影响。(7)本指令的目的是通过协调成员国的某些非合同性过失责任规则,来促进内部市场的正常运作,以确保因人工智能系统对其造成的损害而要求赔偿的人,享有等同于在没有人工智能系统参与的情况下而要求损害赔偿的保护水平。因为相关的内部市场障碍与国家层面单边且零散的监管措施的风险存在关联,成员国无法充分实现这一目标。鉴于属于本指令范围内的产品和服务的数字性质,后者在跨境背景下尤为重要。(8)因此,在涉及人工智能系统的情况下,为了确保法律的确定性和防止赔偿差距的目标可以在欧盟一级更好地实现,欧盟可以根据欧盟条约第5条规定的辅助性原则采取措施。根据该条规定的比例原则,本指令没有超出为实现该目标所必需的范围。(9)因此,有必要以有针对性的方式在欧盟层面上协调基于过失的责任规则的具体方面。这种协调应增加法律的确定性,为人工智能系统创造一个公平的竞争环境,从而改善内部市场在生产和推广人工智能产品和服务方面的运作。(10)为了确保比例原则,只以有针对性的方式协调那些基于过错的赔偿责任规则,这些规则规定了对人工智能系统造成的损害提出赔偿要求的人的举证责任。本指令不应协调各成员国民事责任规则,以不同方式规定的民事责任的一般方面,如过错或因果关系的定义、引起损害赔偿要求的不同类型、对多个侵权行为人的责任分配、共同行为、损害赔偿或时效期限的计算。(11)成员国关于生产者对其产品缺陷造成的损害的责任的法律,已经在欧盟层面上由理事会第85/374/EEC号指令加以统一。然而,这些法律并不影响成员国基于产品缺陷以外的其他理由,所制定的合同或非合同责任的规则,如保证、过失或无过错责任。同时,理事会第85/374/EEC号指令的修订,旨在澄清并确保受伤害的人,可以对有缺陷的人工智能产品造成的损害提出赔偿要求。因此,应该澄清的是,本指令的规定,并不影响受害者根据成员国执行第85/374/EEC号指令制定的规则,所拥有的任何权利。此外,在运输领域,规范运输提供者责任的欧盟法律应不受本指令的影响。(12)数字服务法(DSA)完全协调了适用于内部市场中介服务提供者的规则,涵盖了这些提供者提供的服务所产生的社会风险,包括他们使用的人工智能系统。本指令不影响数字服务法(DSA)的规定,该规定为托管服务提供商的算法决策提供了一个全面和完全统一的尽职调查义务框架,包括在满足该条例的条件下,免除由其服务对象上传的非法内容传播的责任。(13)除其规定的假设之外,本指令并没有统一成员国法律,关于哪一方负有举证责任或举证标准需要何种程度的确定性的规定。(14)本指令应遵循最低限度的协调方法。这种方法允许人工智能系统造成的损害案件中的索赔者,援引成员国法律中更有利的规则。因此,成员国法律可以维持国家基于过错或无过错责任(又称“严格责任”)制度下的举证责任倒置,这些制度在成员国法律中已经有很多种类,可能适用于人工智能系统造成的损害。(15)还应确保与人工智能法案(theAIAct)保持一致。因此,本指令适用于人工智能系统、提供者和用户的相同定义。此外,本指令应仅涵盖由人工智能系统的输出或因某人的过失,未能产生输出而导致的损害赔偿,例如根据人工智能法案的提供者或用户。当损害是由人工评估后某个人的作为或不作为造成的,而人工智能系统只提供了被相关行为人所考虑的信息或建议时,就无需承担责任索赔。在后一种情况下,有可能追溯到人的作为或不作为造成的损害。因为人工智能系统的输出没有介入人的作为或不作为与损害之间,所以,确定因果关系并没有比不涉及人工智能系统时更困难。(16)获得涉嫌造成损害的特定高风险人工智能系统的信息,是确定是否要求赔偿和证实赔偿要求的一个重要因素。此外,对于高风险人工智能系统,人工智能法案规定了具体的文件、信息和记录要求,但没有规定受伤害者有权获得这些信息。因此,为确定赔偿责任,应当规定有关人员披露相关证据的规则。这也应该为遵守人工智能法案中规定的相关要求提供额外的激励,以记录或保存相关信息。(17)通常参与设计、开发、部署和操作高风险人工智能系统的人数众多,这使得受伤害者难以确定对所造成的损害可能负有责任的人,也难以证明损害索赔的条件。为了让受伤害的人确定损害赔偿要求是否有充分的理由,应给予潜在的索赔人一项权利,在提交损害赔偿要求之前请求法院命令披露相关证据。只有在潜在索赔人提出了足以支持损害赔偿要求合理性的事实和信息,并且事先向提供者、受提供者义务约束的人或用户提出请求,要求披露他们所掌握的关于涉嫌造成损害的特定高风险人工智能系统的证据,但遭到拒绝时,才应下令披露。命令披露应减少不必要的诉讼,避免因索赔不合理或可能不成功而给诉讼当事人造成的费用C在向法院提出披露证据的请求之前,提供者、承担提供者义务的人或用户拒绝披露证据,不应推定拒绝披露证据的人不遵守相关注意义务。(18)对于高风险人工智能系统的证据披露的限制与人工智能法案是一致的,该法为参与设计、开发和部署高风险人工智能系统的操作者规定了某些具体的归档、记录保存及其他信息义务。这种一致性也确保了必要的比例原则,避免了低风险或无风险的人工智能系统的操作者被期望将信息记录达到与人工智能法案规定的高风险人工智能系统相似的水平。(19)在民事诉讼过程中,国家法院应该能够命令披露或保全与高风险人工智能系统造成的损害有关的证据,这些证据来自已经根据人工智能法案有义务记载或记录信息的人,无论是提供者、与提供者有相同义务的人,还是人工智能系统的用户,都可以作为被告或索赔的第三方。可能会出现这样的情况:与案件有关的证据并非由损害赔偿要求当事方的实体持有,但它们有义务根据人工智能法案记载或记录此类证据。因此,有必要规定在什么条件下可以命令这些索赔的第三方披露相关的证据C(20)为了保持损害赔偿要求所涉当事方和有关第三方的利益之间的平衡,法院只有在证据披露对于支持损害赔偿要求或潜在损害赔偿要求是必要和相称的情况下,才应下令命令披露证据。在这方面,披露应该只涉及就有关损害赔偿要求作出决定所必需的证据。例如,只涉及证明不遵守人工智能法案规定的要求所需的相关记录或数据集的部分。为了确保这种披露或保全措施的相称性,成员国法院应该有有效的手段来保障所有相关方的合法利益,例如,保护欧洲议会和理事会(EU)2016/943号指令意义上的商业秘密以及机密信息,如与公共或国家安全有关的信息。对于法院认定为(EU)201633号指令意义上的商业秘密或被指控的商业秘密,成员国法院应被授权采取具体措施,以确保在诉讼期间和之后保守商业秘密,同时在商业秘密持有人的保密利益与商业秘密持有人的利益之间实现公平和相称的平衡°这应包括采取措施,限制对含有商业秘密的文件的接触,以及限制对听证会或文件及其记录的接触,使之只限于少数人。在决定此类措施时,成员国法院应考虑到需要确保获得有效补救和公平审判的权利、当事人的合法利益并酌情考虑第三方的合法利益,以及因批准或拒绝此类措施而对任何一方或在可能情况下对第三方造成的任何潜在损害°此外,为确保在损害赔偿要求中对第三方适度适用披露措施,成员国法院应仅在无法从被告处获得证据的情况下命令第三方披露C(21)虽然成员国法院有办法通过各种措施执行其披露命令,但任何此类执行措施都可能拖延损害赔偿要求,从而有可能给诉讼当事人带来额外的费用。对于受伤害的人来说,这种拖延和额外的费用可能会使他们更难以诉诸有效的司法补救措施。因此,如果损害赔偿要求中的被告未能根据法院命令披露其掌握的证据,那么就应该推定其没有履行该证据所要证明的那些注意义务。这种可反驳的推定将减少诉讼的时间,并促进更有效的法庭程序。被告应该能够通过提交相反的证据来反驳这一推定。(22)为了解决难以证明潜在责任人负责的特定输入导致了特定的人工智能系统输出,从而导致相关损害的问题,适当的做法是:在某些条件下规定因果关系的推定。虽然在基于过错的索赔中,索赔人通常必须证明损害、构成被告过错的行为人作为或不作为以及两者之间的因果关系,但本指令并不协调各成员国法院确定过错的条件。它们仍然受适用的成员国法律的制约,并在协调一致的情况下,受适用的欧盟法律的制约。同样,本指令也没有协调与损害有关的条件,例如,哪些损害应予赔偿,这也是由适用的成员国法律和欧盟法律规定的。为了适用本指令下的因果关系推定,被告的过错应被确定为:人的作为或不作为没有符合欧盟法律或成员国法律规定的、旨在用于防止所发生的损害的注意义务。因此,这一推定可以适用于,例如在法院确定被告不履行旨在防止对自然人造成伤害的使用说明的过错时,对人身伤害的损害索赔。不遵守并非直接用于保护所发生的损害而设的注意义务,并不会导致适用该推定。例如,供应商未能向主管当局提交所需文件,不会导致在身体伤害索赔中适用该推定。还应当有必要确定:根据案件的具体情况,可以合理地认为,故障影响了人工智能系统产生的输出或人工智能系统未能产生输出。最后,仍应要求索赔人证明该输出或未能产生输出引起了损害。(23)如果不遵守欧盟规则,例如人工智能法案对某些高风险人工智能系统的要求、未来的行业立法可能根据人工智能法案第2(2)条对其他高风险人工智能系统提出的要求、或与某些活动有关联,并且不论人工智能是否用于该活动都适用的注意义务,就可以认定其过错。同时,本指令既没有规定也没有协调其活动受这些法律规定的实体的要求或赔偿责任,因此没有创建新的赔偿责任要求。违反此类要求是否构成过错,需要根据欧盟法的相关可适用规则来认定。因为本指令既没有引入新的要求,也没有影响现有的要求。例如,对中介服务提供者的责任豁免以及他们根据数字服务法所承担的尽职调查义务不受本指令影响。同样,数字单一市场版权及相关权利指令(欧盟)2019790和其他相关的欧盟版权法规定,在线平台必须遵守有关规定,以避免未经授权向公众传播受版权保护的作品(24)在欧盟法律未予协调的领域,成员国法律继续适用。过错根据适用的成员国法律确定。所有成员国的赔偿责任制度都规定了注意义务,将一个理性人应如何行事的原则的不同表现形式作为行为标准。这也确保了人工智能系统的安全运行,以防止对公认的法律利益的损害。例如,这种注意义务可以要求人工智能系统的用户为某些任务选择具有具体特征的特定人工智能系统,或排除某些人群接触特定人工智能系统。成员国法律也可以引入旨在预防某些活动风险的具体义务,无论是否将人工智能用于该活动,这些义务都是适用的,例如交通规则或专门为人工智能系统设计的义务,例如根据人工智能法案第29条第2款对高风险人工智能系统用户的国家额外要求。本指令既没有引入此类要求,也不影响在违反此类要求的情况下确定过错的条件。(25)即使认定了由于不遵守直接旨在防止发生损害的注意义务而构成的过错,也不意味着,每一个过错,都应导致适用将其与人工智能的输出关联起来的可反驳的推定。只有当从损害发生的情况来看,可以认为这种过错,有合理的可能性,影响了人工智能系统产生的输出或人工智能系统未能产生导致损害的输出时,才应适用这种推断。例如,当该过错包括违反了限制人工智能系统运行范围的注意义务,而损害发生在运行范围之外时,可以认为该过错有合理的可能性影响了输出或未能产生输出。相反,违反提交某些文件或向特定机构登记的要求,即使这可能是为该特定活动所预见的,甚至是明确适用于人工智能系统的运作,也不能被视为合理地可能影响了人工智能系统产生的输出或人工智能系统未能产生输出。(26)本指令涵盖了构成不遵守人工智能法案第2章和第3章对高风险人工智能系统的提供者和用户规定的某些列出的要求的过错。不遵守这些要求在某些条件下可以导致因果关系推定。人工智能法案规定了对人工智能系统的全面统一要求,除非其中另有明确规定。它协调了对高风险人工智能系统的具体要求。因此,就根据本指令适用因果关系推定的损害赔偿要求而言,只有在不遵守此类要求的情况下,才能确定提供者或根据人工智能法案承担提供者义务的人的潜在过错。鉴于在实践中,当被告是人工智能系统的提供者时,原告可能很难证明这种不遵守情况。为了与人工智能法案的逻辑完全一致,本指令还应规定,在确定提供者是否遵守了本指令中提到的人工智能法案的相关要求时,应考虑提供者在风险管理系统中采取的步骤和风险管理系统的结果,即决定采取或不采取某些风险管理措施。提供者根据人工智能法案建立的风险管理系统是一个持续迭代的过程,贯穿于高风险人工智能系统的整个生命周期,提供者据此确保遵守旨在减少风险的强制性要求,因此可以作为评估其合规性的有用因素。本指令还涵盖了用户过失的情况,这种过失包括不遵守规定的某些具体要求。此外,根据人工智能法案第29条第2款,高风险人工智能系统的用户的过错,在不遵守欧盟或成员国法律规定的其他注意义务后,也可以证成。(27)虽然人工智能系统的某些具体特点,如自主性和不透明性,可能会使申诉人在履行举证责任方面过于困难。但在有些情况下,这种困难并不存在,因为申诉人可能有足够的证据和专业知识来证明因果关系。例如,在高风险的人工智能系统中,申诉人可以通过根据人工智能法案的文件和记录要求合理地获得足够的证据和专业知识。在这种情况下,法院不应适用该推定。(28)因果关系的推定也可以适用于不属于高风险人工智能系统的人工智能系统。因为对索赔人来说,可能存在过多的举证困难。例如,这种困难可以根据某些人工智能系统的特点来评估,如自主性和不透明性,这使得解释实践中的人工智能系统内部运算非常困难,对索赔人证明人工智能输出和被告的过错之间的因果关系的能力产生负面影响。如果原告在证明因果关系方面处于过于困难的地位,成员国法院应适用该推定。因为它需要解释人工智能系统是如何被构成过错的人的作为或不作为引导,从而产生输出或未能产生输出,继而造成损害。但是,既不应该要求索赔人解释有关人工智能系统的特点,也不应该让这些特点使因果关系变得更难确定。(29)适用因果关系推定,是为了确保受伤害的人得到类似于不涉及人工智能的情况的保护,可能更容易证明因果关系。然而,根据本指令,如果被告不是专业用户,而是为其私人活动而使用人工智能系统的某个人,减轻原告证明因果关系的责任并不总是合适。在这种情况下,为了平衡受伤害者和非专业用户之间的利益,需要考虑到这些非专业用户是否会通过他们的行为增加人工智能系统造成损害的风险。如果人工智能系统的提供者遵守了其所有的义务,该系统因此被认为是足够安全的而进入市场以满足非专业用户的特定需求,然后它也被用于该功能,那么,因果关系的推定,不应该适用于这些非专业用户对该系统的简单启动操作。非专业用户购买了一个人工智能系统,并根据其功能简单地启动了该系统,而没有对操作条件进行实质性的干预,不应该被本指令所规定的因果关系推定所涵盖。然而,如果成员国法院认定,非专业用户实质性地干预了人工智能系统的操作条件,或者被要求并且能够确定人工智能系统的操作条件,但没有这样做,那么在满足所有其他条件的情况下,应适用因果关系推定。例如,当非专业用户在选择操作区域或设定人工智能系统的性能条件时,没有遵守使用说明或其他适用的注意义务时,就可能出现这种情况。这并不影响提供者应确定人工智能系统的预期用途,包括具体的使用环境和条件,并在同时考虑到预期用户的知识和专长、在设计和开发时酌情消除或尽量减少该系统的风险。(30)由于本指令引入了可反驳的推定,被告应该能够反驳它,特别是通过证明其过失不可能造成损害。(31)有必要规定在适用期(五年)结束后对本指令进行审查。特别应审查是否有必要为针对提供者的索赔建立无过错责任规则,只要尚未被其他欧盟责任规则,特别是第85/374/EEC号指令所涵盖,且尚未与欧洲议会建议的某些人工智能系统操作的强制保险相结合。从比例原则出发,根据未来几年的相关技术和监管发展,考虑到对人工智能系统的推广和应用的效果和影响,特别是对中小企业的影响,评估这种需求是适当的。这种审查除此之外还应考虑,通过人工智能产品或服务而对不知情的第三方的生命、健康和财产等重要法律价值造成损害的风险。该审查还应该分析本指令中规定的措施在处理此类风险方面的有效性,并分析保险市场制定适当解决方案的情况。为了确保有必要的信息来进行这样的审查,有必要收集涵盖相关事项的数据和其他必要的证据。(32)鉴于有必要对成员国民事责任和程序规则进行调整,以促进在有利的内部市场条件、社会接受度和消费者对人工智能技术和司法系统的信任度下推出人工智能产品和服务,为成员国采取必要的转化措施,设定一个不晚于本指令生效后两年的期限是合适的。(33)根据2011年9月28日成员国的联合政治宣言和欧盟委员会的解释性文件,成员国承诺在合理的情况下,在通知其转化措施时附上一份或多份文件,解释指令的各组成部分与国家转换文书的相应部分之间的关系。就本指令而言,立法者认为转化此类文件是合理的。已通过本指令第1条主题和范围1 .本指令规定了关于以下方面的共同规则:(a)披露关于高风险人工智能(AI)系统的证据,以使索赔人能够证实基于非合同过失的民法损害赔偿要求。(b)针对人工智能系统造成的损害向成员国法院提出基于非合同过失的民法索赔案件中的举证责任。2 .在人工智能系统造成的损害发生在转换期结束之后的情况下,本指令适用于非合同性过失的民法损害赔偿要求。本指令不适用于刑事责任。3 .本指令不应影响:(a)规范运输领域的责任条件的欧盟法律规则;(b)受害人根据执行第85/374/EEC号指令的国家规则可能拥有的任何权利;(C)数字服务法中规定的免责条款和尽职调查的义务;(d)确定哪一方负有举证责任,在举证标准方面需要有何种程度的确定性或如何界定过失的国家规则,但第3条和第4条所规定的除外。4 .成员国可以通过或维持更有利于索赔者就人工智能系统造成的损害提出非合同民法索赔的国家规则,条件是这些规则必须与欧盟法律相一致。第2条定义出于本指令的目的,应适用以下定义:(1) “人工智能系统”是指人工智能法案第3(1)条中定义的人工智能系统;(2) “高风险人工智能系统”指人工智能法案第6条中提到的人工智能系统;(3) “提供者”是指人工智能法案第3(2)条中定义的提供者;(4) “用户”是指人工智能法案第3(4)条中定义的用户;(5) “损害赔偿要求”是指基于非合同过失的民事法律索赔,要求赔偿因人工智能系统的输出或该系统未能产生本应产生的输出所造成的损害;(6) “索赔人”指提出损害赔偿要求的人,该人(a)因人工智能系统的输出或因该系统未能产生本应产生的输出而受到伤害;(b)根据法律或合同,已继承或已代位继承受伤害者的权利;(C)根据欧盟或成员国法律,代表一个或多个受伤害者行事。(7) “潜在索赔人”是指正在考虑但尚未提出赔偿要求的自然人或法人;(8) “被告”是指被提起损害赔偿要求的人;(9) “注意义务”是指成员国或欧盟法律规定的必要行为标准,以避免损害成员国或欧盟法律层面承认的法律利益,包括生命、身体完整、财产和基本权利的保护。第3条证据的披露和可反驳的不合规推定1 .无论是在潜在索赔人先前已提出要求但遭到拒绝,或是索赔人命令该人士披露此类证据的情况下,成员国应确保成员国法院有权命令提供者、承担提供者义务的人(根据人工智能法案第24条或第28(1)条)或用户,披露其掌握的关于涉嫌造成损害的特定高风险人工智能系统的相关证据C为了支持这一请求,潜在的索赔人必须提出足以支持损害赔偿要求合理性的事实和证据。2 .在提出损害赔偿要求的情况下,只有在原告已经为从被告那里收集相关证据做出了一切适当的努力后,成员国法院才应命令披露第1款所列人员之一的证据。3 .成员国应确保成员国法院有权根据原告的请求,下令采取具体措施保全第1款中提到的证据。4 .成员国法院应将证据的披露,限制在为支持潜在的索赔要求或损害赔偿要求所必要和相称的范围内,将保全限制在为支持这种损害赔偿要求所必要和相称的范围内。在确定披露或保全证据的命令是否相称时,成员国法院应考虑所有各方的合法利益,包括有关的第三方,特别是在保护2016/943(EU)指令第2(1)条意义上的商业秘密以及机密信息(例如与公共或国家安全有关的信息)方面。成员国应确保,在下令披露法院认定为2016/943(EU)指令第9(1)条意义上的商业秘密或所谓的商业秘密时,成员国法院有权在一方提出适当理由的要求下或主动采取具体措施,以便在法律程序中使用或提及该证据时保持机密性。成员国还应确保被命令披露或保存第1款或第2款所述证据的人,对此类命令拥有适当的程序性补救措施。5 .如果被告没有遵守成员国法院在损害赔偿要求中发出的根据第1款或第2款披露或保存其掌握的证据的命令,成员国法院应推定被告没有遵守相关的注意义务,特别是在第4(2)或(3)条所述的情况下,所要求的证据应是为了证明相关损害赔偿要求的目的。被告应有权反驳该推定。第4条在有过错的情况下,可反驳的因果关系推定1 .在符合本条规定的要求的情况下,成员国法院在对损害赔偿要求适用责任规则时,应推定被告的过错与人工智能系统产生的输出或人工智能系统未能产生输出之间存在因果关系,前提是满足所有下列条件。(a)原告已证明或法院已根据第3(5)条推定被告或被告对其行为负责的人的过错,包括不遵守欧盟或成员国法律中规定的直接旨在防止发生损害的注意义务。(b)根据案件的情况,可以合理地认为该过错影响了人工智能系统产生的输出或人工智能系统未能产生输出。(C)索赔人已经证明,人工智能系统产生的输出或人工智能系统未能产生的输出导致了损害的发生。2 .在对高风险人工智能系统提供者(根据人工智能法案第三篇第二章和第三章规定)或受提供者义务约束的人(根据人工智能法案第24条或第28(1)条规定)提出损害赔偿要求的情况下,同时考虑人工智能法案第9条和第16条(a)项在风险管理系统中采取的步骤和结果,本条第一款(a)项的成立,需要原告证明该提供者或受提供者义务约束的人未能遵守有关章节中的以下任一条件:(a)人工智能系统是一个利用涉及用数据训练模型的技术的系统,该系统不是在符合人工智能法案第10(2)至(4)条所指质量标准的训练、验证和测试数据集的基础上开发的;(b)人工智能系统的设计和开发方式不符合人工智能法案第13条中规定的透明度要求;(C)人工智能系统的设计和开发方式不允许自然人在人工智能系统使用期间根据人工智能法案第14条进行有效监督;(d)人工智能系统的设计和开发,未能根据人工智能法案第15条和第16条(a)项的规定,根据预期目的达到适当的准确性、稳健性和网络安全水平;(e)没有立即采取必要的纠正行动,使人工智能系统符合人工智能法案第三篇第二章规定的义务,或根据人工智能法案第16条(g)项和第21条酌情撤销或召回该系统。3 .在对高风险人工智能系统的用户(根据人工智能法案第三篇第二章和第三章的规定)提出损害索赔的情况下,本条第一款(a)项的成立,需要索赔人证明该用户满足以下条件:(a)未按照随附的使用说明履行其使用或监控人工智能系统的义务,或在适当情况下根据人工智能法案第29条暂停或中断其使用;(b)根据人工智能法案第29条第3款,人工智能系统输入受其控制的数据,而这些数据与系统的预期目的无关。4 .在涉及高风险人工智能系统的损害索赔案件中,如果被告证明索赔人可以合理地获得足够的证据和专业知识来证明在第1款中提及的因果关系,则成员国法院不应适用第1款规定的推定。5 .对于非高风险人工智能系统的损害赔偿请求,只有在成员国法院认为索赔人难以证明在第1款中所指的因果关系的情况下,才适用第1款规定的推定。6 .在个人的非专业活动过程中使用人工智能系统的被告提出损害赔偿请求时,第1款规定的推定仅适用于被告严重干扰人工智能系统运行的相关条件,或者被告必须且能够确定人工智能系统的运行条件但未能这样做的情况。7 .被告有权反驳第一款的推定。第5条评估和针对性审查1.到转化期结束后五年之时,欧盟委员会应审查本指令的适用情况,并向欧洲议会、理事会和欧洲经济社会委员会提交一份报告,并酌情附上立法提案。2 .报告应当审查第三条和第四条对实现本指令所追求的目标的影响。特别是,只要其他欧盟责任规则尚未涵盖,它应该评估针对某些人工智能系统运营商的索赔的无过错责任规则的适当性,以及保险范围的必要性,同时考虑到对人工智能系统的推广和采用的影响,特别是对中小企业的影响。3 .委员会应制定一项监测方案,以便根据第一款和第二款编写报告,规定收集数据和其他必要证据的方式和时间。该方案应具体规定委员会和成员国在收集和分析数据和其他证据方面应采取的行动。为实现该方案之目的,成员国在转换期结束后第二个整年的12月31日和随后每年年底之前,将有关数据和证据送交委员会。第6条指令(EU)2020/1828修正案在指令(EU)2020/1828的附件一中,添加了以下一点(67):(67)指令(欧盟)欧洲议会和理事会关于将非合同民事责任规则适应人工智能(人工智能责任指令)(QJLp.)o第7条转化1.成员国应至迟在性效后两年M吏遵守本指令所必需的法律、法规和行政规定生效。它们应立即将这些规定的案文通报委员会。当成员国通过这些条款时,它们应包含对本指令的提及,或在正式发布时附有此类提及。成员国应决定如何提及此种内容。2.成员国应向委员会通报它们在本指令所涉领域通过的国内法主要条款的文本。第8条生效本指令自在欧洲联盟公报上公布后的第二十天起生效。第9条接收者本指令针对成员国。在布鲁塞尔完成。

    注意事项

    本文(欧盟人工智能责任指令(译文).docx)为本站会员(李司机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开