欧盟AI法案完全指南

欧盟AI法案完全指南

19 分钟阅读

欧盟人工智能法案介绍

理解世界上第一部综合性人工智能法律

欧洲联盟通过其开创性的《人工智能法案》站在了规范人工智能(AI)的前沿。这项立法代表了一个重要的里程碑,旨在在成员国之间协调AI规则,同时确保AI的发展以人为本,值得信赖,并符合基本权利和安全。

欧盟AI法案的目标

在其核心,AI法案旨在建立一个平衡的框架,促进创新和技术进步,同时不损害伦理标准和个人保护。它为高风险的AI应用引入了具体的规定,要求透明度,并制定了监管结构,以监督欧盟内部的AI部署。

欧盟的数字战略和人工智能

规范人工智能的好处:从医疗保健到能源

该法规强调了受控制的AI发展可能带来的横跨医疗保健、交通运输和能源等领域的诸多好处。通过制定明确的指导方针,欧盟旨在利用AI造福社会,提高效率、安全性和可持续性。

规范之路:欧洲委员会的提案

由欧洲委员会发起的AI法案是数字战略的一部分,旨在将欧盟定位为数字时代的全球领导者。该提案提出了一种基于风险的AI治理方法,确保系统在严格的伦理和安全标准下开发和部署。

欧洲议会对AI立法的要求

确保安全、透明和环保友好

欧洲议会主张优先考虑安全、透明和环保可持续性的AI系统。该立法强调了AI必须可理解,并在人类监督下运行的需要,确保技术为公众利益服务,而不产生负面影响。

对AI统一定义的呼吁

AI法案的一个关键方面是试图建立一个统一的、技术中立的AI定义。这旨在确保法规保持与未来技术进步的相关性和适应性,为AI治理提供坚实的基础。

AI法案:分类风险和制定规则

应对不同风险水平:从不可接受到最低风险

AI法案引入了一个新颖的AI应用分类系统,根据其造成的风险程度对其进行分类。这个框架旨在对不同风险水平的AI系统进行相应的监管审查,从最低到高风险的AI系统,确保高风险应用经过严格的评估。以下是各风险水平的摘要、其监管要求和分类标准以及例子:

  • 不可接受风险 – 完全范围禁止 – 第5条
    • 最高级别,对基本权利明确侵犯的系统。例如,执法机构的实时监控,社会评分
  • 高风险 – 全面监管 – 第6条
    • 在失败或滥用的情况下可能造成重大危害(健康、安全、基本权利)的系统
    • 例如,招聘/人力资源或执法中的AI
  • 有限风险–透明度义务–第52条
    • 在非关键领域中存在操纵或欺骗风险的系统
    • 例如,客户服务中的聊天机器人,情绪识别系统
    • 用户必须了解与AI的任何交互
  • 最低风险 – 行为准则 – 第69条
    • 低或较低风险导致潜在危害的系统
    • 例如,垃圾邮件过滤器、内容排名
    • 不对部署增加额外限制

欧盟AI法案:基于风险的系统分类

特定禁止:不可接受风险的AI系统

该法规确定了某些AI实践为不可接受的风险,因此予以禁止。这些包括在公共场所进行实时生物识别识别和利用个体脆弱性的操纵性AI,反映了欧盟保护公民权利和安全的承诺。简而言之,以下实践被禁止:

  • 下意识技术:上市、投入使用或使用部署了超越一个人意识范围的下意识技术或故意操纵或欺骗技术,以材料性地扭曲一个人的行为,造成重大

危害。

  • 利用脆弱性:利用一个人或特定群体的脆弱性,因其年龄、残疾或特定社会或经济情况而产生的任何行为,以一种使其行为重大扭曲并引起或可能引起重大危害的方式。
  • 社会评分:使用AI系统对自然人或群体进行评估或分类,根据其社会行为或个人特征进行,导致不利或不利的对待,特别是如果导致不合理或不成比例的结果。
  • 实时远程生物识别:在公共场所使用“实时”远程生物识别系统进行执法目的,除非在严格定义的情况下,这是为了实现重大的公共利益而必要的。
  • 基于个人画像的风险评估:仅基于画像或评估其个性特征和特征的自然人风险评估,以评估或预测其可能犯罪的风险。
  • 未定向的面部图像抓取:通过从互联网或闭路电视摄像头中未定向抓取面部图像来创建或扩展面部识别数据库。
  • 敏感区域的情绪识别:根据其生物特征数据推断或检测自然人的情绪或意图,以用于就业、教育或公共安全等目的,除非其用于医疗或安全目的。

高风险AI系统解释

高风险AI应用的分类

法规内界定了高风险AI系统,包括对医疗保健、交通运输和公共服务等关键领域有影响的应用。这些系统受到严格的要求,包括数据治理、技术文档和透明度,以降低风险并确保问责制。

高风险系统的义务和评估

该法案对高风险AI系统规定了全面的义务,关注人类监督、准确性和网络安全等方面。这些要求旨在确保高风险AI应用安全、可靠,并符合欧盟的价值观和标准。简而言之,以下是高风险系统设定的要求:

  • 风险管理系统:建立一个连续的、迭代的流程,以识别和减轻与AI系统在其生命周期中相关的对健康、安全和基本权利的风险。
  • 数据集的质量和相关性:确保用于训练、验证和测试的数据集质量高、相关性强、足够代表性,并尽可能地没有错误,考虑到AI系统的预期目的。
  • 技术文档:维护最新的技术文档,提供评估法规合规性所需的信息,并促进市场后监控。
  • 记录保存:确保AI系统能够在其操作寿命内自动生成日志(事件),这些日志应保存一段适合系统用途的时间。
  • 透明度和信息提供:设计高风险AI系统,使其对部署者足够透明,以了解其操作,并为其提供清晰和全面的使用说明。
  • 人类监督:实施适当的人类监督措施,以确保AI系统的功能在使用过程中可以被自然人有效监督。
  • 准确性、鲁棒性和网络安全:确保高风险AI系统达到适当水平的准确性、鲁棒性和网络安全,并在其生命周期内在这些方面保持一致。
  • 符合性评估:在将AI系统投放市场或投入使用之前,必须进行相关的符合性评估程序。
  • CE标记:将CE标记贴在AI系统上,表明其符合法规要求。
  • 注册:在将AI系统投放市场或投入使用之前,注册该系统到欧盟数据库。
  • 辅助功能要求:符合产品和服务的辅助功能要求,以及公共部门机构的网站和移动应用的辅助功能要求。

AI系统的透明度要求

生成式AI及其对透明度的需求

生成式AI系统虽然不被分类为高风险,但仍需遵守透明度义务。这包括在内容由AI生成时披露,从而使用户能够做出知情决策并保持对数字内容的信任。

标记AI生成的内容

该法案强调了清晰标记AI生成内容的重要性,例如深度伪造或合成媒体。此举旨在确保用户了解,并防止错误信息,促进一个用户能够区分AI生成和真实内容的数字环境。

详细的透明度要求

  • 与自然人的互动:提供商必须确保旨在与自然人直接互动的AI系统清楚地告知用户,除非从上下文和用户的知识和意识水平来看,显而易见。
  • 合成内容生成:生成合成音频、图像、视频或文本内容的AI系统的提供者必须以机器可读的格式标记输出,并确保内容可检测为人工生成或操作。所实施的技术解

决方案必须在技术上可行的范围内有效、互操作、强健且可靠。

  • 情感识别和生物特征分类系统:用于情感识别或生物特征分类的系统的部署者必须告知个人这些系统的操作,并依据相关数据保护法规处理个人数据。
  • 深度伪造(操纵内容):生成或操纵可能被视为“深度伪造”的内容的AI系统的部署者必须披露内容已经人工创建或操纵。除非内容是创造性、讽刺、艺术的或虚构的作品的一部分,或者AI生成的内容经过了人工审查或编辑控制,否则不适用此规定。
  • 公共利益文本生成:生成用于向公众提供关于公共利益事项的文本的AI系统的部署者必须披露该文本已经人工生成或操纵,除非进行了人工审查或编辑控制并对内容负责。
  • 清晰且可区分的信息:提供给自然人的信息必须以清晰、可区分的方式呈现,遵守辅助功能要求。
  • 高风险AI系统的注册:高风险AI系统的提供者和部署者必须在将系统投放市场或投入使用之前,在欧盟数据库中注册自己和他们的系统。

治理与执法

该法规的一个关键方面是建立以人工智能办公室为核心的治理结构,该办公室在支持该法案的实施和执行方面起着至关重要的作用。将创建一个欧盟范围内的高风险AI系统数据库,以促进监督和合规。该法规还界定了国家主管当局、市场监督当局和欧洲数据保护监察员的角色,确保对AI治理采取协调一致的方法。以下是欧盟AI法案执行的治理摘要:

  • 人工智能办公室:成立人工智能办公室,为AI系统、通用AI模型和AI治理的实施、监督和监督做出贡献。人工智能办公室负责协调支持联合调查、提供法规实施指南和确保分类规则和程序的最新。
  • 欧洲人工智能委员会:成立一个由成员国代表、技术支持的科学小组和利益相关者咨询论坛组成的委员会。该委员会负责就法规的应用向委员会和成员国提供建议和帮助,发表意见和建议,并促进市场运营者之间的共同标准和理解的发展。
  • 国家主管当局:每个成员国都需要指定至少一个通知机构和一个市场监督当局,以监督国家级别上法规的应用和执行。这些机构负责确保AI系统符合法规的要求,并在不符合要求的情况下采取适当措施。
  • 市场监督:市场监督当局负责监督AI系统市场,采取措施确保合规,并提出联合活动建议,包括调查,以解决跨成员国的不符合或严重风险问题。
  • 合规评估:人工智能办公室与国家主管当局合作,负责评估合规性,包括通过评估技术文档和监控AI系统的性能进行评估。
  • 报告和文档:高风险AI系统的提供者需要提交报告并保持与其系统相关的文档,这些文档可能会接受人工智能办公室和国家主管当局的审查。
  • 支持结构:委员会负责指定欧盟人工智能测试支持结构,以提供技术或科学建议和在执行法规方面提供协助。
  • 保密性和数据保护:法规执行中涉及的所有方必须尊重在履行职责过程中获得的信息的保密性,保护知识产权、个人数据,并确保AI系统的安全。
  • 定期评估和审查:委员会需要定期评估和审查法规,考虑到技术发展、内部市场状况和基本权利的保护。

罚款和罚款

该法规规定对违反其规定的行为进行处罚和罚款,包括根据违规实体的全球年营业额总额或固定金额进行的行政罚款,具体取决于违规行为的性质和严重程度。

  • 对于违反第5条规定的某些AI实践,行政罚款可以高达3,500万欧元或上一财政年度全球年营业额的7%,以两者中的较高者为准。
  • 对于违反与操作者或通知机构相关的其他规定,行政罚款可高达1,500万欧元或上一财政年度全球年营业额的3%,以两者中的较高者为准。
  • 对于向通知机构和国家

监管机构提供虚假信息或不符合第19条规定的其他义务的行为,行政罚款可以高达500万欧元或上一财政年度全球年营业额的1%,以两者中的较高者为准。

结语

欧盟人工智能法案是对AI治理的重要里程碑,旨在确保人工智能的发展与基本权利、伦理标准和安全保护保持平衡。该法规通过建立分类风险框架、制定透明度要求和建立监管和执法机构等措施,为未来的AI发展提供了一个坚实的基础,将对欧盟内部和全球AI行业产生深远影响。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯