欧盟人工智能法案将产生全球影响,但布鲁塞尔效应有限
欧盟 (EU) 的 AI 法案 (AIA) 渴望建立第一个全面的人工智能监管计划,但其影响不会止步于欧盟边界。事实上,一些欧盟政策制定者认为,制定全球标准是 AIA 的一个关键目标,以至于有些人提到了监管人工智能的竞赛。这种框架意味着,监管人工智能系统不仅有价值,而且作为首批这样做的主要政府之一,将对欧盟产生广泛的全球影响——通常被称为“布鲁塞尔效应”。然而,虽然 AIA 的某些组成部分将对全球市场产生重要影响,但仅欧洲不会为人工智能制定全面的新国际标准。AIA 的域外影响在不同部门和应用程序之间会有很大差异,但单独审查 AIA 的关键条款可以深入了解可以预期的布鲁塞尔效应的程度。考虑到 AIA 的三个核心条款,我们发现:
受监管产品中的人工智能系统将在全球范围内受到重大影响,显示出明显的布鲁塞尔效应,尽管这将受到现有市场、国际标准机构和外国政府的高度调解。
如果将用于人类服务的高风险人工智能系统构建到在线或其他国际互联平台中,它们将受到很大影响,但许多更本地化或个性化的人工智能系统不会受到重大影响。
与人类交互的人工智能(例如聊天机器人和情绪检测系统)的透明度要求将导致大多数网站和应用程序的全球披露。
总体而言,该分析表明,AIA 对全球的影响比欧盟政策制定者提出的更为有限。虽然 AIA 将有助于欧盟在某些在线平台上已经具有重要的全球影响力,但它可能只会适度地塑造国际监管。考虑到这一点,欧盟应该专注于一种更具协作性的方法,以便让其他政府了解其对人工智能治理的看法。
介绍
欧盟机构之间关于 AIA 究竟会做什么的争论(甚至“人工智能”的定义仍在争论中)继续,但该提案已足够确定,可以分析其可能的国际影响。欧盟的 AIA 将为许多类别的高风险 AI 系统创建一个自我认证和政府监督流程,对与人交互的 AI 系统的透明度要求,并试图禁止一些“不可接受”的 AI 系统质量。布鲁金斯学会的其他 分析提供了对该立法的广泛概述,但只有部分条款对于该法律将如何塑造全球算法治理特别重要。三类人工智能需求最有可能具有全球性考虑,值得单独讨论:产品中的高风险人工智能、人类服务中的高风险人工智能和人工智能透明度要求。
这些 AIA 条款无疑会产生一些域外影响,这意味着它们将影响全球许多人工智能系统的开发和部署,并进一步激发类似的立法努力。然而,布鲁塞尔效应的概念具有重要的意义,而不仅仅是在欧盟边界之外产生影响——它具体而言,欧盟可以单方面制定成为全球标准的规则,而不是通过强制,而是通过其 4.5 亿强大的消费市场的吸引力。[ 1 ]
这布鲁塞尔效应体现在两种相关形式,“事实上的”和“法律上的”,可以使用欧盟数据隐私规则的案例来区分,特别是通用数据保护条例 (GDPR) 和电子隐私指令。世界上的许多网站并没有为欧洲人开发单独的流程,而是采用了欧盟的要求,要求用户同意处理个人数据和使用 cookie。这反映了事实上的布鲁塞尔效应,即公司普遍遵循欧盟的规则以标准化产品或服务,使其业务流程更简单。这通常伴随着法理上的布鲁塞尔效应,在该效应中,其他国家通过了符合欧盟法律的正式立法,部分原因是跨国公司强烈反对可能与其最近标准化的流程产生冲突的规则。这在一定程度上是这些隐私法规导致许多其他国家通过了符合或类似的数据保护立法。
因此,就像在数据隐私方面一样,为了更好地了解 AIA 的可能影响,应该考虑以下两个组成部分: AIA 的国际影响是什么(事实上的布鲁塞尔效应);它会在多大程度上单方面影响国际规则制定(法理上的布鲁塞尔效应)?
欧盟立法者将布鲁塞尔效应作为迅速通过 AIA 的一个原因,此外,它的核心目标是保护欧盟消费者,并在较小程度上刺激欧盟人工智能创新。
欧盟政策制定者普遍认为,作为第一个通过横向人工智能监管的主要国家将拥有显着而持久的经济优势。然而,一个欧洲政策研究中心最近的报告认为,随着其他国家投资于数字监管能力并赶上欧盟,欧洲可能会失去其在数字治理方面的竞争优势。欧盟影响全球规则制定的关键推动因素。其他学术研究认为,人工智能市场的基本条件,例如将人工智能公司转移到欧盟的高成本以及衡量人工智能监管影响的难度,意味着监管竞争的价值较小,旨在通过清晰有效的监管来吸引企业。
这些更广泛的观点提供了对 AIA 的全球影响持怀疑态度的理由,但它们并未分析 AIA 对数字公司实际商业模式的个人要求。然而,正是 AIA 的具体规定与科技公司部署的人工智能系统架构之间的这种相互作用表明,全球影响更为温和。本文将重点关注 AIA 的三个核心组成部分(产品中的高风险 AI、人类服务中的高风险 AI 和 AI 透明度要求),并尝试估计它们可能产生的全球影响。值得注意的是,这需要尝试预测公司行为的变化以应对 AIA——这是一项艰巨的工作,并且存在误判的可能性。尽管有这种风险,
产品安全法规涵盖的高风险
拟议的 AIA 涵盖了广泛已经受到监管的行业的人工智能系统,例如航空、汽车、船舶、电梯、医疗设备、工业机械等。在这些情况下,高风险人工智能的要求被纳入现有的合格评定流程,由部门监管机构执行,例如欧盟航空安全局的飞机,或由经批准的第三方组织和欧盟中央组织执行身体,如本案用于医疗器械。这意味着在欧盟销售受监管产品的域外公司已经通过了合格评定程序。AIA 仅更改此监督的具体细节,但不更改其范围或流程。
不过,这些变化并非微不足道。从广义上讲,它们要求将人工智能系统放入要在欧盟销售的受监管产品中的公司必须至少对这些人工智能系统给予一些专门的关注。他们将需要实施风险管理流程,符合更高的数据标准,更彻底地记录系统,系统地记录其行为,向用户提供有关其功能的信息,并实现人工监督和持续监控。其中一些要求可能已经由长期与人工智能打交道的部门监管机构实施,但大多数可能是新的。结果是,受监管产品中的人工智能系统需要自行记录、评估和监控,而不仅仅是评估产品的更广泛功能。
在 AIA 的文本中,域外范围仅限于向欧盟销售的产品,但这依旧很有可能导致国际合规。为了继续向欧洲庞大的消费市场出口,外国公司将不得不实施这些流程。尽管新规则仅限于人工智能系统的功能,但其中许多产品是在大规模工业化过程中制造的——想象一下传送带。这些传送带流程的一致性意味着对公司而言更便宜的产品和更具竞争力的价格,而变化需要不同的传送带,加上不同的测试和安全流程,并且通常会更昂贵。因此可以合理地假设许多外国制造商会适应 AIA 的规则,一旦他们适应了,
从表面上看,这似乎是布鲁塞尔效应的一个典型例子,学术研究发现,欧盟当它有权将产品排除在市场之外时,它最具影响力,就像它在这里所做的那样。然而,欧盟单方面制定规则并不是一定的结果。三个因素会降低欧洲对这些新规则的影响——现有市场、国际标准机构和外国政府。
首先,由于这些新规则将影响已经受到监管的产品,因此许多已经在欧盟销售产品的外国公司将密切关注这些规则。这包括对欧盟的主要出口商,例如来自美国的医疗器械,来自日本的机械臂、来自CCC的车辆等等。这些大型国际企业不会在没有任何发言权的情况下被排除在欧盟之外,但将积极参与以确保规则不会损害其市场份额。
欧盟标准机构如何融入全球标准组织将为这些公司提供帮助。AIA 并未直接为使用 AI 的无数产品制定具体标准,因为人们普遍认为任何立法机构都无法做到这一点。相反,AIA 将重要的权力委托给欧洲标准化组织 (ESO) 来完成这项任务。[ 2 ]
至关重要的是,ESO 不仅仅在欧洲范围内运作。有一个“几十年前,ESO 和国际标准机构之间的高度融合。[ 3 ] 这种与国际标准机构的紧密联系为外国公司在制定欧盟标准时提供了一条清晰的道路。事实上,标准机构的工作里面和多年来一直在欧盟之外进行,为全球公司提供专业知识和参与政治影响铺平了一条漫长的道路。
最后,外国政府也将通过 ESO 的工作影响标准制定。这在包括一个工作组的欧盟-美国贸易和技术委员会中最为明显关于技术标准。如果较新的欧盟-印度贸易和技术委员会也处理人工智能标准。这延续了最近的趋势,包括美国和CCC在内的国家更加积极地参与作为国际技术竞争方法的国际标准制定的战略方法。在国际公司、全球标准机构和外国政府的积极参与和影响下,欧盟只能说要求在产品中制定人工智能规则——但并不是唯一一个制定规则。
人工智能用于人类服务的高风险
第二类高风险人工智能系统不符合欧盟现有的监管框架,而是由影响人权的人工智能系统的指定列表组成。有时被称为“独立”人工智能系统,其中包括在招聘、员工管理、接受教育和信用评分方面的私营部门人工智能应用,以及政府用于获取公共服务、执法、边境控制、公用事业和司法决策。最近欧洲议会建议的改变可能会增加与儿童互动或影响民主进程的保险、医疗分诊和人工智能系统。政府使用人工智能的要求对欧洲很重要(其中社会福利欺诈的算法失效导致荷兰政府下台),但最多只能是对世界其他地区的启发,而不是新规则。全球影响将转而落在人类服务领域的私营部门人工智能系统上。
了解该法规对人类服务中私营部门人工智能的影响首先需要区分平台中使用的人工智能和其他软件中使用的人工智能。这种区别对于检查 AIA 的域外影响至关重要——AI 系统越多地融入地理上分散(而不是本地化)的平台,AIA 的要求就越全面地影响其整体,而不仅仅是其在欧盟的使用。
Linkedin 作为一个完全互联的平台,没有地理障碍,在这个范围的一端提供了一个有用的例子。LinkedIn 的许多算法可能属于 AIA 的高风险类别,[ 4 ]包括那些用于放置招聘广告和推荐系统的算法寻找求职者。这些人工智能系统使用来自 LinkedIn 用户网络及其交互的数据,这意味着很难在任何明确的地理意义上隔离模型。这表明建模过程或功能的更改,以及 AI 系统的文档和分析,将在某种程度上对平台具有普遍性。
这也意味着 LinkedIn 很难满足欧盟标准和假设的与另一个国家不同的一套法规。任何冲突都会给 LinkedIn 带来直接的问题,可能需要他们创建不同的风险管理流程,尽量减少不同的偏见指标,或记录多个不同的条目以保存记录。它甚至可能要求他们为不同地区的用户更改网站的功能,这是平台不愿做出的一种改变。因此,LinkedIn 及其母公司微软预计将强烈抵制其他国家对 AI 的额外立法要求,这些要求与 AIA 不一致,从而降低了通过的可能性——这是布鲁塞尔效应的明显体现(事实上?和法律上)。
对于没有连接到分散平台而是建立在本地数据之上并与个人进行更孤立的交互的人工智能人类服务,这种布鲁塞尔效应变得不那么明显了。例如,考虑一家外包人工智能招聘系统开发以分析简历和评估求职者评估的跨国公司。这位 AI 开发人员将为不同的职位空缺和可能的不同地理区域(例如,不同的语言已经成为必要)构建许多不同的 AI 系统(或更准确地说,AI 模型)。另一个例子是教育技术软件,它可以连接学生网络,但通常会独立部署在不同的地方。
在这些情况下,开发人员很可能只会遵循 AIA 对欧盟使用的 AI 系统的要求,因此受 AIA 约束。对于不直接受 AIA 约束的模型,开发人员可能会更有选择性地遵循 AIA 规则。开发人员可以选择始终生成和存储记录 AI 系统性能的日志,因为一旦开发出来,它可能很容易普遍应用,并且可能进一步被视为对公司有价值。然而,没有理由假设 AIA 要求会得到普遍遵守,尤其是那些需要为每个 AI 系统付出巨大努力的要求。尽管建立模型的一致过程可以提高效率,但代码比“传送带”工业化过程灵活得多。更远,公司在没有任何监督的情况下可能不会像非欧盟模型那样在数据收集和清理或模型测试方面一丝不苟。人工监督和积极的质量管理可能特别昂贵。因此,许多公司可能拒绝在欧盟以外提供这些服务。
从广义上讲,人工智能系统在国际网络或平台中构建的越少,它受到友邦保险直接影响的可能性就越小,从而导致布鲁塞尔效应减弱。然而,平台中的人工智能与本地化软件之间的这种区别很容易模糊。例如,员工管理软件中的人工智能系统(将被称为高风险人工智能)通常会内置在跨企业共享的平台中。虽然这不是一个可广泛访问的在线平台,但任何在欧盟拥有员工并使用该软件的跨国企业都需要人工智能系统符合 AIA。在这种情况下,可能会发生什么并不明显。供应商可能会普遍遵守 AIA,以便其客户可以在欧盟自由使用其软件。然而,
那么,AIA 会对 AI 人类服务产生布鲁塞尔效应吗?对于内置在国际平台中的高风险人工智能系统,可以肯定地说是,否则,可能不会那么多。[ 5 ]当然,在 AIA、GDPR 以及最近通过的《数字服务法》和《数字市场法》二人组之间,欧盟委员会将拥有一套极具影响力的在线平台管理工具——远远超过任何其他民主政府。
披露与人类互动的人工智能
AIA 将为与人交互但显然不是人工智能系统的人工智能系统制定透明度义务。最直接的国际影响将来自用于网站和应用程序的聊天机器人,尽管人们可以想象这最终也会影响虚拟现实中的人工智能化身。如果聊天机器人不属于高风险类别(可能通过就贷款或公共服务的资格提供建议),那么唯一的要求是告知人们他们正在与人工智能系统进行交互,而不是一个人。这将涵盖商业电话应用程序(例如,Domino's 和 Starbucks 使用的那些)和网站中的许多聊天机器人,可能会导致一个小通知,说明该聊天机器人是一个 AI 系统。
在网站上,预计 AIA 会在全球范围内产生显着影响是合理的。一般来说,添加一个声明聊天机器人是人工智能系统的披露将是一个微不足道的技术变化。因此,这一要求不太可能说服公司为欧洲访问者创建一个单独的聊天机器人,或者拒绝欧洲人访问聊天机器人或网站——最有可能的结果是普遍采用这种披露。由于这些公司通常会在全球范围内遵守欧盟法律,而不是被迫这样做,这将是事实上的布鲁塞尔效应的一个明显例子。
智能手机应用程序中使用的聊天机器人可能会有不同的表现。由于不同的语言或其他法律要求,许多商业应用程序已经专门为不同的国家设计和提供。在这种情况下,欧洲市场内的应用程序会披露,但在其他地方运营的应用程序可能不会感到任何做出这种改变的压力。
透明度要求也适用于情感识别系统(这些由 AIA 定义,很少内置于网站中)以及深度伪造。无论如何,虽然 AIA 的披露要求可能会成为普遍做法,但这种变化的影响将相对较小,即使它可能是 AIA 更明显的全球影响之一。
结论和政策建议
对其条款的仔细分析大致表明,AIA 仅具有针对性的域外影响和有限的布鲁塞尔影响。产品中高风险人工智能的规则将由全球市场力量来调节,而人类服务中的高风险人工智能将仅在国际平台上产生最广泛的影响。此外,透明度要求只会导致微小的变化,而少数被禁止的 AIA 系统质量将主要限于欧盟。可能还有其他影响,例如激励其他国家建立人工智能监管,可能针对相同的高风险人工智能类别,但这并不反映自愿效仿,而是这里考虑的布鲁塞尔效应更具强制性的一面。
当然,欧盟人工智能法案的域外影响将是复杂的,因为许多企业会根据自己的独特情况和激励措施做出反应,意想不到的后果是肯定的。这种复杂性使得预测,特别是关于商业行为者的反应,非常冒险。然而,出于两个原因,值得尝试预测 AIA 对全球治理的成果。首先,了解 AIA 域外性质的细节有助于其他政府考虑他们如何应对 AIA,尤其是在实施自己的监管保护时。其次,这一分析挑战了欧洲普遍的观点,即作为“先行者”的经济利益和由此产生的布鲁塞尔效应是快速通过 AIA 的充分理由。
对于世界其他地区,虽然 AIA 的影响可能不会压倒一切,但仍值得考虑。特定行业的商业模式和人工智能应用可能会导致意外情况,并可能导致与现有法规的冲突。为互联平台制定规则将特别困难,尤其是对于那些具有高风险人工智能系统的平台。其他国家可以通过标准流程和监管盘点更积极地努力实现凝聚力。对于美国来说,贯彻2020 年 11 月的指导方针尤其有价值来自管理和预算办公室,该办公室要求各机构审查自己对人工智能系统的监管权限。尽管截止日期是几个月前,但只有卫生与公众服务部发布了其全面的公共会计人工智能监督职责。拜登政府不应等待欧盟和友邦保险,而应继续执行人工智能权利法案的承诺。
至于欧盟,通过 AIA 有很多充分的理由——打击欺诈、减少歧视、减少监视资本主义等等——但制定全球标准可能不在其中。这对于欧盟支持 AIA 的经济论点尤为重要,因为许多欧洲政策制定者认为,作为第一个实施监管制度的政府,从长远来看,将有利于采用该制度的欧盟公司。这种思路认为,当欧盟实施法规时,其公司首先适应。然后,当世界其他地区采用欧洲方法时,欧盟公司就做好了在已经适应规则的全球市场上取得成功的最佳准备。然而,这种逻辑只有在欧盟规则对全球市场产生重大影响的情况下才成立,正如本文所表明的那样,这是不确定的,[ 6 ]
这一结论还表明,欧盟应在满足欧洲需求的时间表上推进 AIA,而不是仓促完成。友邦保险已经由于政治争端而大大推迟,因此如果欧盟立法者认为迫切需要解决人工智能的危害(正如美国所证明的那样),那么他们应该无论如何都应该迅速推进。然而,在 AIA 的情况下,为了制定全球标准而这??样做是错误的。AIA 不会产生强烈的布鲁塞尔效应,这也对欧盟的政治信息产生影响。欧盟可能通过发出信号获得更多收益对来自民主世界其他国家的反馈和合作更加开放,而不是说它正在“竞相”进行监管——否则欧盟可能会发现自己真正孤独地走到了终点。
文章来源:https://www.brookings.edu/research/the-eu-ai-act-will-have-global-impact-but-a-limited-brussels-effect/
声明:以上内容来源于网络,如有侵权请联系我们(123@shiyan.com)删除!
页:
[1]