欧美AI法案先后出台,治理向左,发展向右|财经风云对话

科技 2024-06-13 15:56 阅读:

欧美AI法案先后出台,治理向左,发展向右|财经风云对话 第1张

近日,美国众议院外交事务委员会通过了ENFORCE法案提案。该法案核心内容是对 2018 年《出口管制改革法案》的修订,将使拜登政府更容易对人工智能模型实施出口管制,以保护美国人工智能及其他支持技术免受外国对手的利用。

接着,5月21日,欧盟理事会正式批准了《人工智能法案》。这是全球首部关于人工智能全面规则的法规。

随着人工智能技术的突飞猛进,世界各国对人工智能的治理也提上日程,不过各界对于当前人工智能治理的必要性存在不同看法,如何处理治理与发展的关系也是人工智能面临的核心议题之一。

第六期《钛媒体财经风云对话》,主持人钛媒体副总编辑胡润峰,特邀北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括,香港中文大学高等金融研究院政策研究员本力来共同探讨人工智能发展与治理的问题。

核心观点: 1. 关于ENFORCE 法案的修订,吴沈括表示,ENFORCE 法案中有一个比较特别的机制设计,它指向的是“人”,以美国人作为制度设计的核心,如果你是美国人,如果你涉及到人工智能系统等这一系列事项,就会涉及到对于特定合规义务的履行。 2. 对于ENFORCE 法案的影响,本力认为,该法案最大的问题是对于预期的影响,的确有潜在风险。但其来源主要是美国对出口的管控体系,美国在治理层面上仍把创新、企业发展放在前位,而且该法案“一年期的更新”即对受限的人工智能进行新的定义,反映了在各种目标中的一种平衡。 3. 关于美国几年来对中国科技采取一系列打压措施,吴沈括表示,包括人工智能在内的一系列新兴技术是不可能通过斗争和所谓打压的方式遏制它的发展进度,美国政治层面的打压还可能在一定程度上加速推动中国的技术发展。 4. 对于ENFORCE 法案是否会真正影响到中国AI发展,本力认为,ENFORCE 法案是一种政治上的姿态,是美国为了巩固自身霸权的一种体系化行为,目前需要更多用中性的眼光看待问题。 5. 关于ENFORCE法案对于开源大模型的限制出口是否会改变开源生态,吴沈括认为,ENFORCE法案的突破在于总统在AI领域授权的限制,未来可能会针对某些特定的场景或某个特定企业进行执法,但要从根本上改变目前的技术生态,短期内是较难实现的。 6. 不同的国家和地区对于AI思路切入点是不同的,吴沈括总结道,欧盟的 AI 技术应用不算特别发达,他们关系的核心问题是能否有效约束美国的头部AI企业,而美国作为技术先发的国家,它更注重如何通过强化自身的技术优势来提高自己的技术、经济乃至政治话语权,中国更多强调的是一种综合、平衡安全发展的治理理念,而很多发展中国家,他们的诉求更多在于发达国家或者先行国家能不能给予有效的技术支持、必要的技术转让、能力建设的支持和资金的帮扶等。 7. 对于AI的治理和监管,本力认为要坚持,一是周期性原则,二是宏观审慎原则,三是敏捷治理、适应性治理,先把治理作为一种软法,等行业成熟之后把它变成硬法,这样的方式可能是相对符合创新和安全性平衡发展的路径。 8. 吴沈括认为,人工智能具有天然的全球性,因此进行全球治理势在必行。 9. 本力指出,为全球人工智能合作制定法案是防止合作过程中出现AI风险的放大,能够为适时画出红线提供依据,同时我们也应该让人工智能在国际合作中能够使所有的人受益。
ENFORCE法案以美国人作为制度设计的核心

胡润峰:请介绍一下 ENFORCE 法案主要进行到哪些方面的修订?为什么选择这个时候进行修订?

吴沈括:首先ENFORCE法案处于推动制定的过程当中,还需要经历比如参议院等一系列表决,因此在 ENFORCE 法案值得特别关注的几个点是:一是,它对于全球管辖机制的设计,即如果法案通过后,它的涵盖范围和适用场景是非常广泛的,因此如果涉及到美国人与法案中所涉及的人工智能、人工智能系统等几个核心范畴相关,无论这些主体在哪一个国家和地区,都会受到该法案的限制,从这个意义上讲,它的全球管辖机制是突出的。

二是,在ENFORCE 法案中,它是一种以商务部主导的许可证机制的强化,如果法案通过,它会授权总统和商务部进行相应的清单设计许可证的机制安排,通过这种方式来影响人工智能包括大模型在内的各类已有生态的构造。

三是,需要特别关注的是在ENFORCE 法案目前的文本设计中,它的一个特点是以往我们在进行比如出口管制的过程当中以物价为主,物价是可见物,而现在慢慢过渡到包括数据在内的无体物,ENFORCE 法案中有一个比较特别的机制设计,它指向的是“人”,以美国人作为制度设计的核心,如果你是美国人,如果你涉及到人工智能系统等这一系列事项,就会涉及到对于特定合规义务的履行。

本力:ENFORCE法案有两个特点,一是,“一年期的更新”,即法案生效后可以在365 天内对受限的人工智能进行新的定义,这反映了它的一种平衡。在进行法案设计时,一方面希望能够将新的技术纳入到传统的商务技术管控中,但是同时可能会扼杀美国的创新或者开源模型的开发,因此这个法案实际上有再定义的过程。

此外,法案对总统、商务部长、国防部部长等高层领导的权力有了一个协商的过程。我理解它是在整个制度设计中注重对技术产生的新的权力做了平衡,因为美国传统的制度设计往往是“以野心来对野心”。

第二个特点是将国际合作的标准性内容纳入立法过程中,在国际合作中,可能其他国家也要做一些相应的政策,这也推进了人工智能整体的全球性治理体系。

ENFORCE法案可能会影响中美人工智能合作预期及人才流动

胡润峰:近两年中国人工智能尤其是在应用层面发展迅速,ENFORCE法案是否有针对中国的嫌疑?

本力:法案本身没有突出中国,但是它翻译过来是《加强海外关键出口限制国家框架法案》,问题在于中国有可能是它所指的关键出口限制国家之一。

法案的来源主要是美国对出口的管控体系,体系分了几个层面:第一是武器出口控制,第二是商部的出口管制条例,第三是技术转让管制,第四是制裁措施,四个层面放在一起形成了出口管制政策。而相应的管制政策也需要纳入新的技术。

例如, AI是新形成的美国所认为的出口风险,现在对人工智能一个重要治理领域是主权问题,从这个角度来讲,ENFORCE法案是对过去政策的延续。

在对人工智能的管控上,其实早在 2023 年 10 月,美国总统拜登就发布了 AI 行政令,他们要将 AI 和国防生产、美国国家政府安全联系在一起。今年4月,美国国土安全部成立了 AI 安全委员会,其中包括微软、英伟达、OpenAI、谷歌母公司Alphabet、亚马逊AWS、IBM、Adobe和AMD在内的一些科技公司 CEO加入了该委员会,因此美国针对人工智能技术成立对应法案并不意外。

胡润峰:针对模型出口管制的必要性被提出质疑,有人认为离开行业数据,模型无论是开源还是闭源实际上可能难以影响到所谓的国家安全和外交利益,是否真是如此?

吴沈括:美国市场对于人工智能的介入和干预主要牵涉到三个方面:一是数据,二是算力,三是算法。美国比较早就对算力进行了干预,比如芯片法案,已经影响了全球算力的分布。

从数据角度看,美国开展了一系列在数据领域的新举措,比如今年 2 月 28 日拜登关于美国人敏感数据的新政令,就是阻止涉及美国的数据流向特定国家。

在算法上面,ENFORCE 法案通过对人的管制,通过引入许可证机制的方式,对整个AI生态带来很大的变化,比如技术人员的流向问题,而技术人员的流向往往也会改变数据的流向,所以从这个意义上来说,数据和模型之间是非常重要的,相互依赖的关系。因为人工智能本身的产生、研发、运行在过程当中,算力、数据、算法包括人的因素实际上是紧密结合在一起的。

美国从人工智能监管的角度是进行了全面部署,从去年拜登行政令出来之后,在人工智能方面形成了一套组合拳,因此一方面ENFORCE 法案向前推进的过程是比较确定的,另一方面需要关注无论是中国还是美国的企业,特别是AI头部企业,对于 ENFORCE 法案的预判和合规动作的提前举措已经在逐步地展开当中。所以法案本身所带来的不论是数据还是算法层面,特别是在人的层面,它的影响都是比较直接和深刻的。

本力:美国在处理全球贸易问题上可能更侧重以实体清单的方式,更多是将具体的人、公司列入不可靠清单。这种做法本身也有减少所产生的整体性的政策负面影响的一面。

我觉得最大的问题还不是AI高端人才的流动性问题,而是对于预期的影响,所以可能影响中美在人工智能方面的科研合作和项目,包括一些资金支持等。如果对双方的商业贸易交流上产生比较直接的影响,在我来看,这也不是美国ENFORCE法案所希望的,但却是一个需要关注的潜在风险。

胡润峰:法案会对中美之间 AI 人才的流动会产生什么样的影响?

吴沈括:如果法案通过的话,这意味着当你有某一种签证或者申请某一种签证的时候,美国会依据从事工作的情况,考虑是否给予签证或者进行续期,如果涉及到跟 AI 相关的行业,并在 ENFORCE法案的适用范围之内,则可能出现拿不到签证的情况。

新兴技术不可能通过打压和斗争方式遏制其发展

胡润峰:美国对AI管制的效果是否达到预期?是否损害了美国的一些大公司的利益,并在一定程度上促进中国 AI 以及芯片产业的竞争力提升?

吴沈括:在美国人工智能的语境当中,政府和产业的立场并不一致。从政府的角度来说,特别是在立法机关,他们很多时候会考虑国家安全和敌对关系,而这包括宪法的制约,美国的联邦政府和国会的排查经济权限只有五个方面:知识产权、犯罪、国家安全、税收、国防军事,因此只有谈到国家安全时,能有更高的灵活性。

但是如果和美国的产业界进行交流,他们很大的诉求是说寻求和中方的合作机会,并可以考虑一起来探讨如何克服和避免因联邦政策改变所带来的对商业的影响,所以我认为美国产业界对于美国政府的这一系列做法并不是都抱有欢迎态度的。因此法案更多是与美国的政治生态相关,它需要有这样一个话题并不断制造话题。

从早期对网络安全的讨论,到数据问题、人工智能问题的讨论,背后的逻辑几乎都是所谓的国家安全问题,所谓的敌对国家或者维权国家等等,这些表述根本上反映了美国的逻辑思维是一种斗争式的、非合作的态度,甚至美国的一些官员在交流曾提到中美在人工智能问题是生死之争,他会把这个问题无限地拔高,很大程度甚至会超越商业正常的逻辑。

从实际来看,包括人工智能在内的一系列新兴技术是不可能通过斗争和所谓打压的方式遏制它的发展进度,甚至美国政治层面的打压在一定程度上会加速推动中国技术的发展。

胡润峰:这种针对AI模型的出口管制会不会形式大于内容?会不会真正地影响到中国AI产业的发展?

本力:政治上肯定是一种姿态, OpenAI 的一些产品火爆之后,首先是出现了关于禁止大模型开发或者暂停开发的一些倡议,后来引出了很多的不同层面的呼吁,但主要还是出于安全性的考量,例如基辛格生前也写了一本书《人工智能时代与人类未来》反对人工智能的进一步失序扩张,因为它会带来战争的威胁。这是对AI不可控性或者安全问题的伦理考量。

但因为美国的商业机构和资本并不希望这种情况从倡议变成现实,于是他们成功地将对人工智能风险的辩论焦点作了转移,将国家安全切换到第一位,以缓解社会对人工智能伦理风险的焦虑和质疑。

美国的技术霸权和金融霸权也有联系。从金融霸权上看,近期日元兑美元汇率下跌,背后跟技术相关的两点是,第一日本人大量通过 APP 理财,由于相对美元资产,日本理财产品的收益率偏低,所以大量的日元资金投资美元资产;第二是技术,日本在上一轮互联网革命中是“掉队”的,因此大量相关的生产、研发等活动会因为本身的生产效率形成成本压力,自然回报率也在下降。下一个人工智能高速发展的技术革命阶段,中国应该像上一次互联网革命时代一样发挥自身优势抓住弯道超车的机会,否则我们也可能会受到类似的技术霸权和金融霸权的双重打压。

中短期内,ENFORCE法案不会改变开源生态

胡润峰:最新的ENFORCE 方案会不会涉及LLaMA开源?如果不让 LLaMA 开源会对国内的大模型产业产生什么样的影响?

吴沈括:美国的商务部在许可证运用的过程当中,对于物项的管理有很长一段时间的实践经验,而且在这个过程中也产生了一些有效的后果。第一个挑战是,对于人的问题留下了很大的想象的空间,比如说法案中关于美国人的定义,谁是美国人?什么样的人是美国人?这种定义是不容易的,并且人有各种各样的生活工作方式,它怎么来把许可证用下去?

第二个挑战是开源环境所带来的对于执法的规则落地过程当中所带来的大量的避免或者规避的可能性,使得美国人在这个问题上其实是有点心虚的,所以如果法案能够通过,它在落地的时候其实还有很长的一段路要走。

ENFORCE法案是指总统有被授权的可能性,同时基于法律的变化,总统的授权范围可以进一步扩大,商务部进行更具体的规则制定,但商务部在这个问题上面可能没有足够的经验,所以我认为在中短期之内不会对开源生态带来深度的变化,但是它给了美国执法机关带着答案去找题目的可能性。

ENFORCE法案的突破在于总统在AI领域授权的限制,因此如果法案能够通过,执法机关可以通过点状执法的方式,针对某些特定的场景,甚至针对某个特定的企业进行执法,这是存在可能性的,但要根本的改变目前的技术生态,从以往的经验来看,是不会产生如此大而快速的变动。

胡润峰:会不会具体到限制LLaMA开源的层面?

本力:我的基本判断是美国在治理层面上仍把自身的创新、企业发展放在前位,所以美国特别注意防止公权或者治理产生打击创新的问题,因此更侧重对具体行为或者对实体采取针对性措施。所以应该相对客观地看待该法案,不要过于担心或夸大系统性的限制政策带来的全局影响。

第二是我觉得要对开源本身应有客观认识,2014年马斯克宣布特斯拉技术开源,这些专利的开放意味着其他制造商和研发机构可以自由参考特斯拉的技术细节来推进自身的电动汽车技术研发。但特斯拉投入大量的资金研发的技术迅速扩散,从而带动新能源汽车产业能够迅速地发展,最终特斯拉成为全世界这个领域的最大受益者。

从这种思维看,开源在这个方面起的作用在人工智能领域仍会继续发展。再往前看,微软最早进入中国的时候也是困难重重,也做了许多在中国普及计算机的公益营销举措。开源的思路也是如此,通过更多的开源开放促使更多的技术开发者出现,反而巩固了其技术主导的地位,以更大的市场放大了其基础底层能力的输出功能。随着市场的扩大,行业的繁荣,它可以从中获得更大的利益。

坚持周期性原则、宏观审慎原则,坚持敏捷治理、适应性治理

胡润峰:对于目前阶段AI行业进行立法限制,是为时尚早,还是正当其时呢?

吴沈括:大家对于 AI 的重视程度非常高,并有很高的战略期待,也可以认为是一种战略恐惧,所以至少世界主要国家对于 AI 的关注、介入和干预的节奏几乎在同一起跑线上,这就是非常重要的时间节点。很多的发展中国家,比如说今年年初联合国召开关于 AI 的决议工作会时,有非洲国家外交部官员表示,他们全国总共只有 400 台计算机,所以现在谈不上对 AI 有多大的诉求,但是他们知道如果不参加这个会议我们可能就不在桌面上,所以大家都觉得这是一个非常重要的决定未来发展空间和战略高度的重要议题。

另一方面,不同的国家和地区对于AI思路切入点是不同的,比如欧盟的 AI 技术应用不算特别发达,它基于这一基础条件,将对 AI 的治理放在首位,核心关切是能否有效约束美国的头部AI企业。而美国不一样,美国作为技术先发国家,它更注重如何通过强化自身的技术优势来提高自己的技术、经济乃至政治话语权,所以美国的 AI 立法在很大程度上具有双向性,对外要建构一个有效的,有利于自身的 AI 生态,并且对可能所谓的挑战国家做出有效的压制,对内更多地强调如何调配,如何促进公共资源,包括资金,包括其他的监管资源的支持去加速和提高技术优势。所以从这个意义上来看,我们可以预见法案如果通过,在执行的过程当中,它绝对不会伤害到自己。

相比之下,中国更多强调的是一种综合、平衡安全发展的治理理念,而很多国家,比如发展中国家,他们的诉求更多在于发达国家或者先行国家能不能给予有效的技术支持、必要的技术转让、能力建设的支持和资金的帮扶等。所以从这个意义上来讲的话,大家对 AI 的治理的时间取决于自己的价值需求。换句话说,如果以消灭人为目的的人工智能,这样的人工智能不要也罢。所以可以通过以往经验对我们实现人工智能价值诉求和方式进行领域路径设计。

本力:从两个层面来考虑这个问题,第一个层面是创新和治理的周期性,一般来讲新技术兴起后会经历一个创新周期,先是百花齐放,但后面随着问题出现,这时候监管和治理会更多关注并逐步规范,这样可以在一定程度上实现既不影响创新,同时又使技术创新所产生的问题不至于扩大化,即在创新过程中对新的问题进行及时的消化和治理。从治理角度讲,首先应该鼓励创新,因为有了创新才能站在道德制高点进行治理和制定规则,否则这个道德制高点是空中楼阁。

第二是人工智能治理伦理问题,现在的人工智能治理问题虽然很多是通过法案和政策的方式,但实际上背后所涉及的原则是伦理原则。现在很多治理和政策难题本质上是伦理问题,因为很多的问题触及了人类共同的利益底线,被称为底线伦理。在这种情况下,人工智能应该“监管进入”,它既是巨大的商业体,同时也要对涉及到底线的地方执行严格的监管。

我们在去年与钛媒体国际智库联合发布了《2023全球人工智能伦理治理报告》,其中提出了,人工智能应该像金融行业一样秉行宏观审慎原则。一个新的行业在快速发展中的治理,可以参照另外一个成熟且监管要求高,对从业人员的各方面的能力要求也较高的行业。

总体上讲,对于人工智能的治理要坚持,一是周期性原则,二是宏观审慎原则,三是敏捷治理、适应性治理,先把它作为一种软法,等行业成熟之后把它变成硬法,这样的方式可能是相对符合创新和安全性平衡发展的路径。

人工智能具有天然的全球性,治理应该注重国际合作

胡润峰:美国和欧盟出台的一系列对于AI的法案和出口管制动作对于中国的AI产业会有什么影响?

吴沈括:从短期来看,这对于中国 AI 企业的合规动作以及背后的业务模式设计会带来非常大的影响。从目前产业界的意见反馈来看,能够感觉到大家对外部环境的变化是非常关注的,此外人工智能的研发应用应当说是各国治理当中一个非常敏感的议题,所以大家在业务研发的过程当中,特别是如果涉及到跨国合作,可能会更高度地关注,并且会尽可能地提前进行预判。

从更宽视角来看的话,外部环境的变化对于我们的监管环境或者治理生态也会带来直接影响。比如说在域外的一些监管的做法,可能对于我们的治理思路本身产生一些启发,例如欧盟在人工智能法当中对于不同层级的人工智能风险的划分,并且配备专门的合规要求,同样在这个过程当中我们也会考虑到人工智能的分类分级治理问题。

从中长期的角度来看,人工智能似乎具有天然的全球性,所以在这样的情况之下,相比较于网络时代、数据时代,在人工智能时代,我们对于全球性的规则,包括最低要求的协调可能会有更为深刻的需求。从这个角度来看的话,短期内,随着规则的增多,规则的碰撞,各国之间相互潜在的冲突可能是会上升。但是长期来看,由于它的技术属性以及它给我们带来的实际的影响,使得大家会更早地去关注必要的有关人工智能治理基准线的设计。

所以从一定意义上来讲,在人工智背景下,时代的趋势,我们对于治理共同点的关切和核心利益的满足进化速度会更快。

胡润峰:那么从全球范围来看有哪些人工智能的合作?合作取得到哪些共识,又有哪些分歧的地方?

本力:习主席在第三届“一带一路”国际合作高峰论坛提出全球人工智能治理倡议以及去年11月份《布莱切利宣言》在英国发布,都是人工智能的全球重大合作成果。《布莱切利宣言》由包括美国、中国和欧盟在内的28个与会方签署,是全球第一份针对人工智能的国际性声明。最大的共识是AI伦理风险治理问题已经成为了与气候变化、核扩散等相提并论的影响人类共同命运的重大课题。分歧主要是监管应该走多远。

从治理角度看,一项新兴技术的治理首先考虑的是哪些坚决不能做,例如用于战争、诈骗。但我最担心的是AI用于恐怖活动等直接的暴力性行为并快速发展,包括用于激进宣传、煽动情绪、攻击策划和筹集资金等。将AI运用到恐怖活动会使其成为更广泛的行为,可能会将人类多年来在打击恐怖活动的努力摧毁掉。

作为一种新的技术来讲,我们也不应只担心AI会发生哪些风险,同时应该关注人工智能能够怎样更好地促进发展中国家的增长,缓解发展差距。否则可能使各国贫富差距、数字鸿沟等问题更严重。人工智能不能只是单纯的“富人俱乐部”。因此,这也是需要全球治理的一个方面。

所以我觉得有两方面考量:一是防止风险的放大,能够适时地画出人工智能技术应用和发展的红线,能够及时地阻止滥用的悲剧产生;同时,我们也应该让人工智能在国际合作中使所有的人从中受益。

更多宏观研究干货,请关注钛媒体国际智库公众号: