美国人工智能监管与规范背后的“三家分晋”

667次阅读
没有评论

美国人工智能监管与规范背后的“三家分晋”

【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。

栏目主理人:刘典

复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任

前言

10月30日,美国总统拜登发布了对于美国具有里程碑意义的人工智能监管行政命令,该命令几乎覆盖了目前对于人工智能技术担忧的所有方面,从网络安全到全球竞争。但拜登的行政命令与欧盟和中国的人工智能监管立法不同,而是采取更具有自愿原则和商讨方式的监管规范。

在缺乏联邦层面人工智能立法的背景下,拜登的行政命令即是一种个人政治议程的优先推进也是对国内纷杂意见的妥协。拜登的行政命令规模之大,意在于掩盖和平抚华盛顿人工智能不同派系之间的紧张关系,让每一派都有所满意之处。本文将对目前存在于美国政策圈的三大人工智能派系进行介绍。

美国政策圈的三大人工智能派系

进步派鹰派担忧主义政策远见短期、中期短期、中期、长期长期议题范围国内(主要)、国际国内、国际(主要)国际监管倾向就业歧视、社会歧视、数据隐私、公民权利、大公司监管等金融系统稳定大模型风险、大公司监管发展倾向人工智能伦理、社会观念数据赋能、军事应用、人才移民、国际竞争算法、大模型主要成员民主党、科研机构、科技公司、非营利组织国会鹰派、政府、主要科技公司、国防承包商人工智能科学家、主要科技公司负责人

01

进步派:注重社会危害进步派的主要议程是防止人工智能技术对美国公民的生活和权利造成威胁作为可能的革命性技术,进步人士看到了人工智能的出现可能会对社会进行全方面的改造,包括影响就业公平、加深种族歧视与偏见、破坏民主选举等。人工智能技术是否会导致本身存在种族主义的法律制度不成⽐例地逮捕和惩罚有⾊⼈种?技术是否会让带有性别歧视的招聘系统对⼥性或特定群体打低分?该派更加关注人工智能技术对于社会和公民权利的影响,他们以警觉的目光看待人工智能技术是否会破坏和颠覆工业革命以来人们对于公民权利的争取。著名的人工智能进步派包括计算机科学家乔伊·布尔奥维尼(Joy Buolamwini),她成立了一个“算法正义联盟”,以防止人工智能技术威胁公民权利,推动人工智能生态系统向公平且负责任的方向发展。该联盟督促政策者制定对于人工智能强有力的监管机制,通过持续监控和限制关于技术的滥用行为,并主张让公司和机构承担责任。另一个著名的进步派人士是谷歌的前道德AI团队负责人蒂姆尼特·格布鲁(Timnit Gebru),她也因为一篇有关基于面部识别技术的人工智能可能会造成歧视的研究而被谷歌开除。蒂姆尼特·格布鲁强调大语言模型的社会风险,可能会无意中生成带有歧视和偏见的文本。美国众议院议员伊薇特·克拉克(Yvette Clarke)也是进步派成员之一,她曾推出法案以通过立法来规范政治广告中人工智能的使用。进步派对于人工智能政策的落脚点在于中短期人工智能对于社会的影响,既反对不负责任地发展技术和商业,也反对将精力过于关注人工智能可能的灾难性影响。他们希望将监管机构和立法者的注意⼒重新转移到⼈⼯智能错误信息、监视和不平等所加剧的现有危害上,呼吁发展负责任的⼈⼯智能,进⾏公⺠教育以确保⼈⼯智能的迭代,并让⼈类在⼈⼯智能系统中处于前沿和中⼼位置。

02

鹰派:安全议程优先鹰派的主要议程是防止人工智能技术对美国国家所造成的传统和非传统安全威胁一方面,他们希望美国能处在人工智能技术发展和国际治理的首要位置,将技术作用于提升美国的国家能力和权力,保护美国的国家安全和国际竞争上。另一方面,美国科技巨头和国防承包商则希望借此机会形成新的军工复合体并实现垄断市场,通过将人工智能技术大规模运用在安全议题上产生商业价值。因此,人工智能鹰派往往会鼓吹人工智能技术作为革命性生产力的关键作用,以及其他国家、恐怖组织或个人所掌握和滥用后的巨大威胁。作为人工智能巨头,OpenAI的萨姆·奥尔特曼 (Sam Altman)和Meta的⻢克·扎克伯格 (Mark Zuckerberg)都在推动⼈⼯智能法规的制定,他们认为这些法规将保护人们免受犯罪分⼦的侵害。实际上,此类护栏性和惩罚性法规遵守起来需要付出巨大成本,并且可能会有助于稳固已取得领先地位的科技巨头的市场地位,限制初创企业的竞争。同时,⾕歌前⾸席执⾏官埃⾥克·施密特(Eric Schmidt)、参议院情报主席马克·沃纳(Mark Warner,弗吉尼亚州民主党)希望国防部等军事安全部门能加速采用人工智能技术,他们注重美国国家安全挑战,也向美国政策制定者发出有关国际竞争,特别是中国威胁的信号。鹰派对于人工智能政策的落脚点在于短期、中期和长期人工智能对于国家安全和国际竞争的影响,但鹰派人士不一定是单纯的出于理念原因,更多的是来自于他们所处的利益集团和党派,因为政治或者商业利益而突出人工智能对于安全的威胁。在立法和监管政策上,他们关注人工智能技术相关的犯罪、国家威胁;在产业和国防政策上,他们支持人工智能技术的迅速发展、人工智能巨头的国际竞争、美国作为人工智能全球治理主导者的地位、人工智能武器化和军事化。

03

长期与担忧主义:技术引发的巨大威胁人工智能担忧主义者认为人工智能技术终将对人类带来灾难性影响。如同核武器一样,人工智能技术本身带有毁灭性力量,涉及到的危险包括人工智能自主意识、人工智能对人类的不可预测的威胁等。对担忧主义者来说,简单的法律规范可能没法控制住巨大力量的灾难性影响,而暂停技术的发展或许是一个有效但无法实现的选项。贾恩·塔林(Jaan Tallinn)在2012年在英国剑桥成立了著名的存在风险研究中心,关注先存的巨大风险,包括气候变化和人工智能。塔林认为先进人工智能带来的风险是重要且紧迫的,因为人工智能技术的发展速度超过人们的想象,也因此他希望美国政府能发布行之有效的举措,包括要求所有人工智能实验室报备大型人工智能实验。2023年3月22日,未来生命研究所发布了一封超过三万人签署的暂停大型人工智能实验的公开信,其中包括埃隆·马斯克、许多顶尖的人工智能研究人员和专家以及多家人工智能公司的首席执行官。未来生命研究所是一家由马斯克基金会资助,旨在保护人类免受科技危害的非营利组织。埃隆·马斯克认为,如果人工智能超越人类,可能会危及人类的生存。在2014年接受CNBC采访时,他就强调人工智能是对人类文明的最大威胁,甚至预测类似于著名电影系列《终结者》中发生的可怕后果。人工智能担忧主义者聚焦于人工智能技术对于人类的长期危害,以国际主义和反乌托邦视角看待人工智能技术的危害。人工智能长期担忧主义者并不关注进步派提到的中短期社会影响,而带着更多技术视角看待人工智能的潜力和威胁。相比起人工智能鹰派,长期担忧主义者也不采用民族国家视角,并不以国际竞争和国家安全作为主要叙事内容。

04

“三家分晋”:混乱的人工智能意见场目前,拜登的行政命令对人工智能采取的治理和规范反映出了上述三个派系的许多担忧,不管是对民主党至关重要的进步选民和组织,还是OpenAI 等顶级科技公司,又或是政府内部的国际竞争担忧。在进步主义的议题范围,行政命令提到了联邦机构如何采取措施尽量减少人工智能带来的现实问题,指示劳工部深入研究人工智能导致大量失业的可能性;责成消费者金融保护局和住城市发展部解决人工智能如何加剧银行和住房部门的歧视问题;并要求管理和预算办公室和其他机构确定政府如何在不损害数据隐私的情况下使用人工智能。在鹰派的议题范围,行政命令也提到了人工智能的国家安全和国际竞争。行政命令要求国务院、国土安全部和其他联邦部门增加拥有先进科学技术技能的移民数量,采取额外措施来增强美国在人工智能领域的全球竞争力,着眼于与中国日益激烈的高科技竞争。而对于长期担忧主义者,该命令提出了一个关键优先事项。它要求最先进人工智能系统的公司定期向华盛顿提供进展报告,包括有关他们用于训练人工智能的微芯片集群的详细信息,以监测和监管人工智能技术的发展。目前,进步派、鹰派和担忧主义者都尝试主导美国的人工智能立法进程。毫无疑问,三家对于人工智能治理存在一定的重叠区域,不仅是因为部分派别背后的群体可能是同一群人,也是因为监管内容的重叠性。许多担忧主义者都是顶级的人工智能科学家和科技巨头的研究人员,而进步派人士可能来自政党、科研机构和科技公司,鹰派则既存在于政党、政府、国防承包商和科技巨头中。比如在增加具有科技背景的移民政策问题上,支持鹰派的科技公司和跨越派系的民主党派人士将会达成共识。在人工智能对银行和金融市场影响问题上,注重安全的鹰派也能和注重社会危害的进步派找到合作余地。在增加人工智能公司透明度和数据披露问题上,进步派则能和担忧主义者达成共识。在部分问题上,三个派系可能会发生激烈的冲突。一方面,在人工智能技术的发展问题上,鹰派和担忧主义者存在冲突。鹰派希望能迅速推进人工智能技术的研究和应用,而担忧主义者则会主张审慎与放缓。比如在是否支持暂停大型人工智能实验六个月公开信问题上,鹰派更加担心暂停美国的人工智能发展是否会使得其他国家赶超美国。另一方面,基于商业利益和市场占有率竞争,人工智能初创公司和科技巨头可能会在市场公平竞争、高成本护栏规范问题上产生矛盾。同时基于政党利益和选票问题,民主党和共和党、鹰派和进步派,更有可能在国家安全与安全的技术发展问题上发生争端。在面对中国问题上,鹰派注重国家安全和全球竞争领域,可能会对中国提出更威胁和严峻的要求和挑战,甚至不惜鼓吹中国威胁,而进步派人士则会在全球治理等问题上普及美国标准,与中国展开全球治理的竞争与合作。

来源:纽约时报、POLITICO、美国政府及议员官方网站等

https://www.nytimes.com/2023/09/28/opinion/ai-safety-ethics-effective.html;

https://www.politico.com/news/2023/10/30/bidens-executive-order-artificial-intelligence-00124395.;

https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/;

https://www.forbes.com/sites/calumchace/2023/04/26/the-ai-suicide-race-with-jaan-tallinn/;

https://chinese.aljazeera.net/technology/2023/4/4/%E5%9F%83%E9%9A%86%E9%A9%AC%E6%96%AF%E5%85%8B%E4%B8%BA%E4%BD%95%E7%9C%9F%E6%AD%A3%E6%8B%85%E5%BF%A7%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E7%9A%84%E5%8F%91%E5%B1%95;

https://futureoflife.org/open-letter/pause-giant-ai-experiments/;

https://clarke.house.gov/clarke-introduces-legislation-to-regulate-ai-in-political-advertisements/;

https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/. 

主理人丨刘典

文案丨卢的排版丨赵杨博

校审丨王祚

终审丨梁正 鲁俊群

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy