点击蓝字
关注我们
海外智库洞察 · 十月上
新美国安全中心
Center for a New American Security
「芯片制裁存在管制漏洞,应通过云基础设施来监管人工智能」
2023年10月7日,新美国安全中心发布《云可以解决美国的人工智能问题(The Cloud Can Solve America’s AI Problems)》。文章回顾了过去一年来拜登政府对输往中国的半导体芯片和芯片制造设备实施的全面出口管制,并指出,这些广泛的限制可能会损害美国公司的市场主导地位,削弱未来人工智能治理关键杠杆的可持续性。文章还指出,目前的出口管制漏洞太多,无法成为减缓未来高风险人工智能系统扩散的可靠方法。因而,文章建议采用一种新的监管方法:通过云来管理人工智能计算,即专用人工智能芯片应通过安全、可信且广泛共享的云基础设施进行访问。同时,文章提醒,在管理这些系统时,政策制定者必须平衡两个方面的利益,即尽可能广泛地分配其使用带来的好处,同时限制恶意行为者造成伤害的能力。此外,文章表示,未来人工智能风险的性质存在很大的不确定性,硬件治理可以为应对新兴挑战提供一个灵活的平台。并且当前建立正确的治理机制将为监管未来强大的人工智能系统提供灵活性。因此美国及其盟国应开始为有效的基于硬件的治理框架奠定基础。
作者:保罗·沙瑞尔(Paul Scharre),新美国安全中心执行副总裁兼研究总监,曾在美国国防部长办公室工作,在制定无人和自主系统以及新兴武器技术政策方面发挥了主导作用。
Tim Fist,新美国安全中心技术和国家安全项目的研究员,重点研究使用计算硬件的人工智能治理。
原文链接:https://www.cnas.org/publications/commentary/the-cloud-can-solve-americas-ai-problems
战略与国际研究中心
Center for Strategic and International Studies, CSIS
「成功的人工智能监管设计有十个关键参数,且美国将采取与欧洲不同的监管模式」
2023年10月10日,美国战略与国际研究中心发布《人工智能监管即将到来——可能的结果是什么?(AI Regulation is Coming- What is the Likely Outcome?)》。文章提出了成功的人工智能监管设计的十个关键参数以及可能的结果。这些参数包括:(1)透明度、公平性、可解释性、安全性和信任作为首要目标;(2)基于风险的方法;(3)降低风险并解决恶意行为者;(4)创新和预先批准;(5)数据流动、数据隐私、数据安全;(6)给予具体产业的新法律;(7)制度性方法;(8)奖励惩罚制度;(9)明确的监管范围;(10)国际协调。根据对这十个关键参数的分析,文章认为,不同于欧洲广泛的人工智能法案,美国很可能会采取一种分散的自下而上的方式,虽然一开始会很混乱,存在差距和不一致,但随着时间的推移,可能会最终产生一套拼凑而成且基于特定机构专业知识的人工智能规则,这会更适合激励创新。
作者:比尔·怀曼(Bill Whyman),美国战略与国际研究中心战略技术项目非常驻高级顾问,任亚马逊网络服务高级经理,曾任白宫国家安全委员会和国家经济委员会国际经济主任,曾在白宫科技政策办公室和美国贸易代表办公室任职。
原文链接:https://www.csis.org/blogs/strategic-technologies-blog/ai-regulation-coming-what-likely-outcome#:~:text=The%20most%20likely%20outcome%20for,over%20the%20next%20few%20years.
战略与国际研究中心
Center for Strategic and International Studies
「欧洲云服务网络安全认证计划违法世贸规则,有损美国科技公司利益」
2023年9月1日,战略与国际研究中心发布《欧洲云服务网络安全认证计划(The European Cybersecurity Certification Scheme for Cloud Services)》。文章认为,欧盟委员会提出的欧洲云服务网络安全认证计划(European Cybersecurity Certification Scheme for Cloud Services)对美国云服务提供商未来在欧洲的成功构成了威胁,并将损害它们在其他全球市场的利益。对此,文章指出,如果美国官员不能与欧盟中志同道合的成员国一起提出强烈反对意见,那么在法国、西班牙和意大利的积极推动之下,欧盟将采取行动使这些很可能违反世贸组织规则的法规最终落实。为避免进一步歧视美国供应商,文章建议美国贸易官员应坚持要求欧盟网络安全局重新评估该计划是否符合国际法。文章还表示,鉴于该计划或将降低欧洲公司获得高质量网络安全服务的能力,并进一步削弱欧洲在许多领域的全球竞争能力,从而造成安全风险,因此欧盟还应评估该计划对欧盟企业和国家安全可能造成的意外后果。
作者:梅雷迪斯·布罗德本特(Meredith Broadbent),战略与国际研究中心非常驻高级顾问、美国国际贸易委员会前主席。
原文链接:
https://www.csis.org/analysis/european-cybersecurity-certification-scheme-cloud-services
布鲁金斯学会
Brookings Institution
「监管机构正在形成人工智能监管策略工具箱」
2023年10月9日,布鲁金斯学会发布《人工智能监管工具箱:政府如何发现算法危害(The AI regulatory toolbox: How governments can discover algorithmic harms)》,文章指出,随着人工智能立法的进步,一些监管机构正在尝试收集有关算法系统及其潜在社会影响的信息。此类尝试开发了一个人工智能监管策略工具箱,这些潜在的干预措施包括透明度要求、算法审计、人工智能沙箱、利用人工智能保证行业以及欢迎举报人。其中每个策略都有不同的优点和缺点。为了更好地为人工智能政策制定提供信息,监管机构应该了解这些工具,并制定强有力且持久的战略来收集信息,以便制定明智的决策、监督和执法行动。总的来说,文章认为这一监管工具包将成为未来的人工智能治理的基础。
作者:亚历克斯•恩格勒(Alex C. Engler),布鲁金斯学会治理研究研究员,专注于研究人工智能和新兴数据技术对社会和治理的影响。
原文链接:https://www.brookings.edu/articles/the-ai-regulatory-toolbox-how-governments-can-discover-algorithmic-harms/
卡内基国际和平基金会
Carnegie Endowment for International Peace
「对即将成立的欧盟未来人工智能办公室的三方面建议」
2023年10月3日,卡内基国际和平基金会发布《致欧盟未来人工智能办公室的一封信(A Letter to the EU’s Future AI Office)》。文章指出,作为正在起草的《人工智能法案》计划成立的机构,欧盟未来人工智能办公室(EU’s Future AI Office)将在为决策者提供建议和协调方面发挥核心作用,文章希望这一即将成立的机构关注三个领域:制定统一标准、《人工智能法案》的修订及法庭执行。首先,制定统一标准方面,文章建议该办公室为标准迭代并提高特异性做出贡献,并帮助确定哪些规范性决策适合包含在标准中,同时在必须做出规范性判断时提供帮助。在修订《人工智能法案》方面,文章建议密切关注与《人工智能法案》有特别复杂关系的其他法案,可能需要修改其他法案来配合《人工智能法案》的实施,另外办公室可以向欧盟委员会就授权行为提出建议,尽可能保持独立性,避免被利益团体所影响。最后,《人工智能法案》的执行将不可避免地在国家和欧盟层面的法庭上进行,文章建议该办公室关注涉及人工智能的法庭诉讼,发现《人工智能法案》在保障基本权利方面的差距。并通过监控法律诉讼中技术证据的披露,帮助司法部门了解哪些损害是可预测的,哪些损害不可预测。
作者:Hadrien Pouget,卡内基国际和平基金会技术与国际事务项目副研究员,重点研究欧盟的人工智能法案以及技术标准在人工智能治理中发挥的作用。
Johann Laux,牛津大学牛津互联网研究所的英国科学院博士后研究员,主要研究人工智能和大数据等新兴技术对法律、社会和政府的影响。
原文链接:https://carnegieendowment.org/2023/10/03/letter-to-eu-s-future-ai-office-pub-90683
乔治城大学安全与新兴技术中心
Center for Security and Emerging Technology, CSET
「各国对人工智能治理常见原则的定义有所出入,或将影响未来国际治理」
2023年10月,美国乔治城大学安全与新兴技术中心发布《值得信赖的人工智能的伊尼戈·蒙托亚问题:国家指导文件比较(The Inigo Montoya Problem for Trustworthy AI (International Version):Comparing National Guidance Documents)》。文章指出,澳大利亚、加拿大、日本、英国和美国在其高级人工智能政策文件中都强调了问责性、可解释性、公平性、隐私性、安全性和透明度原则。尽管措辞相同,但这些国家对每项原则的定义略有不同,这可能会对互操作性和国际规范的制定产生重大影响。该研究发现,所有国家都重视问责制,但各国对于谁应该承担责任的问题各不相同。对问责程序的及时性或赔偿期望的不同期望将使国际交流变得复杂。在可解释性和可理解性方面,各国在两个核心问题,即解释的受众以及该解释的预期主题上存在分歧。一些国家对哪些受众需要解释有具体指导,而另一些国家则比较宽泛和模糊。在公平问题上,偏见和歧视是普遍关注的问题。公平的定义取决于文化和背景。即使在这里研究的五个盟友中,对于受影响用户参与定义公平或追究不公平系统责任的期望也存在差异。在隐私方面,对于隐私的定义、如何实现隐私以及谁负责保护隐私等内容各国也存在差异。在透明度和公平性方面,所有国家都清楚地认识到,如果不能在交互前征得用户的同意,至少需要向用户披露他们正在与人工智能系统进行交互。然而,并非所有国家都同意在何种情况下需要披露或征得同意。安全方面,通常与其他数据和网络安全政策密切相关,且并非所有国家都明确将恶意攻击列入其担忧清单中。
作者:埃米莉亚·普罗巴斯克(Emelia Probasco),美国乔治城大学安全与新兴技术中心高级研究员,主要研究人工智能的军事应用,曾任约翰·霍普金斯大学应用物理实验室首席通信官和通信部门负责人。Kathleen Curlee,美国乔治城大学安全与新兴技术中心研究分析师,专注于人工智能的国家安全应用。
原文链接:https://cset.georgetown.edu/publication/the-inigo-montoya-problem-for-trustworthy-ai-international-version/
世界经济论论坛
World Economic Forum
「应在人工智能产品生命周期各阶段融入多样化的观点」
2023年10月4日,世界经济论论坛发布《迈向负责任的人工智能:为什么建立多元化的声音对于保护其安全性和公平性至关重要(Towards responsible AI: Why building diverse voices is essential to guard its safety and fairness)》。文章指出,人工智能技术现在正进入一个新的、更复杂的阶段,我们需要新的护栏来确保它以安全和公平的方式发展。实现这一目标的最佳方法是限制人类偏见渗透到技术中,这需要大量的工作和投资。理想情况下,多样化的观点应该从一开始就融入到人工智能产品的生命周期中,但技术、人工智能和数据科学的多样性仍然是一个挑战,因而创造性的解决方法是利用公司在各个产品生命周期阶段的员工资源组(Employee Resource Groups, ERGs),并通过教育等举措来增加该领域的多样性,同时为开发人员、数据科学家等参与者提供培训,提高他们对偏见的存在和影响的认识,并为他们提供减少偏见的方法。
作者:Diya Wynn,亚马逊网络服务Responsible AI高级实践经理,领导该团队制定负责任地使用人工智能/机器学习和数据的标准,促成了亚马逊网络服务使用的负责任的人工智能框架。
原文链接:https://www.weforum.org/agenda/2023/10/responsible-ai-requires-more-than-technical-solutions/
加拿大国际治理创新中心
Centre for International Governance Innovation
「人工智能护栏应遵循“要信任,但也要查证”原则以防止不良行为者的侵害」
2023年10月11日,加拿大国际治理创新中心发布《迫切需要人工智能护栏,但这只是一个开始(AI Guardrails Are Urgently Needed, but That’s Just a Start)》。文章认为,人工智能力量不受控制的增长可能会促使科技巨头拥有比目前更多的力量,并有可能对全球治理、地缘政治和社会凝聚力产生非凡的影响。尤其是在任何大型软件开发中,即使最初是由第三方认证的,未被发现的错误或偏见也可能会产生意想不到的后果。因此,人工智能发展的护栏和监管不仅必须覆盖守法的企业、个人和所有其他群体,而且还必须保护其免受不良行为者的侵害。文章建议“要信任,但也要查证(trust but verify)”的概念应该成为人工智能治理和风险缓解的核心,这源自国际标准化组织目前为制定以人工智能为重点的标准所做的努力。来自受信任的独立机构的第三方认证可以在确保算法按预期运行方面发挥作用。文章还表示,并没有什么灵丹妙药可以防止人工智能模型成为不可阻挡的失控列车,但这一将自愿护栏和可执行立法相结合的行动将是阻止人工智能模型失控的开始。
作者:Eli Fathi,加拿大金融科技公司MindBridge Analytics董事会主席。Peter MacKinnon,加拿大渥太华大学工程学院高级研究员。
原文链接:
https://www.cigionline.org/articles/ai-guardrails-are-urgently-needed-but-thats-just-a-start/
「加拿大需要一个人工智能机构来提供连贯的人工智能治理」
2023年10月5日,加拿大国际治理创新中心发布《加拿大需要一个人工智能机构(Canada Needs an Artificial Intelligence Agency)》。文章认为,目前的人工智能技术突破对加拿大政策至少产生三个重大影响:首先,机器知识资本将影响国家经济的各个部门,引发公众关注的各个方面的问题。其次,由于加拿大部署的所有人工智能资产都将依赖于进口,因而加拿大将成为标准的接受者,而不是标准的制定者。第三,加拿大将面临人工智能领域人才的严重短缺。这三方面影响共同要求加拿大人工智能机构现在就开始提供连贯的治理。然而,加拿大的《人工智能与数据法案(Artificial Intelligence and Data Act, AIDA)》没有设立一个人工智能机构来支持法规的制定和实施,提供售后市场监督,并在国际论坛上代表加拿大,这是一个应该填补的空白。并且文章认为这个人工智能机构理应与新的国家安全委员会和新的经济委员会共同运作。
作者:丹·奎利雅克(Dan Ciuriak),加拿大国际治理创新中心高级研究员,研究加拿大国内创新与国际贸易和投资之间的联系。Anna Artyushina,加拿大多伦多城市都会大学城市与区域规划学院数字治理领域的博士后研究员。
原文链接:https://www.cigionline.org/articles/canada-needs-an-artificial-intelligence-agency/
清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考
不代表本机构立场和观点
往期回顾
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
编译:周韫斐
审核:何嘉钰
排版:赵杨博
终审:梁正、鲁俊群