【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。
栏目主理人:刘典
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任
前言
自英国首相6月7日宣布英国将主办首届人工智能安全全球峰会以来,中国是否会参与该峰会便一直是各方关注的焦点。
2023年11月1日,该峰会在布莱切利园(Bletchley Park)正式开幕。来自各国的100多名政界和商界名人出席,包括美国副总统哈里斯、欧盟委员会主席冯德莱恩、OpenAI的奥特曼、特斯拉的马斯克、谷歌DeepMind的哈萨比斯、Arm的哈斯等。
中国科技部副部长吴朝晖
中国科技部副部长吴朝晖率领由科技部、外交部、中国科学院、阿里巴巴、腾讯组成的代表团参会,并在开幕式全体会议上发言。与会期间,代表团参与了人工智能安全等问题的讨论,宣介了中方几天前提出的《全球人工智能治理倡议》,接下来还会和相关国家开展双边会谈。中国也联署了会议的重要成果文件——关于人工智能国际治理的《布莱切利宣言》。
值得关注的是,本次《布莱切利宣言》中,多条内容都能与中方《全球人工智能治理倡议》中的内容有对应,表明中方的倡议在本次峰会的宣言中多处有体现。
01
内容要点
一、中方《全球人工智能治理倡议》多条内容被纳入《布莱切利宣言》
本次《布莱切利宣言》中,多条内容都能与中方《全球人工智能治理倡议》中的内容有对应
1. 以人为本
《全球人工智能治理倡议》第一条指出,发展人工智能应坚持“以人为本”理念,以增进人类共同福祉为目标,确保人工智能始终朝着有利于人类文明进步的方向发展。
《布莱切利宣言》第一段申明,为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。
2. 尊重他国主权,遵守他国法律
《全球人工智能治理倡议》第二条指出,面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律。
《布莱切利宣言》第九段指出,在开展合作的同时,应认识到做法可能因国情和适用的法律框架而有所差异。
3. 建立风险评估体系
《全球人工智能治理倡议》第五、六条指出,推动建立风险等级测试评估体系,研发主体不断提高人工智能可解释性和可预测性,逐步建立健全法律和规章制度。
《布莱切利宣言》第七段强调,开发前沿人工智能能力的参与者对确保这些人工智能系统的安全负有特别重大的责任,包括通过安全测试系统、通过评估以及通过其他适当措施。
4. 公平、非歧视原则
《全球人工智能治理倡议》第七条指出,要坚持公平性和非歧视性原则。
《布莱切利宣言》第三段指出,应认识到需要解决保护人权、透明度和可解释性、公平、问责、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。
5. 加强国际合作、对话
《全球人工智能治理倡议》第九条倡导,坚持广泛参与、协商一致、循序渐进的原则,密切跟踪技术发展形势,开展风险评估和政策沟通,分享最佳操作实践。在此基础上,通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动多利益攸关方积极参与,在国际人工智能治理领域形成广泛共识。
《布莱切利宣言》第五、六段申明,人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决;酌情就共同原则和行为准则等方法开展合作,重申国际合作应努力让广泛的合作伙伴酌情参与进来,强调所有参与者都可以在确保人工智能安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。并在第八段强调,应对人工智能前沿风险的议程将侧重于建立和保持应对人工智能安全风险的全球共识。
6. 帮助发展中国家
《全球人工智能治理倡议》第十一条指出,增强发展中国家在人工智能全球治理中的代表性和发言权,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。
《布莱切利宣言》第六段指出,应帮助发展中国家加强人工智能能力建设,发挥人工智能的有利作用以支持可持续增长和缩小发展差距。
二、中国等28国联署关于人工智能国际治理的《布莱切利宣言》
来自28个国家的政府代表,以及7个国际多边组织、超过80家学术科研机构、企业和公民组织出席了人工智能安全峰会。
包括中国、美国、英国、欧盟、新加坡、日本、韩国、澳大利亚、巴西、加拿大、智利、法国、德国、印度、印度尼西亚、爱尔兰、以色列、意大利、肯尼亚、沙特阿拉伯、荷兰、尼日利亚、菲律宾、卢旺达、西班牙、瑞士、土耳其、乌克兰、阿联酋在内的多个国家联署了《布莱切利宣言》。
该宣言强调了以人为本的AI发展理念,呼吁各国科研机构、企业等在AI设计、开发和使用过程中,始终以人的福祉为出发点和落脚点,确保AI技术为人类带来实实在在的利益。
同时,《宣言》也警示了AI发展过程中可能带来的伤害,要求各方通过法规等手段,防范和化解相关风险。
三、宣言指出,现在应采取行动在全球范围内安全发展人工智能
1、人工智能应以安全的方式设计、开发、部署,做到以人为本、值得信赖和负责任2、现在应采取行动,以在全球范围内安全发展人工智能3、解决人工智能带来的重大风险是必要且紧迫的4、在人工智能技术快速发展的背景下,需要加深对潜在风险及应对行动的理解
四、宣言指出,人工智能的风险应对需要包容的国际合作,并强调了开发者的责任
1、人工智能的风险需要通过包容的国际合作加以解决2、国家、国际论坛、公司、学术界等所有参与者都可以在确保人工智能安全方面发挥作用3、前沿人工智能开发者对确保人工智能安全负有特别重大的责任
五、宣言指出,为促进更广泛的人工智能国际合作,将支持一个具有国际包容性的前沿人工智能安全科学研究网络
1、在合作的背景下,应对人工智能前沿风险的议程将侧重于:确定共同关注的风险,建立并保持对这些风险共识,制定基于各国国情的政策并酌情开展合作2、建立一个用于政策制定和公益事业的国际人工智能前沿安全科学研究网络,以促进提供最佳的科学支持
3、继续开展包容性的全球对话,推动更广泛的国际讨论和人工智能前沿安全研究
02
全文信息点标注与拆解
以下是《布莱切利宣言》的要点内容和原文标注:
《布莱切利宣言》(中译文)人工智能(AI)带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣。为了实现这一目标,我们申明,为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。我们欢迎国际社会迄今为止在AI合作方面所做的努力,●以促进包容性经济增长、可持续发展和创新,●保护人权和基本自由,●并培养公众对AI系统的信任和信心,●以充分实现其潜力。AI系统已经部署在日常生活的许多领域,包括:●住房、就业、交通、教育、健康、无障碍和司法,●对它们的使用可能会继续增加。因此,我们认识到,现在是一个独特的时刻,需要采取行动,申明安全发展人工智能的必要性,并以包容的方式在我们各国和全球范围内利用人工智能的变革性机遇,造福于人类。这包括用于:●公共服务,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等领域,●实现人权的享有,
●并加倍努力实现联合国可持续发展目标。
除了这些机会,AI也带来重大风险,包括在日常生活领域。为此,我们欢迎●相关的国际努力,●审查和解决AI系统在现有论坛和其他相关举措中的潜在影响,●并认识到需要解决保护人权、透明度和可解释性、公平性、问责制、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。我们还注意到,AI系统操纵内容或生成欺骗性内容的能力可能带来不可预见的风险。
所有这些问题都至关重要,我们确认解决这些问题的必要性和紧迫性。
特别的安全风险出现在“前沿”的AI,即那些能够执行各种任务的高能力通用AI模型,包括:●基础模型,●以及可能表现出与当今最先进模型相匹配或超过现有能力的相关特定狭窄定义的AI。重大风险可能来自潜在的故意滥用,或与按照人类意图行事相关的控制问题。此类问题部分是人类尚未完全理解AI的这些能力,因此难以预测。我们特别关注网络安全和生物技术等领域的此类风险,以及前沿AI系统可能放大虚假信息等风险的领域。这些AI模型最重要的能力可能导致严重甚至灾难性的伤害,无论是故意还是无意的。
鉴于AI的快速和不确定的变化速度,以及在技术投资加速的背景下,我们申明,加深对这些潜在风险的理解,以及加深对应对这些风险的行动的理解,尤为紧迫。
人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决。我们决心●以包容的方式共同努力,●通过现有的国际论坛和其他相关倡议,●确保人工智能以人为本、值得信赖和负责任,●确保人工智能的安全,●并支持所有人的利益,●促进合作,●以应对人工智能带来的广泛风险。在此过程中,我们认识到,各国应考虑采取有利于创新、适度的治理和监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的相关风险。这可能包括●根据国情和适用的法律框架,●酌情对风险进行分类和归类。我们还注意到酌情就共同原则和行为准则等方法开展合作的重要性。关于最有可能在前沿人工智能方面发现的具体风险,我们决心●通过现有国际论坛●和其他相关倡议,包括未来的国际人工智能安全峰会,●加强和维持我们的合作,●并扩大与更多国家的合作,
●确定、理解并酌情采取行动。
所有参与者都可以在确保AI安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。我们注意到包容性人工智能和弥合数字鸿沟的重要性,重申国际合作应努力酌情让广泛的合作伙伴参与进来,并欢迎以发展为导向的方法和政策,以帮助发展中国家加强人工智能能力建设,并利用人工智能的赋能作用来支持可持续增长和缩小发展差距。
我们申明,虽然必须在整个AI生命周期考虑安全,但发展前沿AI能力的行为者,特别是那些异常强大和潜在有害的AI系统,对确保这些AI系统的安全负有特别重大的责任,包括通过安全测试系统、评估和其他适当措施。我们鼓励所有相关行为者就其衡量、监测和减轻AI潜在有害能力及其可能出现的相关影响的计划,提供适当的透明度和问责制,特别是为了防止滥用和控制问题以及其他风险的放大。
在我们的合作范围内,并为了给国家和国际两级的行动提供信息,我们应对前沿AI风险的议程将侧重于:●识别共同关注的人工智能安全风险,建立对这些风险的共同科学和循证理解,并在能力不断提高的情况下,在更广泛的全球方法的背景下保持这种理解,以了解人工智能对我们社会的影响。●根据这些风险,在各国制定各自的基于风险的政策,以确保安全,在适当的情况下进行合作,同时认识到我们的方法可能因国情和适用的法律框架而异。这包括,除了提高私人行为者开发前沿人工智能能力的透明度外,还包括适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。
为推进这一议程,我们决心支持建立一个具有国际包容性的前沿AI安全科学研究网络,该网络包括和补充现有和新的多边、多边和双边合作,包括通过现有国际论坛和其他相关举措,促进为决策和公共利益提供最佳科学。
认识到AI的变革性积极潜力,并作为确保更广泛的AI国际合作的一部分,我们决心维持包容性的全球对话,让现有国际论坛和其他相关举措参与进来,并以开放的方式为更广泛的国际讨论做出贡献,并继续研究前沿AI安全问题,以确保可以负责任地利用技术的好处造福所有人。我们期待2024年再次会面。
【会议官网】https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
协定签署国
澳大利亚
巴西
加拿大
智利
中国
欧盟
法国
德国
印度
印度尼西亚
爱尔兰
以色列
意大利
日本
肯尼亚
沙特阿拉伯
荷兰
尼日利亚
菲律宾
韩国
卢旺达
新加坡
西班牙
瑞士
土耳其
乌克兰
阿联酋
英国
美国
其他国际组织、研究机构、非政府组织和科技企业
Academia and civil society
Ada Lovelace Institute
Advanced Research and Invention Agency
African Commission on Human and People’s Rights
AI Now Institute
Alan Turing Institute
Algorithmic Justice League
Alignment Research Center
Berkman Center for Internet & Society, Harvard University
Blavatnik School of Government
British Academy
Brookings Institution
Carnegie Endowment
Centre for AI Safety
Centre for Democracy and Technology
Centre for Long-Term Resilience
Centre for the Governance of AI
Chinese Academy of Sciences
Cohere for AI
Collective Intelligence Project
Columbia University
Concordia AI
ETH AI Center
Future of Life Institute
Institute for Advanced Study
Liverpool John Moores University
Mila – Quebec Artificial Intelligence Institute
Mozilla Foundation
National University of Cordoba
National University of Singapore
Open Philanthropy
Oxford Internet Institute
Partnership on AI
RAND Corporation
Real ML
Responsible AI UK
Royal Society
Stanford Cyber Policy Institute
Stanford University
Technology Innovation Institute
Université de Montréal
University College Cork
University of Birmingham
University of California, Berkeley
University of Oxford
– University of Southern California
University of Virginia
Industry and related organisations
Adept
Aleph Alpha
Alibaba
Amazon Web Services
Anthropic
Apollo Research
ARM
Cohere
Conjecture
Darktrace
Databricks
Eleuther AI
Faculty AI
Frontier Model Forum
Google DeepMind
Graphcore
Helsing
Hugging Face
IBM
Imbue
Inflection AI
Meta
Microsoft
Mistral
Naver
Nvidia
Omidyar Group
OpenAI
Palantir
Rise Networks
Salesforce
Samsung Electronics
Scale AI
Sony
Stability AI
techUK
Tencent
Trail of Bits
XAI
Multilateral organisations
Council of Europe
European Commission
Global Partnership on Artificial Intelligence (GPAI)
International Telecommunication Union (ITU)
Organisation for Economic Co-operation and Development (OECD)
UNESCO
United Nations
推荐阅读
主理人:刘典
编辑:曹长丹
校审:王祚
终审:梁正 鲁俊群
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG