【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。
栏目主理人:刘典
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任
英国AI安全峰会01内容摘要:
1.中国计算机科学家姚期智和其他科学家呼吁建立国际监管机构,对前沿人工智能系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者将30%的研究预算用于AI安全建设。
2.美国副总统哈里斯呼吁就人工智能对民主和隐私构成的威胁采取紧急行动,并宣布成立人工智能安全研究所。
3.《金融时报》认为,拜登人工智能行政令比《布莱切利宣言》更为重要。
4.埃隆·马斯克希望建立一个独立的监管方“第三方裁判”,以监督前沿AI巨头,及时发出警告。
【内容标注】
1.中国计算机科学家姚期智呼吁建立国际监管机构,对前沿人工智能系统进行强制注册和审核
11月1日,中国计算机科学家姚期智与多名中国科学家以及蒙特利尔大学的Yoshua Bengio等西方专家在英国布莱切利公园举行的峰会上,共同签署了一份声明,呼吁建立一个国际监管机构,对先进AI系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者将他们30%的研究预算用于AI安全建设。鉴于英国首相苏纳克(Rishi Sunak)为峰会起草的AI安全公报草案并未呼吁各国政府实施具体监管,该声明相较而言更为领先。
来源:金融时报
2.美国外交政策智库卡内基国际和平研究院院长蒂诺·奎利亚尔对媒体表示,只有中国参会,才能证明这是一次真正的全球对话。
2023年11月4日,在英国AI峰会举办期间,中国代表团的出席引人关注,多位专家强调,中国作为在人工智能研发领域领先的国家之一,在应对人工智能风险和机遇的全球讨论中不可或缺。世界知识产权组织数据显示,仅2022年一年,中国机构人工智能专利申请数量就多达29853项,占当年全球人工智能专利申请总量的40%以上。美国外交政策智库卡内基国际和平研究院院长蒂诺·奎利亚尔对媒体表示,只有中国参会,才能证明这是一次真正的全球对话。
来源:新华网
3.埃隆·马斯克称赞苏纳克邀请中国参加英国AI峰会的“明智决定”
2023年11月2日,埃隆·马斯克与英国首相苏纳克在伦敦发表讲话,对中国参与人工智能安全峰会表示欢迎,称苏纳克邀请中国参加峰会的决定是“必要的”,如果中国未能参加此次峰会,那么此次峰会将毫无意义。
来源:Politico
4.美国副总统哈里斯呼吁就人工智能对民主和隐私的威胁采取紧急行动
11月1日,美国副总统卡马拉·哈里斯(Kamala Harris)在参加AI安全峰会前发表了演讲,她表示,目前亟须解决人工智能对民主和隐私构成的威胁。
她强调了要打击人工智能生成语音通话的技术,希望采取数字签名、水印和其他标签技术等措施,以分辨由政府提供的真实内容和由人工智能生成或操纵的内容。
她将为人工智能的开发、测试和使用设定一系列测试,包括:“代码中写入了谁的偏见,符合谁的利益?谁能快速获得了回报,又是谁受到了最严重的伤害或最先受到伤害?”
她还透露,30个国家已同意签署美国发起的关于国家军队使用人工智能的政治宣言。由于绝大多数签署国都是西方国家,这表明人工智能领域或许开始形成新的“冷战”式分歧格局。
她证实了美国商务部将建立美国人工智能安全研究所(US AISI),该研究所将创建指南、开发工具、设立标准和完成最佳实践,用于识别、评估、减轻人工智能风险。
来源:卫报
5.《金融时报》:美国的人工智能行政令比《布莱切利宣言》更为重要
2023年11月3日,《金融时报》称美国要制定人工智能规则。此前拜登政府发布的AI行政令重点关注隐私、安全、歧视和虚假信息等危害,其行政令影响了超过25个政府机构,是迄今为止监管全球AI巨头的最全面尝试。金融时报认为,拜登行政令与毫无约束力的《布莱切利宣言》相比,将产生更为重大的影响。《布莱切利宣言》尚未解决的问题是:当计算机有朝一日在各个领域都可能取代人类时,逐利为本的科技公司是否是发展通用人工智能的最佳机构?一些专家建议,应成立一个类似欧洲核子研究组织(Cern)的国际合作研究机构。《金融时报》还建议,下一次的AI峰会应当优先讨论这个问题。
来源:金融时报
6.埃隆·马斯克:希望设立“第三方裁判”
11月1日,马斯克受邀出席首届人工智能安全峰会,表示希望建立一个“第三方裁判”(third-party referee),以监督前沿AI巨头,并在有安全风险时及时发出警告。他认为,举办人工智能安全峰会的真正目标是建立一个“洞察框架”,这样至少会有一个“第三方裁判”,即一个独立的监管方,可以观察领先的AI公司在做的事项,并在有安全风险时及时发出警告。他还指出,在政府采取监管行动之前,需要先了解AI的发展情况,避免过早地制定规则。
来源:路透社
7. 美国宣布建立人工智能监管机构 不愿将监管权让渡英国
11月1日,美国商务部部长吉娜·雷蒙多(Gina Raimondo)在AI安全峰会上宣布美国将成立新的人工智能监管机构——人工智能安全研究所。她表示,该研究所将制定标准,评估人工智能技术的已知风险和新出现的风险。这证实,即使英国希望将自身定位为人工智能监管领域的全球领导者,英国对于这一敏感议程的控制权也十分有限。尽管英国官员淡化了与美国在人工智能监管上的分歧,但一位科技公司的首席执行官表示,作为世界上最大科技巨头的所在地,美国不希望将其对商业的控制权拱手让给英国。《卫报》指出,美国作为占据技术领先地位的超级大国,不愿事关美国重大战略利益的讨论由他国主导。
来源:金融时报、卫报
8.美国商务部设立美国人工智能安全研究所引领人工智能安全工作
11月1日,拜登政府宣布,美国商务部将通过国家标准与技术研究院成立美国人工智能安全研究所(U.S. Artificial Intelligence Safety Institute, 简写为“USAISI”),领导美国政府在人工智能安全和信任方面的工作。
USAISI将促进人工智能模型安全、安全保护和测试标准制定,制定验证人工智能生成内容的标准,并为研究人员提供测试环境,评估新兴人工智能风险并解决已知影响。
由国家标准与技术研究院领导的USAISI将利用外部专业知识,包括与学术界、工业界、政府和民间社会的合作伙伴合作,促进人工智能安全。此外,USAISI将与盟友和伙伴国家的类似机构合作,如英国人工智能安全研究所,以协调AI领域的工作。
来源:美国商务部网站、路透社
9.英国科学、创新和技术部人工智能和知识产权部长:美国是英国的朋友,它并不想“抢”英国的风头
11月3日,英国科学、创新和技术部人工智能和知识产权部长卡姆·罗斯(Viscount Camrose)对此前《金融时报》称美国通过宣布成立自己的人工智能安全研究所“抢”英国的风头进行回应。他表示,英国和美国关系特殊,是真正的朋友,而真正友谊的关键部分之一是,当你的朋友成功或做了值得称赞的事情时感到高兴。因而,在面对人工智能这一全球性问题时,应该为我们的美国朋友选择在英国发表如此重要的声明感到自豪。
来源:金融时报
10.《南华早报》:人工智能协议表明,尽管存在竞争,中美仍可以在科技监管方面进行合作
2023年11月3日,《南华早报》表示,中国和美国在AI安全峰会上共同签署了一项关于AI的国际协议,共同监管人工智能。莱顿大学亚洲研究中心高级研究员理查德·吉亚西(Richard Ghiasy)表示,这份协议是自2018年以来中美双方签署的第一份国际协议,这非常重要,它意味着两个最大的科技强国已决定为全球利益搁置分歧。
美国也将欢迎人工智能合作,加强与中国的对话,并有望达成更多协议。
新加坡国立大学政治学教授 Chong Ja Ian 表示,人工智能是各国在制定法规方面有共同利益的领域,与气候问题和跨国犯罪类似,人工智能可能是美国和中国必须合作的领域。因为中美人工智能合作符合两国利益,合作有助于防止新兴技术滥用和失控。北京人民大学国际关系学院教授王义桅表示,虽然中美将继续进行战略竞争,但它们共同面对着人工智能等人类共同的挑战,并建议中美交换意见,共同制定全球规则和标准。
来源:南华早报
11.美国国防部发布《数据、分析和人工智能采用战略》
11月2日,美国国防部发布《数据、分析和人工智能采用战略》,以取代2018年的人工智能战略和2020年的数据战略,通过加速数据、分析和人工智能的采用,继续推动国防部数字化转型。
该战略由首席数字和人工智能办公室制定,重点关注以下目标:
投资可互操作的联合基础设施;
推进数据、分析和人工智能生态系统;
扩大数字人才管理;改善基础数据管理;
为企业业务和联合作战影响提供能力;
加强治理,消除政策障碍。
国防部副部长凯瑟琳·希克斯表示,从威慑和防御侵略的角度来看,人工智能系统可以帮助指挥官加快决策速度,提高决策的质量和准确性,这具有战略性意义。
来源:美国国防部网站
13.DeepMind联合创始人指责埃隆·马斯克在英国人工智能峰会上的言论,称其并非人工智能科学家
在11月2日结束的英国人工智能(AI)峰会结束后,Inflection AI的首席执行官、谷歌旗下DeepMind的联合创始人穆斯塔法·苏莱曼在接受BBC采访时对埃隆·马斯克提出了严厉的批评。
据Cointelegraph报道,为期两天的活动结束时,马斯克警告说人工智能最终会取代目前几乎所有的工作,他显然认为这将导致人类难以找到生活的目标。马斯克还讨论了他认为人工智能带来的生存危险,包括人工智能系统需要一个“物理关闭开关”,以便人类控制。
在采访中,苏莱曼表示:“我们需要对这项技术的发展轨迹进行公正、独立的评估。(埃隆·马斯克)并不是人工智能专家,虽然他拥有一家小型人工智能公司,但他还开许多其他公司,其专长其实在太空和汽车领域。”
来源:Cointelegraph
15.科技巨头和政府同意在新人工智能模型发布前进行测试以帮助管理风险
11月2日,人工智能巨头同意与政府合作,在新的前沿人工智能模型发布之前对其进行测试,以监管技术快速发展的风险。英国首相苏纳克在AI安全峰会上表示,美国、欧盟与其他“志同道合”的国家已经与一些从事人工智能前沿研究的公司达成一项里程碑式的协议,根据该协议,科技巨头在部署前沿模型前后都要进行严格的评估和测试。被誉为人工智能教父的Yoshua Bengio将提交一份“科学现状(State of the Science)”的报告,帮助各国增进对未来能力和风险的理解。
来源:路透社
14.英国高官呼吁日本共享AI领域经验
11月1日消息,英国科学、创新和技术大臣米歇尔・唐兰(Michele Donelan)在“人工智能安全峰会”上呼吁日本通过共享AI领域的知识经验为各国提供贡献,并期望日本将在未来主办相似会议,她称:希望日本发挥重要作用。
据唐兰介绍,此次会议聚焦于运用AI时的风险管理,从“恶意滥用”“具有自我意识的AI摆脱人类控制的危险性”“虚假信息扩散和操纵选举对民主构成的威胁”等角度出发,讨论减少风险的对策。
来源:共同社
15.韩国总统尹锡悦线上出席首届人工智能安全峰会
11月3日消息,韩国总统尹锡悦于线上出席英国人工智能安全峰会,同各方探讨确保AI安全应用和构建AI监管治理体系的全球合作方案。尹锡悦发表讲话时指出,ChatGPT等生成式AI使生活更加便利,提高了产业效率,但数字鸿沟使得全球发展不平衡加剧,AI生成的假新闻泛滥,且威胁到了选举等民主制度。
尹锡悦称包括AI在内的数字技术应为发展人类自由做出贡献,而不应对个人和社会安全造成威胁。他强调,每个人都应享有公平竞争和创新的机会,要让全社会公平享受数字红利。尹锡悦还与各国领导人分享了韩国今年9月颁布的《数字权利宪章》的内容,承诺举办AI全球论坛为构建AI全球治理出力,支持联合国设立国际机构,并同此次峰会上各方提议建立的“AI前沿安全科学研究网络”和联合国10月成立的AI咨询机构保持紧密合作。
来源:韩联社
16.新加坡总理:AI发展伦理与使用 各方须加强理解与合作
11月3日消息,李显龙总理应英国首相苏纳克邀请,线上参加在英国举行的人工智能安全峰会。此前他曾发文称,AI领域的迅速发展在改变人们生活的同时,也引发了深刻的伦理问题,人们必须加强对AI伦理以及如何推广相关应用的理解,包括让AI系统了解人类世界的情景与价值观,以此推动不同国家的合作。李总理对英国新成立的人工智能安全研究所表示欢迎,并指出这个机构也会与新加坡在安全测试方面展开合作。他在峰会上发言时介绍,新加坡在这方面已踏出一小步,比如借助AI验证和评估沙盒,降低AI方面的风险。
来源:联合早报
编辑:陶含孜
校审:王祚
终审:梁正 鲁俊群
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG