【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

520次阅读
没有评论

点击蓝字

关注我们

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

海外智库洞察 · 十月下

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月31日,战略与国际研究中心发布文章《拜登政府关于人工智能的行政命令(The Biden Administration’s Executive Order on Artificial Intelligence)》。文章概括了该行政命令的要点,其一是高度重视制定关键基础设施标准并使用人工智能工具修复软件,强化了国家网络安全战略中设定的目标;其二是针对潜在漏洞或安全疏忽进行压力测试计划。但文章认为该行政命令虽然提出了人工智能将产生的许多社会问题,例如歧视风险和对工人的影响,但并没有真正解决这些问题。同时,文章指出国会是确保在人工智能安全方面取得进展的最大障碍,尤其在隐私方面,除非国会通过立法,否则行政办公室所能实现的目标是有限的。此外,该行政命令的执行也是一大问题,因为其建立在私营部门巨头此前的自愿承诺的基础上,若无法确保他们对这一议程的支持,政策失败的风险就会很高。

作者:詹姆斯·安德鲁·刘易斯(James Andrew Lewis),美国战略与国际研究中心高级副总裁、普利兹克主席、战略技术项目总监,曾担任四个联合国信息安全政府专家组的高级顾问,目前主要研究各国如何创新和数字化及其政治、经济和安全影响。艾米莉·本森(Emily Benson),美国战略与国际研究中心贸易与技术项目主任,主要关注跨大西洋背景下的贸易、投资和技术问题。迈克尔·弗兰克(Michael Frank),美国战略与国际研究中心瓦德瓦尼人工智能和先进技术中心高级研究员,重点研究地缘政治和先进技术的交叉,曾领导经济学人智库的亚洲技术政策研究,曾在上海美国商会的政府关系部工作。

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月25日,战略与国际研究中心发布文章《从历史上的技术监管中汲取出的有助于人工智能政策制定的四个教训(Four Lessons from Historical Tech Regulation to Aid AI Policymaking)》。文章指出,过去的互联网和社交媒体时代的监管经验可以为美国联邦人工智能规则制定提供四个教训:(1)社交媒体时代的言论争议尚未解决,内容监管可能会粉碎两党在人工智能政策上的共识。尤其是2016年大选后,自由派和保守派对社交媒体监管的看法开始出现分歧。(2)美国反垄断机构已经有权促进人工智能市场的竞争,但可能不愿超越为消费者互联网平台公司设立的先例,因而目前表现好坏参半。而国会必须决定是否应该通过修改法律来改变这一现状,让反垄断机构更容易在法庭上获胜。(3)与前几代软件一样,对人工智能危害的监管也会遇到尚未解决的法律责任漏洞,目前软件责任在法律程序和联邦法律中的定义仍然不明确。(4)目前领先的人工智能公司的诚信努力不应妨碍制定潜在的约束性要求,比如要求企业共享真正有用的风险信息。最后,文章强调,政策设计者不仅要从过去监管互联网和社交媒体的经验中汲取经验教训,也要意识到人工智能作为新兴领域提出了其独特的挑战,同时也带来了新的治理方法的机遇。

作者:迈克尔·弗兰克(Michael Frank),美国战略与国际研究中心瓦德瓦尼人工智能和先进技术中心高级研究员,重点研究地缘政治和先进技术的交叉领域,曾领导经济学人智库的亚洲技术政策研究,曾在上海美国商会的政府关系部工作。

原文链接:https://www.csis.org/analysis/four-lessons-historical-tech-regulation-aid-ai-policymaking

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月31日,美国兰德公司发布文章《各国必须在人工智能和生物技术领域开展合作,否则就会落后(Nations Must Collaborate on AI and Biotech—or Be Left Behind)》。文章指出,人工智能的影响不仅在于其直接应用,还在于其与其他技术的结合,甚至可以创建全新的、颠覆性的行业和技术平台,而且这种情况通常发生在政策真空中,比如基因编辑和机器学习(人工智能的重要组成部分)的融合。本文作者近期的一份新报告《机器学习和基因编辑引领社会进化(Machine Learning and Gene Editing at the Helm of a Societal Evolution)》探讨了前瞻性政策如何既能降低风险,又能利用机器学习和基因编辑技术快速发展带来的机遇。其中分析了技术和政策的发展及其对各个部门和国家的影响,并发现在基因编辑领域,国内政策制定最近主要是针对新发展的反应,例如挑战传统生物学原理的胚胎模型系统。而更积极主动的方法目前只存在在国际和超国家层面,主要关注道德和公共利益。因此,文章强调,各国必须在人工智能和生物技术方面进行合作,否则就会落后。同时,除非国家层面有意愿并创造有利的环境,否则国际机构无法发挥影响力。此外,文章强调了加强沟通和透明度在其中的作用,认为科学界和政府可以共同创造一个环境,围绕技术融合领域进行周密规划并制定政策。

作者:Sana Zakaria,兰德公司研究负责人,在兰德欧洲从事科学和新兴技术工作,研究兴趣和经验涉及新兴生物技术与机器学习和量子技术等其他领域的融合。蒂莫西·马勒(Timothy Marler),兰德公司高级研究工程师、帕迪·兰德研究生院教授,主要研究新兴技术和科技政策,重点关注人体建模和仿真、虚拟现实/增强现实、机器学习、生物技术等。

原文链接:https://www.rand.org/blog/2023/10/nations-must-collaborate-on-ai-and-biotechor-be-left.html

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月27日,世界经济论坛发布文章《人工智能在网络安全中的双刃剑(The double-edged sword of artificial intelligence in cybersecurity)》。文章认为,人工智能和网络安全之间存在着共生关系,随着一方的进步,另一方也会相应地适应和创新。如今,人工智能对网络安全攻防两端都产生了深远影响。一方面,人工智能已成为防御复杂网络攻击的有效工具,显著改进了威胁检测和分析。同时,人工智能驱动的系统擅长识别异常情况和检测看不见的攻击模式,在潜在风险升级之前减轻风险。但另一方面,人工智能的民主化扩大了恶意软件带来的影响范围,并带来了一系列监管挑战,例如生成式人工智能对固有偏见的延续甚至加深,这凸显了以全面框架管理其应用的重要性。文章建议,在关注人工智能未来潜力的过程中,至关重要的是不要忽视基础知识,确保基本的安全实践,例如修补漏洞、运行定期扫描和支持端点,从而可以解决当下的安全问题。

作者:Deryck Mitchelson,全球领先的政府与企业网络安全供应商Check Point软件技术公司(Check Point Software Technologies )欧洲、中东和非洲地区首席信息安全官。

原文链接:https://www.weforum.org/agenda/2023/10/the-double-edged-sword-of-artificial-intelligence-in-cybersecurity/

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月24日,布鲁金斯学会发布文章《语言鸿沟如何限制生成式人工智能的发展(How language gaps constrain generative AI development)》。文章指出,全世界有超过 7000 种语言,但互联网内容主要是用英语和一小部分其他语言编写的。而生成式人工智能工具通常是根据互联网数据进行训练的,这意味着使用这些工具的人可能仅限于英语、西班牙语、中文等数据丰富的语言的持有者。文章提出,弥合数字鸿沟至关重要,因为生成式人工智能的使用增加只会加剧数字语言鸿沟,而数字语言鸿沟的核心是网络不平等的症状。互联网访问受限的社区在网络上的代表性不足会扭曲可用于训练生成式人工智能工具的文本数据。文章建议,应通过缓解偏见来直接解决问题根本,确保人工智能训练数据中更大的语言代表性来弥合数字语言鸿沟。研究人员可以在模型构建和训练数据集的创建中做出针对特定区域或特定语言的选择,尽早让多元化的人参与其中,并邀请当地社区参与,同时应保证这种收集必须保持透明度和一定的护栏,以确保文化专业知识不是可利用的资产。

作者:尼科尔·特纳·李(Nicol Turner Lee),布鲁金斯学会治理研究方向高级研究员、技术创新中心主任,重点研究技术的公平获取以及全球宽带部署和互联网治理问题。Regina Ta,布鲁金斯学会技术创新中心研究实习生。

原文链接:https://www.brookings.edu/articles/how-language-gaps-constrain-generative-ai-development/

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月19日,布鲁金斯学会发布文章《美国及其盟国应与中国就人工智能法律和政策进行接触(The US and its allies should engage with China on AI law and policy)》。文章指出,中国在人工智能监管领域具有先发优势,在不到一年前就实施了人工智能监管架构。在其做法中,中国对西方政策制定者正在努力解决的四个人工智能政策开放问题表明了立场,即“决定建立许可制度”、并“决定不对研究、开发和使用生成式人工智能技术,但尚未向公众提供生成式人工智能服务的公司实行许可制度”、“决定设立单一的人工智能监管机构”、以及“决定要求生成式人工智能服务提供商采取措施提高训练数据的准确性”。文章建议,美国及其盟国在致力于发展自己的监管结构时应该克服地缘政治上的分歧,与中国接触并学习其经验,了解具体监管政策的优缺点,尤其是由单一机构运营的许可制度、对提高训练数据准确性的要求,以及让人工智能模型部署者承担监管非法内容的责任。文章强调,分享监管经验可能是探索是否有可能实现任何形式的全球融合的好方法。

作者:马克·麦卡锡(Mark MacCarthy),布鲁金斯学会技术创新中心治理研究非常驻高级研究员、美国乔治城大学研究生院传播、文化和技术项目以及哲学系兼职教授,专注于研究新兴技术治理、人工智能伦理、隐私、技术竞争政策等问题。

原文链接:https://www.brookings.edu/articles/the-us-and-its-allies-should-engage-with-china-on-ai-law-and-policy/

【海外智库洞察215期】战略与国际研究中心丨拜登政府关于人工智能的行政命令并没有真正解决问题

2023年10月18日,斯坦福大学以人为本人工智能研究所发布文章《引入基础模型透明度指数(Introducing The Foundation Model Transparency Index)》。文章警告,基础模型领域的公司正变得越来越不透明,这会导致其他企业更难知道依赖于商业基础模型的应用程序是否安全,学术界更难依靠商业基础模型进行研究,政策制定者更难设计有意义的政策来控制这种强大的技术,消费者更难了解模型的局限性或针对造成的伤害寻求补救。为了评估基础模型领域的透明度,斯坦福以人为本中心基础模型研究中心(Center for Research on Foundation Models, CRFM)协会负责人Rishi Bommasani和总监Percy Liang召集了一个多学科团队,设计了一个名为“基础模型公司透明度指数”(Foundation Model Transparency Index)的评分系统,从公司如何构建基础模型、模型的工作原理、下游使用方式等方面评估透明度的100个不同方面。该指数对10家主要基础模型公司的评分不容乐观,发现还有很大的改进空间,最高分从 47 分到 54 分不等,而最低分仅为 12 分。(见下图)。文章希望该指数能引起相关方面对这一领域透明度要求的重视,帮助世界各国政府制定政策。

作者:Rishi Bommasani,斯坦福以人为本中心基础模型研究中心协会负责人、斯坦福大学计算机科学博士生;Kevin Klyman,斯坦福大学国际政策硕士生;Shayne Longpre,麻省理工学院媒体艺术与科学博士生;Sayash Kapoor,普林斯顿大学计算机科学博士生;Nestor Maslej,斯坦福 HAI 研究经理兼人工智能指数主编;Betty Xiong,斯坦福生物医学信息学博士生兼 HAI 研究生研究员;Daniel Zhang,斯坦福 HAI 政策倡议高级经理;Percy Liang,斯坦福计算机科学副教授兼以人为本中心基础模型研究中心主任。

原文链接:https://hai.stanford.edu/news/introducing-foundation-model-transparency-index

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考

不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第214期

海外智库丨人工智能国际治理观察第213期

海外智库丨人工智能国际治理观察第212期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

文章检索:周韫斐

编译:朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博

终审:梁正、鲁俊群

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy