人工智能立法遥遥无期能否主导全球AI?一文梳理美国人工智能治理发展脉络

515次阅读
没有评论

人工智能立法遥遥无期能否主导全球AI?一文梳理美国人工智能治理发展脉络

【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。

栏目主理人:刘典

复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任

前言

上周末,欧盟刚刚就《人工智能法案》(下称《法案》)的细节达成一致,并将尽快推进《法案》的实施工作。该《法案》将进一步全面监管人工智能技术的构建与使用,直接对使用人工智能技术的公司,如谷歌和Open AI等产生重大影响。相比起中国8月出台的《生成式人工智能服务管理暂行办法》和此前的《互联网信息服务算法推荐管理规定》与《互联网信息服务深度合成管理规定》,欧盟的《法案》是目前对于人工智能技术最全面的管理办法,包括了禁止使用性取向和种族等敏感特征来识别人们的生物识别系统、从互联网上不加区别地抓取面孔等限制性规定。

与中国和欧盟不同,美国在人工智能立法方面几乎没有进展。到目前为止,围绕人工智能的唯一立法是纽约市第144号地方法,该法要求对自动化招聘流程进行偏见审计。而如加利福尼亚州和新泽西等其他州,也已经有议员提出和推进围绕人工智能等立法。

在联邦层面,美国的人工智能立法还遥遥无期,因此拜登政府尝试通过发布行政命令的方式先行推进对于人工智能的风险防范措施。2022年10月,美国白宫科技政策办公室(OSTP)发布《人工智能权利法案蓝图》,为美国之后的行政与立法端的限制举措提供指导方向。2023年10月,拜登发布“关于安全、可靠和值得信赖的人工智能”的行政命令。本文将对美国目前的人工智能技术管理办法进行梳理。

人工智能立法遥遥无期能否主导全球AI?一文梳理美国人工智能治理发展脉络

联邦层面:利用行政手段先行制定强制性规范

01
《人工智能权利法案蓝图》

日期:2022年10月4日

形式:非约束性原则

目标:形成社会指南,指导自动化系统的设计、使用和部署,以在人工智能时代保护美国公众。

内容:

  • 建立安全和有效的人工智能系统
  • 建立算法歧视保护措施
  • 保护数据隐私
  • 强调通知和透明度的重要性
  • 鼓励开发选择退出机制

评价:该非约束性原则是一份“框架性”和“起点式”文件,为后续美国政府和立法者确立了监管方向,但缺乏细节和具体实施。来源:https://www.whitehouse.gov/ostp/ai-bill-of-rights/
02
关于安全、可靠和值得信赖的人工智能”的行政命令

关于安全、可靠和值得信赖的人工智能”的行政命令

日期:2023年10月30日形式:行政命令目标:为人工智能安全和保障制定了国内新标准,保护美国人的隐私,促进公平和公民权利,维护消费者和工人的利益,促进创新和竞争,提升美国在人工智能全球治理的领导地位。内容:

  1. 设立人工智能安全新标准,保护美国公民免受人工智能潜在风险:

(1)领先的人工智能系统的开发者与美国政府共享其安全测试结果和其他重要信息;(2)制定标准、工具和测试机制,以帮助确保人工智能系统的安全、可靠和可信;(3)通过制定强有力的生物合成筛选新标准,防范利用人工智能设计危险生物材料的风险;(4)通过制定检测人工智能生成内容和验证官方内容的标准和最佳实践,保护美国人民免受人工智能带来的欺诈和欺骗;(5)建立先进的网络安全计划,开发人工智能工具,发现并修复关键软件中的漏洞;(6)制定一份国家安全备忘录,指导有关人工智能和安全的进一步行动。

  1. 更好地保护美国公民的隐私:

(1)优先考虑采用联邦支持,加快开发和使用隐私保护技术,包括使人工智能系统在训练的同时保护训练数据隐私的技术;(2)加强隐私保护研究和技术发展,如加密工具,为研究协调网络提供资金支持,以推动快速突破和发展;(3)评估各机构如何收集和使用商业可用信息,并加强联邦机构的隐私指导,以兼顾人工智能;(4)为联邦机构制定指导方针,以评估隐私保护技术的有效性。

  1. 促进公平和公民权利
  2. 保护消费者、患者和学生
  3. 支持工人
  4. 促进市场创新和竞争
  5. 提升美国在海外的领导力:

(1)扩大双边、多边和多利益相关方参与,以在人工智能领域开展合作;(2)与国际合作伙伴和标准组织一起加快重要人工智能标准的开发和实施 ,确保技术安全、可靠、可互操作;(3)促进人工智能在国外安全、负责任和维护权利的发展和部署,以解决全球挑战。

  1. 确保政府负责任且有效地使用人工智能

评价:该命令为美国迄今为止最全面的人工智能监管原则,在签署命令之前,拜登政府已与美国七家最领先的人工智能公司充分讨论并取得这些公司的自愿遵守承诺。该举措是拜登政府在缓慢的立法进程与人工智能技术迅速发展所带来技术风险之间的平衡,也是保持美国人工智能公司全球领先地位与预防过度发展所带来的潜在社会危害之间的平衡。来源:https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

州层面:围绕人工智能的立法举措

01
纽约市地方法 144 (NYC 144)日期:2023年7月5日形式:立法目标:限制雇主对于自动招聘决策工具(AEDT)的使用内容:使用自动招聘决策工具或“AEDT”协助决策的雇主必须确认此类工具已经历“偏见”审计。(NYC 144将AEDT 定义为“源自机器学习、统计建模、数据分析或人工智能的任何计算过程,该过程发出简化的输出,包括分数、分类或建议,用于实质上协助或取代自由裁量权做出影响自然人的就业决定的决策。”)评价:该立法是美国第一个围绕人工智能的立法。该立法侧重于人工智能对于美国公民权利的影响,落脚点在于人工智能对于招聘环节和就业歧视的影响。NYC 144关注的是工具的结果,而不是工具如何实现这些结果。根据NYC 144可以看出,美国在未来的人工智能立法中可能更加关注人工智能技术的影响而不是人工智能参与过程的系统或者机制,因为影响更容易衡量。对于企业来说,人工智能技术的使用将会使他们面临更多的合规风险。来源:https://www.natlawreview.com/article/nyc-s-local-law-144-and-final-regulations-regulation-ai-driven-hiring-tools-united
02
其他算法、隐私等相关立法加利福尼亚州:《加州消费者隐私法案》管辖分析和自动决策。康涅狄格州:《隐私法案》(CTPA),如果分析是为了促进产生法律或其他类似重大影响的自动决策,则消费者有权选择退出。科罗拉多州:《保护消费者在保险实践中免受不公平歧视》、《隐私法》(CPA)消费者有权选择不处理其个人数据,以“进行分析以促进产生法律或类似重大影响的决策”。伊利诺伊州:《人工智能视频面试法案》印第安纳州:《参议院法案5规范个人信息的收集和处理等数据使用,规定分析和自动决策的规则。马里兰州:《众议院法案1202禁止雇主在求职者的就业前面试期间使用面部识别服务来创建面部模板。蒙大拿州:《消费者数据隐私法》规范数据使用、个人信息的收集和处理、分析和自动化决策等。田纳西州:《参议院法案73及配套法案《众议院法案1181强制执行与“分析”相关的数据保护评估。德克萨斯州:《众议院法案1844弗吉尼亚州:《弗吉尼亚消费者数据保护法案》(VCDPA) 规定了分析和自动化决策的规则。
03
其他的人工智能相关拟议立法纽约(提议):A00567 号法案将要求雇主每年进行不同的影响分析。不同的影响分析可以用作司法部长发起调查的证据。新泽西州(拟议):A4909 法案将要求销售自动化就业决策工具的企业 (i) 在销售该工具的过去一年内进行偏差测试,(ii) 向购买者免费提供年度偏差审计服务,并且( iii) 通知该工具须遵守待定的国家立法。加利福尼亚州(提议):AB331 法案将要求自动化决策工具的部署者对雇主使用的任何自动化决策工具进行影响评估。马萨诸塞州(提议):H.1873 法案将要求雇主完成算法影响评估,以评估自动决策系统潜在的歧视风险。加利福尼亚州参议员斯科特·维纳 (D-San Francisco) 推出了SB 294,即《人工智能安全法案》。SB 294 为加州提供了一个框架,以确保人工智能模型在其境内的安全开发。新泽西州议员萨达夫·贾弗 (Sadaf Jaffer)推出S1926,旨在规范招聘决策中自动化工具的使用,以尽量减少就业歧视。该法案将禁止自动化就业决策工具,除非该工具 (1) 在过去一年内接受过偏差审计,(2) 将接受年度偏差审计服务,且购买者无需支付额外费用该工具的信息,以及 (3) 包含该工具受法律规定约束的通知。

产业层面

01
成立“人工智能联盟”

(IBM、Meta等全球50多个企业、学术机构、非政府组织、政府组织、国际组织)

日期:2023年12月5日形式:开放参与目标:支持人工智能领域的开放创新和开放科学,建立开放社区内容:

  1. 开发和部署基准和评估标准、工具和其他资源,以便在全球范围内负责任地开发和使用人工智能系统。
  2. 负责任地推进具有多种模式的开放基础模型生态系统。
  3. 促进关键支持软件技术的贡献和采用,培育充满活力的人工智能硬件加速器生态系统。
  4. 支持全球人工智能技能建设和探索性研究。让学术界参与进来,支持研究人员和学生学习并为重要的人工智能模型和工具研究项目做出贡献。
  5. 开发教育内容和资源,让公众讨论和政策制定者了解人工智能的好处、风险、解决方案和精准监管。
  6. 发起倡议,鼓励以安全和有益的方式开放人工智能发展。

评价:该联盟的成立意味着以一种非政府路径促进人工智能的发展、监管与国际合作。值得注意的是,联盟的初创者中并不包含微软、谷歌和Open AI公司,因此该联盟可能暗示了一种潜在的产业界自我和互相监督的监管路径。目前微软和谷歌公司对于人工智能技术的开发和使用相对封闭和不透明,未来更可能建立起对于其他公司的巨大优势。因此,一方面该联盟显示了与微软和谷歌不同的人工智能发展理念,另一方面也隐含了人工智能领域积累的商业和技术竞争。来源:https://thealliance.ai/news

当前人工智能监管的三种代表框架与美国的监管路径预测

目前人工智能技术的全球监管格局高度分散,并未形成统一的监管方式和内容。全世界的人工智能监管规范以欧盟、美国和中国形成三种代表框架。

欧盟:预防性法律

《法案》的目标是针对人工智能制定相关风险的预防性法规,重点关注五个主要优先事项:人工智能的使用应该安全、透明、可追溯、非歧视和环境友好。《法案》根据人工智能相应的风险创建了一个浮动监管范围,旨在对风险最高的人工智能系统施加最严格的限制。该法律将根据四个级别对人工智能工具进行分类:不可接受的风险、高风险、有限风险和最小风险。不可接受的风险包括对个人进行社交评分或在公共场所进行实时面部识别的人工智能系统。他们将被禁止。其他风险较小的工具,例如生成经过处理的视频和“深度伪造”图像的软件,必须披露人们正在看到人工智能生成的内容。但欧盟全面的预防性法律也会在市场创新和竞争上产生影响,过多的监管可能会扼杀企业对于新领域或者新技术尝试的机会的和热情,不仅限制了如Meta、Open AI等全球企业在欧盟的发展,也会限制欧洲本土人工智能企业的发展。法国人工智能公司米斯特拉尔(Mistral)等公司的领导团队试图进行游说以放松监管,认为它们使全球人工智能创新竞赛变得不平等。

美国:自愿行为准则

拜登的行政命令为美国人工智能技术划定了发展方向和危险禁区,但其监管力度和范围远远比不上实际的立法行为。在行政命令发布之前,拜登政府给予企业自愿自我监管安全风险的余地。7 月,白宫宣布亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等多家人工智能制造商已同意对其系统进行自我监管。这些自愿承诺包括对工具进行第三方安全测试(称为红队)、对偏见和隐私问题的研究、与政府和其他组织共享有关风险的信息,以及开发应对气候变化等社会挑战的工具,同时包括识别人工智能生成材料的透明度措施。美国目前以自愿为原则的监管办法在最大程度上鼓励了美国的人工智能技术创新和大企业的全球发展,因为将不会有政府的强制性监管机构监督大公司的人工智能计划和技术框架。

中国:明确法律与社会责任

自 2021 年以来,中国出台了多项有关推荐算法、深度合成等内容和生成式人工智能的法规。中国的《生成式人工智能服务管理暂行办法》重点关注生成式人工智能领域,尤其是应对与深度伪造和其他合成内容有关的风险,注重于平衡服务提供者和使用者之间的责任。《立法》明确监管红线,优先企业自查,旨在促进生成式人工智能健康发展和规范应用,也体现出立法者对于人工智能创新发展的积极鼓励态度。目前,美国以行政命令和自愿原则为主的监管手段并不是人工智能时代监管的长久之计。随着人工智能技术的发展和相关企业对于各行各业渗透和影响,风险和威胁将会指数性上涨,而仅凭自愿原则将无法规范更多在该领域的中小型公司。未来,美国或将会在现行州层面的立法和拜登政府的行政命令的基础上,出台美国联邦层面的人工智能监管立法,形成一套完整的基于人工智能技术的监管体系和专门的监管机构。参议院多数党领袖、纽约州民主党人查克·舒默 (Chuck Schumer)承诺,可能会在明年制定一项全面的人工智能法案。

理人:刘典

编辑:卢的、陶含孜排版:赵杨博

校审:王祚

终审:梁正、鲁俊群

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy