点击蓝字
关注我们
海外智库观察
2023年10月25日,美国战略与国际研究中心(Center for Strategic and International Studies , CSIS)发布其瓦德瓦尼中心(Wadhwani Center for AI and Advanced Technologies)高级研究员迈克尔·弗兰克(Michael Frank)撰写的评论文章《从历史上的技术监管中汲取出的有助于人工智能政策制定的四个教训(Four Lessons from Historical Tech Regulation to Aid AI Policymaking)》。文章指出,美国人工智能(Artificial Intelligence, AI)政策自参议院多数党领袖查克·舒默(Chuck Schumer)于今年6月宣布《安全人创新框架(SAFE Innovation Framework)》以来不断稳步推进,联邦监管机构也在积极寻求现有权力的合理延伸,以形成一套与人工智能相关的新规则,各州政府正在考虑新的法案,以便规范人工智能培训。随着联邦法规制定和国会人工智能洞察论坛(AI Insight forum)的推进,作者建议考虑早期互联网和社交媒体时代的监管经验可以如何为人工智能监管提供借鉴经验,并逐一阐释了这些教训。
第一,社交媒体时代的言论争议仍然未有定论,内容监管问题可能会破坏两党关于AI政策的共识。社交媒体公司曾在早期作为新经济的创新力量和就业机会的提供者得到了两党的广泛支持。在2015年,有超过70%的民主党和共和党支持者认为科技公司对国家有积极影响;但2016年选举后,自由派和保守派开始在监管问题上出现意见分歧;到2018年,64%的共和党人认为社交媒体平台更加偏袒自由派观点,尤其是在Twitter和Facebook于2021年禁止前总统特朗普的账号,以及社交媒体上关于疫苗的错误信息泛滥后,两党之间的对立愈发尖锐。目前,民主党人倾向于修改第230条,取消社交媒体在广告、民权、骚扰、过失致死和人权问题上的法律豁免,参议员埃米·克洛布彻(Amy Klobuchar)也在2021年提出一项法案推进这一努力,以期进行更广泛的内容审查,但其至今没有进展。相反,共和党人则希望以相反的方式改革第 230 条。民意调查显示,公众的看法不像国会那样有党派色彩,但也充满了矛盾,大多数人认为政策制定者需要对社交媒体进行一定程度的监管。据盖洛普公司(Gallup)和奈特基金会(Knight Foundation)的调查,只有3%的社交媒体用户信任在平台上看到的信息,53%的用户认为社交媒体对他们产生了负面影响,71%的人认为互联网加剧了国家的分裂。
第二,美国反垄断机构已经具备促进AI市场竞争的权力,但似乎不愿为消费者互联网平台公司设立先例。这些反垄断机构可以依靠强有力的非价格竞争条款对提供“免费”产品的信息和通信技术(Information and Communications Technology, ICT)平台公司采取行动。例如根据《克莱顿反托拉斯法(Clayton Antitrust Act)》第7章的规定,反垄断机构只要能证明一项合并可能“大幅减少竞争”即可采取行动。联邦贸易委员会就曾以在反垄断起诉取决于成功证明垄断者滥用市场支配地位——以“价格上涨、产量下降和创新减少的形式”损害了“消费者福利”为由成功应对了20世纪90年代末和21世纪初的微软反垄断案。回顾过去,20年前的微软反垄断案可能被视为一个有用的先例,但对控方来说,这实际上是一个漫长的过程,远不是一个明确的成功。因此,国会必须决定,是否应该通过修改法律来改变反垄断机构喜忧参半的记录,从而使它们更容易在法庭上获胜。
第三,AI领域的法律责任问题尚未得到妥善解决。创新的速度已经超过了监管的速度,现行的法规自互联网产业初期以来并未得到更新,导致软件责任在法律诉讼和联邦法律中的定义依然模糊。尽管立法、行政规章和具有里程碑意义的司法判例缺乏明确指导,但最终用户许可协议(End-User Licensing Agreements,EULAs)和私人合同却在庭外和解和合同法的基础上解决了许多软件责任争议,但EULAs、私人合同和庭外和解未能解决与软件责任直接相关的一些关键问题,例如人身伤害和过失。法律学者Michael Rustad和Thomas Koenig指出,迄今为止还没有法院裁定软件工程师因未能开发出足够安全的软件而构成职业过失。在美国首起自动驾驶汽车致行人死亡案件中,尽管事故车辆的算法未能将受害者识别为过街行人,但检察官并未对车辆的运营商Uber提出指控,而是根据车内司机的过失驾驶行为提起指控,并指责Uber未能建立安全文化或对驾驶员进行有效监管。
第四,即便是人工智能行业领先公司的善意努力,也不应该成为阻碍制定风险信息共享的激励机制的理由。目前,由于存在招致政府处罚或有损公司声誉的可能性,企业可能不会向监管机构或竞争对手透露安全威胁信息。2020年的《监察长报告(Inspector General report)》揭示,虽然网络安全和基础设施安全局的自动信息共享计划表面上看似乎非常成功,吸引了众多企业的加入,但实际上很少有企业真正分享关于网络威胁的有效情报。而技术领域之外的成功案例,如航空业的事件报告结构,可以为AI事件的披露提供了更佳的范例。联邦资助的非营利研究与发展中心Mitre领导的航空安全信息分析和共享(Aviation Safety Information Analysis and Sharing, ASIAS)系统在航空业中显著提升了安全实践,并建立了新的国际风险管理标准。ASIAS作为一个公私合作伙伴关系主要负责报告匿名事件,促进制造商、运营商和监管者之间的信息共享。私营部门公司选择与Mitre分享信息,而非直接与其竞争对手或监管机构共享信息,这有助于减轻因事故而造成的声誉风险和法律责任担忧。在医疗欺诈预防伙伴关系(Healthcare Fraud Prevention Partnership)和国家患者安全伙伴关系(National Patient Safety Partnership)等其他领域,采取类似的信息共享方法同样行之有效。
最后,作者指出,联邦和州政府在考虑新的AI政策时,不仅应认识到AI作为新兴领域提出了其独特的挑战,带来了新的治理机遇,还应从早期互联网和社交媒体的监管经验中学习并利用有益的教训,这将有助于政策制定者在AI产生的危害和回报之间取得平衡,以回应民众的期待。
迈克尔·弗兰克(Michael Frank):美国战略与国际研究中心华盛顿特区瓦德瓦尼人工智能和先进技术中心高级研究员,重点研究地缘政治与先进技术的交叉领域,曾领导经济学人智库的亚洲技术政策研究,以及曾在上海美国商会政府关系部工作。
原文链接:
https://www.csis.org/analysis/four-lessons-historical-tech-regulation-aid-ai-policymaking
清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点
往期回顾
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
文章检索:周韫斐
编译:边洁、杨雨虹
审核:何嘉钰
排版:赵杨博
终审:梁正、鲁俊群