【AIIG观察第203期】海外智库:加拿大国际治理创新中心:加拿大政府亟需制定人工智能监管的整体愿景,并让公众参与其中

545次阅读
没有评论

点击蓝字

关注我们

【AIIG观察第203期】海外智库:加拿大国际治理创新中心:加拿大政府亟需制定人工智能监管的整体愿景,并让公众参与其中

海外智库观察

加拿大国际治理创新中心:

加拿大政府亟需制定人工智能监管的整体愿景,并让公众参与其中

2023年8月16日,加拿大国际治理创新中心(Centre for International Governance Innovation, CIGI)发布了其高级研究员Teresa Scassa撰写的评论文章《加拿大人工智能立法草案需要重新修订(Canada’s Draft AI Legislation Needs Important Revisions)》文章指出,加拿大《人工智能与数据法案(Artificial Intelligence and Data Act,AIDA)》(以下简称《法案》)草案制定存在的问题,随后列举了其受到的批评,并呼吁加拿大政府制定人工智能监管的整体蓝图,且应让公众参与到人工智能立法草案修订的过程中。

首先,作者阐释了重新修订人工智能立法草案的必要性。人工智能技术的迅速发展需要敏捷监管对策,这在一定程度上也解释了该《法案》突然出现在进行私营部门数据保护法改革的《数字宪章实施法案(Digital Charter Implementation Act)》/C-27法案中的原因。但该《法案》是在短期内被迫仓促制定的,其没有事先征询公众意见,也缺乏将对哪些人工智能技术进行治理,以及如何治理人工智能技术的详细阐明,而是将这些细节留待稍后通过的法案来处理。因此,其自推出以来受到了大量的批评。


基于此,作者列举并阐释了对该草案的五点批评。首先,立法草案的敏捷性不足。《人工智能与数据法案》草案将定义所监管的“高影响力人工智能”在内的大部分规范性内容留给了未来的法规来决定。而鉴于漫长的制定和出台流程,有些法规可能无法及时生效。另一方面,敏捷监管应该是迭代和数据驱动的,并有明确的流程来衡量影响和重新调整方法,但该草案并不具备这些要素。其次,《法案》的监管内容仍不明确。其目的是监管高影响的人工智能系统,但何为“高影响”仍有待于未来法规的界定。在《数字宪章实施法案》出台九个月后发布的《法案》配套文件表明,如果其他制度已充分解决了某些技术的问题,那么这些已经充分解决了的技术可能会被排除在高影响人工智能的界定之外。作者指出,虽然多方监管机构的方法无可厚非,但重要的是立法者和公众应该在法案投票之前对监管方法进行了解。比如,哪些类型的人工智能将被排除在高影响的定义之外?是金融领域使用的系统,还是自动驾驶汽车、亦或是医疗设备系统中的那些人工智能?以及是否有计划更新其他法律,并更好地授权其他监管机构处理人工智能问题。这些都还存在疑问。第三,高影响的人工智能很可能、或至少部分将根据其造成的危害来界定。但该《法案》缺乏对更广泛危害的认识。该《法案》草案对危害的主要定义为对个人造成的可量化的危害,这个定义过于狭隘。一方面,人工智能产生的影响是显而易见的,比如系统性歧视问题,而它的影响范围也远远超出了个人和社群。另一方面,有些危害是不易量化的,例如,人工智能被用来操纵人口以改变选举结果存在着民主危害,但这种危害既不容易量化,也不是针对个体的。尽管《法案》正确地认识到有偏见的输出是一种危害形式,并建议对其进行监督和限制。但根据《加拿大人权法(Canadian Human Rights Act)》的条款,《法案》将有偏见的输出定义为具有歧视性的输出,而非将有偏见的输出视为一个整体性问题、将歧视视为一种特定的危害的话,这个问题就变得更加复杂了。第四,《法案》缺少治理和监督的独立性。这项法案旨在通过管理人工智能技术的设计、开发和商业化来预防危害,但加拿大并没有指定或设立任何独立的监管机构来确保义务得到履行,而是由加拿大人工智能产业的创新、科学经济发展部部长来负责确定涉事公司是否履行其义务,并确定未能履行义务所需承担的后果。根据《法案》设立的人工智能和数据专员一职将由该部部长的下属担任,因此也未能提供合理的独立性。第五,缺乏整体的监管愿景。现有的配套文件是白皮书和征询的低配替代品。配套文件指出,《法案》弥补了人工智能的风险监管内容,目前已有对于人工智能造成伤害的补救措施,比如通过隐私专员公署或人权委员会、竞争局,甚至通过法院来进行补救。但其没有承认上述这些实体造成可能缺乏调查和处理人工智能相关危害的资源和专业知识,更不用提更新立法了。并且其中还存在一些重大问题,比如,当人工智能失灵时谁来担责,以及是否需要新的法律来解决这个问题?如何解决证据与商业机密有关的问题?以及个人就复杂的人工智能技术提起诉讼所需的巨额成本问题如何解决?虽然这些问题并非都属于联邦政府的管辖范围,但有些问题确实应当由联邦政府进行治理。


最后,作者呼吁加拿大政府制定一份明确的治理需求、治理目标和人工智能监管的宏观愿景,以及建立发挥作用的监管机构;并建议让公众参与到人工智能监管中,从不同观点中受益,为其法案赢得合法性,以及帮助构建社会的人工智能素养。这些工作都需要采用数据驱动的方法,以帮助识别和评估监管漏洞和效率低下的问题,否则其将只是一个匆忙制定的形式主义工具。


Teresa Scassa:

加拿大国际治理创新中心高级研究员,渥太华大学加拿大信息法与政策研究主席、法学院教授,专注于研究数据所有权和控制权问题。


原文链接:https://www.cigionline.org/articles/canadas-draft-ai-legislation-needs-important-revisions/



【AIIG观察第203期】海外智库:加拿大国际治理创新中心:加拿大政府亟需制定人工智能监管的整体愿景,并让公众参与其中


往期回顾

研究动态丨人工智能国际治理观察第203期国内外最新动态

研究动态丨人工智能国际治理观察第202期

研究动态丨人工智能国际治理观察第201期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy