点击蓝字 关注我们
海外智库观察
2023年11月1日,布鲁金斯学会发布文章《全球南方的人工智能:更具包容性治理的机遇和挑战(AI in the Global South: Opportunities and challenges towards more inclusive governance)》。文章指出,早期的人工智能发展主要集中在西方,但该技术正在为南半球国家提供独特的机遇,特别是在农业、医疗保健和教育领域。人工智能的发展和采用目前也给南方国家带来了独特的挑战,特别是在互联网普及率、电力连接以及外包数据标记劳动力受到的剥削方面。文章建议南方国家政府必须共同努力起草人工智能战略并逐步实施,以保护弱势群体并实现负责任的创新,并且必须在人工智能全球多边对话中占据显着地位。南方国家政府必须投资于当地研究人员,并将数字技能培训纳入教育课程。此外,主导当前人工智能对话的国家必须将南方国家纳入关于人工智能监管和发展的圆桌会议和咨询机构。
作者:Chinasa T. Okolo,布鲁金斯学会治理研究项目技术创新中心研究员,重点研究新兴市场的人工智能治理、人工智能素养提升、以人为本的人工智能解释方法等。
原文链接:https://www.brookings.edu/articles/ai-in-the-global-south-opportunities-and-challenges-towards-more-inclusive-governance/
2023年11月3日,美国兰德公司发布文章《人工智能与地缘政治:人工智能将如何影响国家的兴衰?(AI and Geopolitics: How Might AI Affect the Rise and Fall of Nations?)》。文章指出,美国政府如果继续不对技术进行有意义的监管或以改变这些公司行为的方式进行干预,那么将导致美国政府人员在对人工智能的理解和利用其力量的能力方面继续落后于美国技术领域的工程师。而如果美国选择放弃其传统的对信息技术和软件开发的宽松监管方式,转而开始进行大规模的监管和监督,这将导致其通过国有化和综合监管对人工智能计算资源、数据中心、先进算法和人才进行垄断,最终在全球范围内导致军备竞赛和贫富分化。在世界范围内,政府、全球行业、民间社会组织、学术界和研究机构之间强有力的合作伙伴关系支持人工智能的快速开发和部署。文章认为,未来,国家和公司将以新的方式发生冲突,人工智能可能成为一个参与者,而不仅仅是一个因素;并且我们正在进入一个启蒙(红利)与混乱(风险)并存的时代;美国和中国将以不同的方式发挥领导作用,即美国在赋能私营部门创新方面有优势,而中国可以在将当今的技术融入其工作流程、武器和系统方面取得更大的成功;而技术创新将继续超越传统监管。文章建议政府决策者应该采取措施来保护人类,包括重点加强抵御人工智能威胁的能力;拓展传统的监管技术以在更好地促进人工智能的发展的同时可以确保人工智能造福所有人;并继续支持创新;以及与私营部门合作改进风险评估。
作者:巴里·帕维尔(Barry Pavel),兰德公司副总裁兼兰德国家安全研究部主任,曾任乔治·W·布什和巴拉克·奥巴马总统的总统特别助理以及国家安全委员会国防战略和政策高级主任。迈克尔·斯皮塔斯(Michael Spirtas),兰德公司国家安全研究部副主任兼兰德公司高级政治学家,曾任美国国防部工作,专注于研究美国国防战略、部队发展以及指挥与控制。James Ryseff,兰德公司高级技术政策分析师,重点研究人工智能、云计算、网络安全、敏捷软件方法和大规模数据分析等技术和实践如何影响政策问题。Keller Scholl,兰德公司助理政策研究员,主要研究人工智能系统对当前前沿领域之外的政策影响,涉及劳动力市场、部队规划和安全等问题。
原文链接:https://www.rand.org/pubs/perspectives/PEA3034-1.html
2023年11月6日,斯坦福大学以人为本人工智能研究所发布文章《立法将支持公共部门人工智能研究(Legislation Will Bolster Public Sector AI Research)》。文章记录了该研究所举办的活动中,人工智能领导者们发表的相关观点。文章表示,学术界在人工智能科学发现和风险缓解方面的关键作用与私营部门的工作相辅相成。但斯坦福大学前教务长、哲学教授约翰·埃切门迪(John Etchemendy)指出,目前急需计算和数据资源,这一资源的缺乏导致人工智能的前沿完全掌握在资源最丰富的人(主要是工业界)手中。美国国会曾于今年7月推出了CREATE AI 法案以建立国家人工智能研究资源(National AI Research Resource,NAIRR)。而最近的白宫行政命令则提出了NAIRR将在90天内开始试点计划,下一步是国会通过CREATE AI法案并在试点计划之外全面建立 NAIRR。针对计算和数据资源受限制的问题,斯坦福大学工程学院计算机科学教授、斯坦福 HAI联合主任、资深研究员李飞飞(Fei-Fei Li)举例说明了学术界人工智能研究人员面临的其他资源限制,并表示学术界最擅长的就是好奇心驱动的基础研究,同时强调了公共部门和私营部门之间的人才交流是取得成功的关键。她期待公共部门可以通过NAIRR为研究人员提供国家政府数据存储库等资源的访问权限来扭转人才流失的局面。斯坦福大学生物工程、遗传学、医学(生物医学信息学研究)、生物医学数据科学以及计算机科学教授拉斯·阿特曼(Russ B. Altman)建议,学术界需要与私营部门上游开展合作,因为私营部门往往因为自身的时间表和季度目标而缺乏以长远眼光看待未解决问题的能力,例如了解疾病的基本生物学。此外,斯坦福大学以人为中心的人工智能研究所的隐私与数据政策研究员詹妮弗·金(Jennifer King)指出,学术界的人才流失也是一大问题,根据HAI的人工智能指数,只有不到40%的人工智能新博士进入学术界,另外只有1% 进入政府。
原文链接:https://hai.stanford.edu/news/legislation-will-bolster-public-sector-ai-research
2023年11月6日,加拿大国际治理创新中心发布文章《AIDA的“咨询剧场”凸显了所谓的人工智能敏捷治理方法的缺陷(AIDA’s “Consultation Theatre” Highlights Flaws in a So-called Agile Approach to AI Governance)》。文章认为加拿大创新、科学和经济发展部 (Innovation, Science and Economic Development, ISED)推动的目前正在议会审议的《人工智能和数据法案(Artificial Intelligence and Data Act, AIDA)》的过程是不民主的,缺少政府主导的、能够解决基本问题的严肃的公共审议程序。文章警告这将导致加拿大可能会建立一个危险的人工智能监管制度。这一制度既不能反映加拿大的价值观,也不能避免国际声誉受损。文章建议,其他政府部委和机构也需要在制定AIDA立法方面发挥形成性作用,因为大规模实施人工智能系统所产生的广泛社会影响远远超出了ISED的职责范围;另外,应由一个与政府保持一定距离的知名机构来领导公众审议过程,包括未来重新起草AIDA并制定其法规的磋商;此外,政府应立即委托开展政策导向的实证研究来辅助基于证据的人工智能政策决策。
作者:Andrew Clement,加拿大多伦多大学信息学院名誉教授,专注于研究信息/通信技术的社会影响和以人为本的系统开发。
原文链接:https://www.cigionline.org/articles/aidas-consultation-theatre-highlights-flaws-in-a-so-called-agile-approach-to-ai-governance/
2023年11月9日,加拿大国际治理创新中心发布文章《加拿大 C-27 法案的拟议修改对减轻人工智能危害作用甚微(Proposed Changes to Canada’s Bill C-27 Do Little to Mitigate AI Harms)》。文章表示,加拿大创新、科学和工业部近期公布了对加拿大C-27法案(即《消费者隐私保护法》、《个人信息和数据保护法庭法》以及《人工智能和数据法》的颁布及对其他法案进行相应和相关修订的法案)的拟议政府修正案。文章肯定了该修正案的以下工作:承认了隐私是一项基本人权,加强儿童数据保护权利,为加拿大隐私专员办公室提出新的财政权力,为整个人工智能价值链的企业引入新的透明度要求,并列出了算法系统的使用将被归类为“高影响力”的七个领域。然而,文章认为该文件本质上仍允许人工智能供应商自我监管,而没有为权利和生活受到人工智能技术影响的公民提供补救机制。人工智能和数据专员缺乏授权、预算或足够的运营资源,仅限于充当加拿大创新、科学和经济发展部与人工智能行业之间的联络人。此外,文章还建议政府赋予加拿大人以拒绝人工智能系统的权力,同时关注人工智能影响下的民主治理和监督的机会。
作者:Anna Artyushina,加拿大多伦多城市大学城市与区域规划学院数字治理领域博士后研究员。
原文链接:https://www.cigionline.org/articles/proposed-changes-to-canadas-bill-c-27-do-little-to-mitigate-ai-harms/
2023年11月13日,美国企业公共政策研究所发布文章《人工智能导致的失业未来还很遥远(The Jobless AI Future Is Still a Long Way Off)》。文章针对埃隆·马斯克最近的“由于人工智能的进步,人类将会有一天不再需要工作”的预言,指出这种人工智能将导致大规模失业的担忧源于零和心态,从根本上就误解了经济的发展方式。因为新技术将使许多工人的生产力更高,从而对企业产生更大的价值,企业将在劳动力市场上更积极地争夺他们,从而推高他们的工资和收入。更高的收入将增加经济中对商品和服务的总体需求,进而增加对工人的需求。这种动态过程使经济能够避免严重的结构性失业。此外,新技术创造了新颖的商品和服务,这也增加了对工人的需求。文章认为,至少在接下来的几十年里,人工智能引发就业灾难的可能性微乎其微。相反,应该担心生育率下降和人口迅速老龄化导致的工人缺口。同时,我们也应当关心在马斯克所描绘的物质极为丰富的未来中,如何避免不平等不被消灭反而被助长,以及物质生活得到保障的人们是否将继续努力创造社会价值。
作者:迈克尔·斯特兰(Michael R. Strain),美国企业研究所经济政策研究部主任,主要研究劳动力市场、公共财政、社会政策和宏观经济学。
原文链接:https://www.aei.org/op-eds/the-jobless-ai-future-is-still-a-long-way-off/
清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点
往期回顾
编译:周韫斐审核:何嘉钰排版:赵杨博终审:梁正、鲁俊群
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG