【海外智库观察225期】2024年人工智能发展与治理展望

498次阅读
没有评论

点击蓝字

关注我们

【海外智库观察225期】2024年人工智能发展与治理展望

海外智库观察

在2023年引爆科技圈的ChatGPT-4等大型语言模型人工智能(Artificial Intelligence,AI技术的发展和应用进入了一个全新阶段。人工智能在2024年又将在技术领域取得哪些创新成果?还将如何继续变革性地影响经济、社会、法律和文化等各个方面?本期《人工智能国际治理观察》将综合分析海外智库对2024年人工智能发展趋势和治理挑战的展望。这些智库旨在通过对人工智能技术发展、应用、监管以及一相关关键议题展开分析,来为新一年度的人工智能治理提供一个全面的视角,帮助理解人工智能如何在全球范围内塑造未来,以及人类社会可以如何更好地应对即将到来的挑战。


斯坦福大学以人为本人工智能研究所

Stanford University Human-Centered Artificial Intelligence, HAI



展望2024年:警惕深度伪造、GPU全球性短缺问题;期望美国继续出台监管举措,但应确保创新和技术领导地位

2023年12月8日,斯坦福大学以人为本人工智能研究所发布了涵盖其联合主任李飞飞、雅虎公司;联合创始人杨致远(Jerry Yang)、斯坦福大学数字经济实验室主任Erik Brynjolfsson等其七位学者观点的《2024 年人工智能的前景(What to Expect in AI in 2024)》,总结了这些学者对2024年人工智能领域重大事件的四项预测:第一,白领工作将发生转变。公司将大规模采用AI,从而开始实现长期期待的生产力提升。这将导致包括创意工作者、律师、金融专家在内的知识工作者们的工作发生显著变化,但AI将主要用于增强和扩展工作能力,而非完全自动化任何工作。第二,我们将看到新的多模态模型,特别是在视频生成方面。因此,我们需要更加警惕严重的深度伪造现象。然而正值选举年的美国可能并不会出台重大法规。第三,可能会出现全球范围内的GPU处理器短缺。这些特殊处理器是许多AI运行的基础,而且越来越多的公司正试图将AI能力内部化。最后,更有帮助的人工智能代理将广泛应用到其他多种服务之中,如预订、规划旅行等,并且我们将朝着多媒体方向迈进。


随后,学者们还对美国监管提出期望。美国国会于2023年7月提出了两党合作的CREATE AI法案,旨在为学生和研究人员提供AI资源、数据和工具,以及扩大AI开发的范围。学者们希望国会在2024年通过类似的法案,同时遵守拜登总统于2023年10月底签署的人工智能行政命令的要求,并在公共部门投入更多资源,以确保美国在创造符合其价值观的AI技术方面的领导地位。其次,希望能够继续提出关于AI在我们生活、社区、教育和社会中所扮演角色的关键问题,因为我们需要给自己时间和空间来表达我们认为可接受的事物以及我们应该设定的限制——这是机构和组织必须持有的观点,并应尝试在2024年将指导方针落实到纸面上。


最后,文章指出,许多公司将在2024年面临复杂的AI法规问题。例如,加利福尼亚州和科罗拉多州将采用针对消费者隐私背景下自动决策的法规。这些法规虽然仅限于接受或收集个人信息的AI系统,但为消费者提供了选择退出的权利,尤其是在招聘或保险等具有重大影响的系统中。公司将不得不开始考虑当客户大规模行使这些权利时的具体影响,例如,如果一个大公司使用AI辅助招聘,在数百名潜在雇员要求选择退出时,是否需要人工审查这些简历,这是否保证了一个不同的或更好的过程?







美国企业公共政策研究所

American Enterprise Institute for Public Policy Research,AEI


2024年发展预测:社会更加理解AI应用;利好加密货币;联邦机构延续并深化现有举措;华为仍是主要竞争对手

2024年1月12日,美国企业研究所发布其科技政策团队撰写的《2024年科技政策预测(2024 Tech Policy Predictions)》,从人工智能负责任的应用、金融科技等四个方面对2024年的发展与治理政策进行预测。


首先,2024年可能会在理解AI负责任应用方面取得重大进步,特别是在管理工作流程和增强教育方面,同时也试图在创新与伦理考虑之间取得平衡。随着越来越多的机构和个人将AI系统整合到他们的运营中,社会对AI应用的理解可能会增加。


其次,在金融科技领域,2024年预计将是加密货币的好年头。“减半”事件——新比特币产量减半的预定点预计将在四月底发生,这可能导致加密货币价格普遍上涨。此外,将在三月份进行的针对FTX创始人萨姆·班克曼-弗里德(Sam Bankman-Fried)的判决可能也会促进加密货币的增值。而预期的价格变动有可预测的政策后果。并且由于2024年是选举年,预计将充满政治承诺和好处。尽管今年不太可能出现中央银行数字货币(Central Bank Digital Currency,CBDC),但仍然有必要公开讨论当前的大规模金融监控政策是否能在美国CBDC的创建下存活。


第三,在联邦机构方面,法院正在尝试制定一个测试,借此确定官员使用私人账户与其工作相关程度,这触发了国家行动和第一修正案的关注。法院可能会制定一个整体情况检验标准,确定下级法院应权衡的至少三个非穷尽性因素,并将案件发回下级法院应用该检验标准。除此之外,Murthy诉密苏里州案(原密苏里州诉拜登案)也涉及国家行动问题:多个拜登政府官员、部门和机构努力说服平台删除合法内容是否跨越了允许的自愿说服与政府强制审查之间的界线,违反了第一修正案?法院可能会沿着意识形态路线分裂。此外,联邦贸易委员会和司法部可能会继续推进针对大型科技公司的反垄断案件。尽管联邦贸易委员会可能会继续输掉案件,但这将对大型科技公司和国会施加压力。此外,联邦通信委员会可能会通过网络中立性法规。与此同时,国家电信和信息管理局可能会批准并启动大多数州的宽带公平、接入和部署(The Broadband Equity, Access, and Deployment,BEAD)提案。


最后,在国际方面,华为公司新智能手机(Mate60 Pro)的突破标志着该公司重新成为智能手机竞争的主要竞争者。虽然华为与中芯国际的结盟已见成效,但中国企业仍落后美国约半个世纪,如果没有顶级的光刻设备,它们仍将在多家供应商的更广泛的 5G 推广中举步维艰。




世界经济论坛

World Economic Forum


萨姆·阿尔特曼谈人工智能的未来

2024年1月18日,世界经济论坛发布资深作家Kate Whiting撰写的文章《2024 年达沃斯:萨姆·阿尔特曼 谈人工智能的未来(Davos 2024: Sam Altman on the future of AI)》。OpenAI 首席执行官萨姆·阿尔特曼指出,尽管当前AI能力有限且存在深刻缺陷,但人们仍然发现并利用AI实现了生产力的大幅提升。他还从人类关怀、工作角色、价值观等方面预测了人工智能的发展。



首先,萨姆·阿尔特曼认为AI不会取代人类对彼此的关心。他以国际象棋超级计算机深蓝(Deep Blue)战胜世界冠军加里·卡斯帕罗夫(Garry Kasparov)为例指出,尽管有人认为这会导致国际象棋的消亡,但实际上国际象棋现在比以往任何时候都更受欢迎,人类仍然非常关注彼此的行为,且不会因为有了更好的工具而减少。



其次,关于AI在工作中的角色,AI将改变某些职业角色,给人们更多空间来提出想法和策划决策,每个人的工作在某种程度上都会更加注重抽象层面的思考,并拥有更多的能力来做出决策,且这些决策可能会趋向于更多的策划而非直接执行。



第三,有理由对人工智能价值对齐保持乐观。他指出,从技术角度来看,目前的对齐技术可能无法适用于更强大的系统,因此需要发明新的方法。他欢迎AI技术受到的审查,并表示科技行业有责任让社会参与到决策中来,比如价值观是什么、安全阈值是多少,这样才能利大于弊。



第四,将出现新的内容经济模型。他区分了大型语言模型(Large Language Model, LLM)显示内容和用其训练的情况,并表示未来的LLM在训练过程中将能够使用并深入思考更少但质量更高的数据。他还表示,当内容用于训练时,我们就需要新的经济模型来补偿内容所有者。


战略与国际研究中心

Center for Strategic and International Studies, CSIS


展望2024年:AI技术可能不会有重大突破;有效治理虚假信息问题很关键;美国2024年对华芯片出口管制举措将更加多元化

2024年1月,美国战略与国际研究中心发布其首席信息官安德鲁·施瓦茨(H. Andrew Schwartz )与该机构瓦德瓦尼人工智能和先进技术中心(Wadhwani Center for AI and Advanced Technologies)主任格雷戈里·艾伦(Gregory C. Allen)围绕2024年人工智能技术发展与治理展望所展开对话的播客,该对话就2024年AI产业的发展、AI对美国大选的影响、美国的AI立法、中美科技竞争等问题发表了见解。


格雷戈里·艾伦认为难以断定AI技术在2024年会有重大突破。他认为,我们在当前的AI技术浪潮中实际上是所谓的“扩展假设(scaling hypothesis)”。事实证明,如果在现有的训练AI模型的方法上投入更多的数据和更多的计算资源,那么拥有更多数据和更多计算能力的模型就会变得越来越好,这一点在很长一段时间内都是正确的。但到2024年,资本市场在训练这些大型AI模型方面实际提供的资金可能是有限的。例如,OpenAI已经透露,为GPT 4建造数据中心并运营所有数据的成本约为1.5亿美元,接下来可能会花费10亿或15亿美元来训练这个AI模型,因此,构建和操作这些系统的成本只会不断上升。那么,2024年有两个问题,即当我们谈论数十亿美元用于最先进的AI模型时,有多少人能够真正投入他们需要的资金来构建这些东西?其次,扩展假设是否会保持正确:如果增加计算能力,将数据量增加10倍,这个东西会变得更聪明10倍吗,以及扩展所有这些额外资源的收益值得吗?


在AI选举和未来政策方面,艾伦指出,AI会成为一种选举工具,但会持续产生虚假信息,治理关键在于是否有有效的保障措施。他期望2023年中已有的一些法规有望在今年转化为可行的政策,国会全面立法绝对是目标,但在2024这一选举年通过全面立法困难重重。因此,今年大部分时间都将是就全面方案中的内容进行谈判。


在限制中国获得AI芯片方面,艾伦预计,美国政府在2024年限制芯片出口中国的管制措施将更加多元化。目前已经有一些新工具被运用至阻止中国获得AI芯片之中,即2023年出现的对外投资审查。艾伦表示,虽然中国半导体制造设备行业远远落后于日本、荷兰和美国,但和韩国之间的差距并不大。如果中国公司可以向韩国公司购买并学习制造韩国的所有设备,这会产生很大的影响。所以,拜登政府在寻求其他国家在出口限制方面的帮助。他指出,特朗普政府曾在2018年有联合日本和荷兰成功进行出口管制的机会,但现在已经不存在了,因为现在中国已经购买了很多这种设备来生产芯片。并且,他认为值得注意的一点是,虽然出口管制旨在遏制其芯片发展,但中国已经储存了很多AI芯片。


在中国AI生态系统发展方面,艾伦指出,中国的AI研究在全球范围内一直排名第二,并且正在涌现大量高质量的研究和商业应用,也出现了很多技术巨头。并且他认为,可以说华为现在正在领导中国,其在中国政府制定半导体政策方面处于非常有利的地位,并且得到了政府的鼎力支持。华为拥有先进的芯片设计能力,在受到出口管制和被切断先进芯片制造之时,其设计团队的质量也并没有下降,且他们希望能够打破英伟达在AI芯片市场的主导地位。艾伦表示,2024年华为要尝试做的事就是尽可能多地制造最好的芯片。






原文链接:

[1]https://hai.stanford.edu/news/what-expect-ai-2024 

[2]https://www.aei.org/technology-and-innovation/2024-tech-policy-predictions/ 

[3]https://www.weforum.org/agenda/2024/01/davos-2024-sam-altman-on-the-future-of-ai/ 

[4]https://www.csis.org/podcasts/ai-policy-podcast/ai-policy-podcast-trailer 

[5]https://mp.weixin.qq.com/s/c9bFoa4cSucg02GrCBEf9w 


文章检索:周韫斐

编译:周韫斐、边洁、朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第224期

海外智库丨人工智能国际治理观察第223期

海外智库丨人工智能国际治理观察第222期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy