点击蓝字
关注我们
行业舆情追踪
本期摘要01今日头条关注:
近日,联合国宣布成立咨询委员会,以解决AI国际治理方面的问题,我院人工智能伦理与治理方向首席专家曾毅教授为成员之一。美国总统计划签署行政命令以监控AI风险。此外,英国首相宣布将成立全球首个AI安全研究所,以评估、测试新技术。
02AI国际治理:
-
英国首相Rishi Sunak还强调人工智能潜力和风险并存,呼吁全球关注人工智能风险。
-
美国参议院多数党领袖呼吁国会为人工智能监管提供资金支持。
-
英国政府将AI芯片支出增至4亿英镑,以提升英国在科技领域的竞争力。
-
研究人员发现使用流行数据集存在道德和法律风险,其创建和使用需要更透明。
-
七国集团(G7)领导人就企业开发人工智能的行为准则达成一致,旨在降低人工智能技术滥用的风险。
03国际合作:
- 日本拟向台积电工厂及日本晶片企业提供百亿美元补贴,以促进半导体技术的发展。
- 剑桥大学从华为获得2600余万英镑的费用支持,用于人工智能等敏感领域的研究。
04社会洞察:
- 科技公司的高管呼吁采取更多措施,以控制人工智能对就业和民主的影响。
- 韩国SK海力士表示,AI需求将推动芯片利润增长。
05AI巨头动态:
- OpenAI宣布组建新团队,旨在防范AI灾难性风险。
- Meta面临法律审查,指控对未成年人进行不当操纵,引发对人工智能技术的担忧。
本期头条:
-
联合国发起国际合作 以应对人工智能治理挑战
10月26日,联合国秘书长António Guterres宣布成立一个由39名成员组成的咨询委员会,旨在解决与全球人工智能监管相关的问题。根据公告,名单上的成员有科技行业领袖、政府代表,以及多国学者。清华大学人工智能国际治理研究院人工智能伦理与治理方向首席专家曾毅教授是成员之一,成员还包括代表科技公司的高管,如索尼的首席技术官Hiroaki Kitano、OpenAI首席技术官Mira Murati和微软的首席人工智能专家Natasha Crampton。西班牙、沙特阿拉伯等国的政府官员,以及美国、俄罗斯和日本等国的学者。
来源:路透社、Cointelegraph
2.拜登政府签署首项人工智能监管行政令,迫使科技集团分享AI安全测试结果
10月30日,美国总统拜登签署了一项范围广泛、内容全面的行政命令,为人工智能安全制定了新标准。这项行政命令旨在遏制人工智能带来的风险,白宫将利用《国防生产法》(Defense Production Act)迫使开发对国家安全、经济安全或公共卫生构成严重风险的人工智能模型的企业在训练模型时向政府分享安全测试结果。
根据该行政命令,商务部必须制定有关指南,规定在人工智能生成的内容中添加水印,以打击包括深度伪造在内的欺诈行为。这些还寻求促进人工智能行业的竞争,并鼓励联邦贸易委员会在美国反垄断监管机构警告该技术可能产生潜在垄断之际“行使权力”。
它还呼吁采取措施遏制人工智能对工人和病人造成的伤害,并解决住房、医疗保健和司法领域的“算法歧视”。
该命令解决了人工智能所带来的隐私风险,敦促国会通过数据隐私立法,同时寻求对各机构如何收集和使用“商业可用信息”进行评估。
白宫办公厅副主任布鲁斯·里德(Bruce Reed)表示,虽然这项行政命令具有法律效力,但需要两党立法才能发挥其在人工智能领域的作用,这并不是人工智能治理的终点。
来源:彭博社、新华社、金融时报
3.英首相宣布将成立全球首个AI安全研究所
10月26日,英国首相苏纳克宣布,计划成立世界上第一个AI安全研究所,用于评估和测试新技术。他表示,英国将努力争取全球领导人就AI风险性质发表联合声明,但并不意味着急于监管该领域。苏纳克强调了创新的原则,表示在尚未完全理解AI技术的情况下无法制定有意义的法律。新的AI安全研究所旨在推动全球对AI的认识,包括其社会危害,如偏见和误导。他还提议成立一个全球专家小组,发布关于AI现状的报告。
来源:Politico、路透社
AI国际治理
4.美国参议院多数党领袖Charles E. Schumer呼吁美国国会就人工智能问题采取行动
10月26日,美国参议院多数党领袖Charles E. Schumer表示拜登总统将部署的监管AI风险的机构不足以应对人工智能工具的快速发展,并呼吁国会就人工智能问题采取行动。Charles E. Schumer指出,通过行政命令所进行的监管是有限的,国会此前通过了处理人工智能问题的提案,但并未提供资金支持。他强调,需要联邦投资以促进和创建人工智能工具的保障措施,并表示一些官员讨论发现这些工作需要高达320亿美元的资金支持。此外,他还希望缓和民众对人工智能扰乱选举的担忧情绪。
来源:华盛顿邮报
5.英国首相Rishi Sunak表示:人工智能有威胁和风险,但也有潜力
在一次旨在展示英国在人工智能领域世界领先地位的演讲中,首相苏纳克(Sunak)表示,AI已经创造了很多就业机会,尽管AI将对劳动力市场产生影响,这项技术的发展仍将促进经济增长和生产力。周四上午,英国首相在一份政府报告发布后发表讲话,阐述了人工智能的能力和潜在风险,包括网络攻击、欺诈和儿童性虐待。苏纳克表示,报告中概述的风险之一是,恐怖组织可能利用人工智能“在更大范围内传播恐惧和破坏”。他表示,减轻人类因人工智能而受到的风险应该是一项“全球优先事项”。
来源:BBC News
6.英国政府将AI芯片支出增至4亿英镑
10月29日,苏纳克将AI芯片和超级计算机上的支出增加至4亿英镑,以确保英国“人工智能研究资源”(AI Research Resource)的设备,该资源还将用于在剑桥市启动一个新设备并改善布里斯托(Bristol)的一个站点,以提升英国在科技上的竞争力。
来源:每日电讯报
7.人工智能研究人员发现使用流行数据集的道德和法律风险
10月25日,在一群机器学习工程师和法律专家的组织下,“数据出处倡议”(Data Provenance Initiative)研究了用于教授人工智能模型擅长特定任务的专业数据,他们审核了 Hugging Face、GitHub 和 Papers With Code等网站上的1800多个微调数据集,发现约70%的数据集没有说明应使用何种许可,或者被错误地标注了比其创建者意图更宽松的准则。
作为分析的一部分,研究人员还跟踪了各数据集的模式,包括数据的收集年份和数据集创建者的地理位置。约70%的数据集创建者来自学术界,约1%的数据集创建者来自Meta等公司的行业实验室。最常见的数据来源之一是维基百科,其次是Reddit和X。《华盛顿邮报》对Google C4数据集的分析发现,在1500万个域名中,维基百科是排名第二的网站。
与英语国家和西欧国家相比,南半球国家的语言几乎没有代表性,数据出处小组的分析为常用数据集的局限性提供了新的见解。该小组还发现,即使全球南部有语言代表,数据集几乎总是来自北美或欧洲的创作者和网络来源。
来源:华盛顿邮报
8.七国集团(G7)就企业开发先进人工智能系统的行为准则达成一致
10月30日,由加拿大、法国、德国、意大利、日本、英国和美国以及欧盟组成的七国集团(G7)的领导人就企业开发先进人工智能系统的行为准则达成一致,各国政府正寻求降低人工智能技术被滥用的风险。七国集团文件称,这一包含11点的准则“旨在促进全球范围内安全、可靠和值得信赖的人工智能,并将为开发最先进的人工智能系统(包括最先进的基础模型和生成式人工智能系统)的组织的行动提供自愿指导”。路透社透露,在隐私担忧和安全风险的情况下,自愿行为准则将为主要国家如何管理人工智能树立一个里程碑。
来源:路透社
9.欧盟秘书长冯德莱恩将出席英国人工智能峰会
10月27日,欧盟两名最高级官员计划出席下周举行的英国人工智能(AI)安全峰会,组织者希望这次为期两天的会议将开启有关人工智能监管的国际对话。欧盟委员会(European Commission)主席乌尔苏拉·冯德莱恩(Ursula von der Leyen)和副主席维拉·朱罗娃(Vera Jourova)将出席此次峰会,根据他们周五公布的官方日程更新。
来源:路透社
国际合作
10.日本拟向台积电工厂及日本晶片企业提供逾百亿美元补贴
10月25日消息,日本计划为两个关键半导体项目争取到1.49万亿日元(约136亿2000万新元)的额外补贴。民党半导体战略推进议员联盟秘书长关义弘(Yoshihiro Seki)接受采访时称,政府将为台积电(TSMC)熊本二厂预留高达9000亿日元的补贴,同时为日本本土晶片企业Rapidus预留5900亿日元补贴。经济部门已经将这两笔补贴列入本财年计划追加的预算申请。关义弘表明,台积电熊本二厂预计耗资约2万亿日元,预期将生产6纳米至12纳米逻辑晶片,用于电动汽车等产品。此外,日本政府已经承诺为日本本土晶片企业Rapidus提供3300亿日元的资金,该企业致力于生产有望用于AI等领域的2纳米逻辑晶片。除此之外,该公司计划在2027年量产半导体。
来源:联合早报
11.剑桥大学从华为及其子公司获得超过2600万英镑研究人工智能技术等敏感领域
10月29日,UK-China Transparency的研究发现,剑桥大学已从华为及其子公司获得超过2600万英镑以用于人工智能和移动网络技术等敏感领域的研究。此前,出于对国家安全的担忧,英国政府在2020年禁止华为参与英国5G网络建设,但剑桥大学仍从华为接受了至少480万英镑的研究费用支持。
来源:泰晤士报
12.为支援开发生成式AI,岸田表示“将带着紧迫感采取措施”
10月27日消息,日本首相岸田文雄在众院预算委员会会议上表示,为支援开发生成式AI,“将带着紧迫感采取措施,官民一体引领世界”。他透露,与东盟(ASEAN)成员国的去碳化合作框架“亚洲零排放共同体”(Asia Zero Emission Community,简称AZEC)相关首次首脑会议将于12月在东京召开。
来源:共同网
社会洞察
13.科技公司的高管建议美国政府在监管人工智能上采取更多措施
10月26日,拜登总统计划将与10月30日发布一项全面的人工智能行政命令,几位知名的科技领袖警告称,此举智能被视为监管人工智能的起点,还需要采取更多措施保护社会免受人工智能对就业和民主的影响。
Signal基金会主席Meredith Whittaker认为现有的人工智能激励措施不符合社会利益,面对来自大型科技公司的游说力量和向国会决策者施压的力量,我们处于劣势之中。
Scale AI首席执行官兼创始人Alexandr Wang发出警告,称当前部署的人工智能系统尚不成熟。
Beyond the Screen联合创始人Frances Haugen称人工智能技术呈指数级增长,生成式人工智能在结构化推理方面能力的进步意味着其将可能构成危险。
来源:华盛顿邮报
14.韩国SK海力士表示,AI热潮将推动利润增长
10月26日消息,韩国SK海力士表示,AI繁荣将推动芯片利润增长,截至9月底的三个月内,对AI中使用的先进芯片的强劲需求,有助于缓解智能手机和电脑中使用的商品芯片需求长期放缓的影响。韩国SK海力士表示,对其用于科技设备的高端DRAM芯片(例如用于生成AI的高带宽内存HBM芯片)的需求是一个亮点,内存芯片市场将于明年复苏。
来源:路透社
AI巨头动态
15.OpenAI组建新团队防范AI灾难性风险
10月26日,OpenAI宣布组建名为“准备”(Preparedness)的新团队,用于防范AI灾难性风险。该团队由原麻省理工学院可部署机器学习中心主任Aleksander Madry领导,将把前沿模型的能力评估、评估和内部红队紧密联系起来,帮助跟踪、评估、预测和防范多个类别的灾难性风险,包括:个性化说服(Individualized persuasion),网络安全,化学、生物、放射性和核(CBRN)威胁、自主复制和适应(Autonomous replication and adaptation,,简称ARA,)。
此外,OpenAI还发起AI防备挑战赛,以预防灾难性滥用,赛事将为最多10个优秀作品提供25000美元的应用程序接口积分,并从优秀竞争者中寻找工作候选人。
来源:cointelegraph
16.随着人工智能的进步,Meta面临法律审查AI引发的儿童安全隐患
美国34个州对Facebook和Instagram的所有者Meta提起诉讼,指控该公司对使用这些平台的未成年人进行不当操纵。这一发展是在涉及文本和生成人工智能的人工智能(AI)快速发展的背景下发生的。来自加州、纽约州、俄亥俄州、南达科他州、弗吉尼亚州和路易斯安那州等多个州的法律代表称,Meta利用其算法,通过应用内功能(如“喜欢”按钮)培养成瘾行为,并对儿童的心理健康产生负面影响。尽管Meta的首席人工智能科学家最近公开表示,对这项技术存在风险的担忧仍然“为时过早”,但政府诉讼当事人仍在继续采取法律行动,Meta已经利用人工智能来解决其平台上的信任和安全问题。
来源:Cointelegraph
虚拟货币
17.随着加密货币的飙升,“壮丽七家”(Magnificent Seven)科技股暴跌了2800亿美元
10月25日,“壮丽七家”科技股蒸发了2800多亿美元,引发了人们对即将到来的科技衰退的担忧。所谓的“壮丽七家”是指排名前七的蓝筹科技公司——苹果、微软、Meta、亚马逊、Alphabet、英伟达和特斯拉——它们加起来占标准普尔500指数价值的四分之一。母公司Alphabet股价下跌超过9%,市值蒸发1800亿美元。这被认为是自2020年3月新冠疫情爆发以来谷歌表现最差的一天。
来源:Cointelegraph
18.破产的加密货币交易所FTX希望调查支付给人工智能安全中心(Center for AI Safety)的650万美元款项
10月25日,破产的加密货币交易所FTX希望获得有关其此前向非营利人工智能(AI)安全组织人工智能安全中心(CAIS)支付的数百万美元款项的信息。在提交给破产法庭的文件中,掌掌FTX的律师声称,该公司在2022年5月至9月期间向CAIS提供了650万美元,几个月后,这家加密货币交易所倒闭并宣布破产。FTX希望特拉华州破产法院的一名法官批准向CAIS发出传票,询问CAIS是否与FTX、其关联公司和前高管收到了付款、资金、通信或签订了协议或合同。
来源:Cointelegraph
清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点
往期回顾
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG