人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞

618次阅读
没有评论

人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞

图片来源@视觉中国

文 | InternetLawReview,作者 | 张颖

2023年5月16日,OpenAI 公司首席执行官Sam Altman参加了美国参议院司法隐私和技术小组委员会组织的题为“人工智能监管”的听证会,与另外两名人工智能专家——IBM 首席隐私和信任官Christina Montgomery、纽约大学名誉教授 Gary Marcus——一同就美国应如何监管人工智能技术作证。

三个小时的听证会涉及生成式人工智能给社会带来的诸多风险:就业、错误信息、知识产权、隐私、安全、偏见和歧视等。与大多数听证会一样,会议提供的问题多于答案;但与大多数国会就CEO组织的听证会不同的是,参议员提问的整体基调是礼貌的,而非严厉的盘问。民主党和共和党议员们都表示,他们有兴趣寻求Altman的专业知识来避免尚未发生的问题。

由于OpenAI在人工智能技术领域所处的领先地位,以及国会议员“虚心”请教的姿态,这场听证会所传达出的信息尤为重要,可能透露了一些未来美国甚至是全球人工智能监管趋势。

普遍承认人工智能的危险性并需要监管

行业高管呼吁监管令立法者满意

当被问及对 AI 最担心的事情时,OpenAI公司首席执行官Altman大多回避了细节,但表达了该行业可能会“对世界造成重大伤害”,如果这项技术出了问题,它可能会“大错特错”

Altman在听证会上提议:应该由一个新的监管机构实施保障措施,以阻止可能“自我复制和自我渗透”的人工智能模型。他暗示了对可能操纵人类放弃控制的先进人工智能系统的担忧。

Altman认为,政府的监管干预对于减轻日益强大的模型的风险至关重要,这种开放态度受到了多位立法者的赞扬。其中,康涅狄格州民主党主席理Richard Blumenthal说起Altman与其他大型科技公司CEO不同的作风,认为他有参与和承诺采取具体行动的意愿,与其他大型科技公司CEO阳奉阴违的方式非常不同,“非常真诚”。

据悉,Altman 计划本月开始全球巡回演讲,前往六大洲的国家首都和主要城市,与决策者和公众讨论这项技术。Altman表现出“拥抱监管”的态度成就了一种独特的“魅力”,或将与其产品ChatGPT一道席卷全球,这无疑将减少OpenAI在全球运营中所受的监管阻力。

参与这场听众会的行业领导者都表示,他们欢迎政府部门对 AI技术在某种形式上的监督:

  • Altman:建议建立一个以人工智能为重点的国际机构,例如联合国的核监管机构;
  • Marcus:建议建立一个新的内阁级别的联邦机构,对人工智能技术进行类似食品和药物管理局那样的安全审查;
  • IBM 的Montgomery:建议国会采取“精确监管”的方式,通过制定规则来管理人工智能特定用途的部署,而不是技术本身。

美国立法者坚持要求人工智能平台对其内容负责

美国两党参议员都反复将 AI 的风险与社交媒体的风险进行比较,同时承认 AI 具有更快的速度、更大的规模和不同种类的危害,同时表示,人工智能监管不应重蹈国会在社交媒体时代初期犯下同样的“错误”。

立法者没有就人工智能技术监管提出具体的建议,但数次提到美国《通信规范法》第 230 条——该法律二十多年来一直是互联网平台的“免责盾牌”,用以驳回就其用户言论或内容审核决定的诉讼。而这目前被立法者认为是其在早期的互联网时代所犯下的“错误”之一,因此他们认为,人工智能公司应当提前思考并对其业务决策的后果负责,而这可能是最强大的监管工具

人工智能造成的版权问题应该用利益分配来解决

一些立法者质疑使用受版权保护的材料来训练人工智能生成新作品的法律问题。这也是美国作家协会罢工中的一个原因——内容创作者普遍对这项技术对保护其知识产权的意义表示担忧。

有议员向Altman提问,人工智能公司在使用受版权保护的作品或使用他们的声音和肖像之前是否应该征得艺术家的同意;也有议员提议,立法应允许报纸和电视台与科技巨头共同谈判内容交易。

对此,Altman在没有提供任何细节的情况下,就似乎与立法者达成了一致意见。Altman认为,不管法律如何,内容所有者需要从新技术中获得显著的收益

我们认为内容创作者、内容所有者需要从这项技术中受益。究竟经济模式是什么,我们仍在与艺术家和内容所有者讨论他们想要什么。我认为有很多方法可以做到这一点。但很明显,现在不管法律是什么,正确的做法是确保人们从这项新技术中获得显着的收益。我们相信它真的会实现这一点,内容所有者、肖像、人们完全应该控制它的使用方式并从中受益。

AI生成的虚假信息及其对美国选举的影响

聊天机器人非常擅长模拟人类的演讲和写作。而2024年美国大选在即,议员们当然非常关注人工智能技术在 2024 年选举周期中影响人们意见的能力,他们询问专家,生成式人工智能是否可用于针对犹豫不决的选民?

Marcus 也提醒议员:目前美国所有的任何人工智能公司,都有可能被其他公司所收购或控制,而这些人工智能系统在塑造我们的观点和生活方面所拥有的力量非常重要,应当警惕其被用于各种不良目的的风险。

当Altman被问及“虚假信息”的问题时,他没有否认或逃避,而是承认这些模型能更普遍的操纵和说服人类,且拥有提供某种一对一虚假信息的能力。

对此问题应如何解决,Altman在陈述中强调了“全社会的方法”和“与政府合作”,隐含了这样的观点——人工智能公司不能也不应当为“虚假信息”负全责,如何限制用户的不正当使用,更多应当是政府和用户本人的责任:

产生内容只是虚假信息生命周期的一部分;虚假或误导性的信息还需要传播才能造成重大伤害。我们将继续探索在整个虚假信息生命周期方面与行业研究人员、政府的合作关系。

暂停人工智能开发被视为不现实

值得注意的是,这次参与听证会作证的人工智能专家之一Gary Marcus,曾参与并签署了呼吁科技公司暂停开发更强大的人工智能模型的公开信。

Altman虽然赞同那封公开信的部分内容,但表示,迭代发布比暂停更好,因为“秘密构建一个超级强大的 AI 系统,然后一次性将它投放到世界上,不会很顺利”。

人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞

但来自监管者的意见更有代表性。民主党议员Richard Blumenthal在听证会开场时就表达了他对生成式人工智能充满了担忧和戒备,还特别列举了一个关乎国家安全和意识形态的例子。不过,对于是否应当继续发展人工智能的问题,Blumenthal却说,试图阻止人工智能的发展是没有意义的,“世界不会等待,全球科学界的其他成员也不会停下来。我们的对手正在前进,把头埋在沙子里不是答案。”

“国家安全问题”并没有正式进入这次听证会的讨论中,但在结束之时议员表达了该问题“非常真实和紧迫”,需要另行讨论。显然,国家安全,既是美国人工智能监管需要对付的重大问题,同时也是人工智能开发必须进行下去的最大动因

附录:Sam Altman 在国会听证会中声明的关键点

1. AI 的潜力:Altman 相信 AI 有潜力改善我们生活的几乎每个方面,从生产力到创造性工作,再到应对气候变化和癌症等重大挑战。他用印刷机的变革性影响做了一个类比。

2. OpenAI 的使命和结构:OpenAI 由非营利组织管理,其活动由致力于确保 AI 利益的广泛分配和安全性最大化的使命和章程驱动。他们的目标是构建可以为人类做出重大贡献的工具。

3. 安全与责任:在发布任何人工智能系统之前,OpenAI 都会进行广泛的测试,聘请外部专家进行审计,改进模型行为,并实施稳健的安全措施。Altman 强调,对于他们的最新模型 GPT-4,他们花了六个多月的时间进行评估和测试。

4. 监管和与政府的合作:Altman认为,政府的监管干预对于减轻日益强大的人工智能模型的风险至关重要。他提出了对超过特定能力阈值的 AI 模型的许可和测试要求的组合。Altman表示愿意与各国政府合作制定和更新安全措施,并探索全球协调的机会。

5. 对 AI 的焦虑:Altman 承认许多人对 AI 可能如何改变我们的生活感到焦虑。他认为,必须共同努力来识别和管理潜在的不利因素,以便我们都能从中受益。

6. 民主价值观的重要性:Altman强调在开发强大的人工智能时应牢记民主价值观,强调美国在这一领域的领导地位的重要性。

7. 展望未来:Altman对减轻人工智能风险的能力表示乐观,并相信它有潜力促进美国和世界经济的发展。他期待与利益相关者合作,迎接这一技术时刻的挑战和机遇。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy