AI威胁论:先过狗关,再赛人智

609次阅读
没有评论

AI威胁论:先过狗关,再赛人智

图片来源@视觉中国

文|科技新知

ChatGPT人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性。

几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制。

上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

不过,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点。

这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题,是人类把技术看作是工具,完全受人类控制,还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁。

乐观派:AI不如狗

上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制。

“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的。”杨立昆说,“大部分人类的知识与语言无关……所以人类经验的那一部分并未被AI捕捉到。”

AI威胁论:先过狗关,再赛人智

“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如。”杨立昆总结道。

这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:

“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能。主要是因为它还不存在。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟。”

AI威胁论:先过狗关,再赛人智

当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早。至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度。

AI威胁论:先过狗关,再赛人智

其一,人们不会给现阶段的AI以完全自主权:

杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标。

这种情况自然引发了一系列的担忧。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为。一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强。

然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统。

其二,智力和控制欲毫无关联性:

许多人认为,智能实体会因为比人类更聪明而想要支配人类。然而,杨立昆认为这是个误解。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关。

人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望。因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系。

此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的。

在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺。

实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例。完全中断研发进程并不是一个明智的决策。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值。

谨慎派:心思各异的联盟

相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势。当新的事物出现时,它往往会引发人们的担忧和疑虑。这是人类对可能带来颠覆性改变的新技术所产生的本能反应。

在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现。

关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象。

然而,问题在于,这场大讨论真的有用吗?表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动。这种现象在一定程度上显得像是在浪费大家的时间。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声。”这是不少业界人士对这种现象的评价。

就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传。

当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,不乏也有一些独到的见解。

中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。

在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:

如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样,视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。

如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。但曾毅认为,正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。

有趣的是,这似乎正好在反驳杨立昆的两大主要论点。

此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖”。

然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉。本吉奥认为,所有致力于构建强大AI产品的企业都应该进行正式的注册和报备。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制。”

辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。辛顿表示,“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶。”

辛顿对于AI的担忧主要有两个方面。首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响。其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置。

写在最后

上文中对立两派的观点,其实也有重合的地方。对于如今的 AI 是否具有风险以及该如何克服,两派代表人物杨立昆和奥特曼看法一致。他们都认为,即便风险存在,但可以通过仔细的工程设计,减轻或抑制它。

可以肯定的是,随着AI技术的不断发展和深化,两派之间的争论和争议仍将持续不断。

不过相对于国外热火朝天地讨论,国内对AI伦理和风险的关注相对较少。市场似乎更专注于AI大模型如何改变各行各业,并对此感到喜悦和兴奋。

原因可能在于,一方面为了在全球竞赛中夺取发言权,商业公司首先需要缩小与国外AI大模型的差距;另一方面,也正由于国内的AI大模型能力还未进入未知前沿,大家对AI可能带来的威胁并未给予足够的关注。

在此背景下,国内的AI创业者更倾向于维持一种技术乐观主义的态度,他们不希望过早收敛自身发展,认为这将相当于提前投降,放弃了与国外竞争的机会。

总的来说,这次的争论并非毫无意义的口舌之争。它为我们提供了一个理想的舞台,让我们深入探讨AI的未来走向,以及如何以人类的智慧和经验,来引导这一领域的发展,使其真正地服务于人类社会,而非反过来控制我们。

从这场激烈的辩论中,可以清楚地看到,人类现在正站在一个重大的决策点。无论是选择乐观地拥抱AI的发展,还是谨慎地审视其可能带来的风险,都需要意识到,现在所做的每一个决定,将会影响人类和AI之间的关系,也将塑造人类对未来的想象和期望。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy