马斯克呼吁暂停AI研究,吴恩达:呼吁无效

818次阅读
没有评论

马斯克呼吁暂停AI研究,吴恩达:呼吁无效

图片来源@视觉中国

文 | 硬科技星球Pro,作者 | Aideal Hwa

马斯克等“千人联名”呼吁暂停AI研究事件经过一天发酵后,以吴恩达、田渊栋为代表的AI研究支持派也开始发声,公开反对“千人联名”,一场关于“要不要打开潘多拉魔盒”的论战拉开帷幕,被网友戏称为“三体照进现实?降临派、拯救派和幸存派不是开玩笑的。”这究竟是怎么一回事?

暂停or继续,ChatGPT训练引发马斯克、吴恩达论战

事情起因是3月29日美国非营利性组织未来生命研究所(Future of Life Institute)发布的一封公开信,信中呼吁所有人工智能(AI)实验室立即暂停训练比GPT-4更强大的AI系统。

马斯克呼吁暂停AI研究,吴恩达:呼吁无效

“千人联名”公开信(图片来源于网络截图)

半年前,ChatGPT的发布推动了AI热潮,不到两个月的时间就有了上亿个月活用户。时至今日,与ChatGPT相关的话题仍旧频繁登上社交媒体热搜榜单,A股市场上ChatGPT概念股板块历经多番涨停潮,百度、阿里、京东、网易等科技公司相继宣布推出或研发对标产品的计划。

就在行业期待通用型AI能够在ChatGPT的热潮中迎来真正落地的时刻,却冒出了呼吁暂停AI训练的公开信,而后特斯拉及推特首席执行官马斯克等上千人在这封公开信中予以了签名,Stability AI CEO、07年图灵奖得主、苹果联合创始人、多位DeepMind工程师也都赫然在列,形成了极具分量的“千人联名”,引发业界关注。

这封公开信表明了对AI潜在风险的担忧:“只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。”

马斯克呼吁暂停AI研究,吴恩达:呼吁无效

吴恩达公开发贴反对“千人联名”(图片来源于推特截图)

很快,吴恩达、田渊栋等一众AI大牛发文公开反对“千人联名”,吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同,他们认为“6个月暂停令”本身并不是一个非常切实可行的建议,是在扼杀AI进步。

双方提到同一关键词“安全”,技术惊人进化引发人类担忧

无论是呼吁暂停研究的“拯救派”还是反对千人联名的“降临派”,仔细分析双方的发言,发现焦点集中在了“安全”:“千人联名”公开信中建议,利用“暂停训练”的这段时间,开发和实施一套共享安全协议,用于高级人工智能设计和开发,并由独立外部专家进行严格审核和监督……人工智能的研究和发展,应该重新聚焦于朝着更准确、安全、可信可解释等的AI系统开发工作上来。吴恩达的帖子中也提到,要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。

从双方对AI“安全”的关注可以看出,这轮关于“暂停AI训练”的争议,本质上是人们对于AI技术无序发展的恐惧和不安,这也并非AI发展中第一次引发这样的担忧。2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,就曾联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。

当年的呼吁并没有阻挡技术前进的步伐,如今AI已经呈现出了更加令人不安的“智能”,以至于很多人担心,AI会不会像科幻作品中描述的那样,可以像人一样自主思考,甚至更全面更智慧,就像《流浪地球2》里的数字生命计划一样,人的智慧逃逸到数字空间之中,那么人类是否还有存在的必要?《人类简史》当中也描绘了未来人类这个物种可能面临的巨变。

清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈表示,AI距离具备科幻作品中呈现的那种自主人格,还相差很远的距离。“通俗来说,AI学习了大量的人类对话数据,而这些对话来自不同的人,所以可以认为AI学习到了一个‘平均’的人格,但也仅仅是语言说话风格,而且是来自人类的说话风格,并不是AI自发形成的。”

但是,科学的确存在伦理风险,尤其是人类对AI的情感依赖越来越多的情况下,黄民烈教授举例:假想某个受到生活严重打击的人,对AI说:“我想找个桥跳下去”,AI立刻提供了附近桥的位置并导航路径,后果细思恐极。

“千人联名”事件前后发生的一次自杀事件似乎印证了这种担忧,一名化名为皮埃尔的比利时男子在与一个名为“艾丽莎”的智能聊天机器人频繁聊天六周后自杀身亡。“艾丽莎”由美国硅谷一家初创公司开发,背后由GPT-J支撑,与ChatGPT采用OpenAI开发的GPT-3或GPT-4为竞争关系。

ChatGPT的开发公司OpenAI也曾在GPT-4技术报告中描述了一些可预见的,与偏见、虚假信息、过度依赖、隐私、网络安全等相关的风险——ChatGPT“胡言乱语”的问题始终没有得到有效解决,其因此备受诟病。

用魔法打败魔法,用技术规范技术

由此看来,暂停AI研究的确不切实际,借用Meta FAIR研究院研究员/高级经理、CMU机器人系博士田渊栋对AI发展的描述来说:一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。

但这不意味着人类对可能存在的伦理安全问题“束手无策”,ChatGPT这类生成式AI是通过范例学习的,他们的行为是可以规范的,应该鼓励合规的机构去发展AI,用合法AI去对抗非法AI,而不是停滞不前。

事实上,AI飞速向前发展的同时,有关AI安全的技术也从未止步。前不久,微软在其首届Microsoft Secure活动中发布了一款生成式AI安全产品Security Copilot,把AI技术应用到了网络安全领域。该产品由OpenAI的大型语言模型GPT-4和微软自家的安全模型提供支持,在微软云服务Azure上运行,用以帮助更快、更准确地检测和响应安全威胁。

在更早的2021年,微软就成立了安全、合规、身份与管理部门来应对日益加剧的网络安全挑战。2022年,网络安全业务为微软带来了超200亿美元的营收。微软曾称,未来五年间将不断加大对网络安全业务的投入,预计将在客户安全保护方面投入近200亿美元。

国内在AI安全方面的相关成果也正在出现,例如,3月聆心智能联合清华大学CoAI实验室历经两年建立的大模型安全评估框架正式发布,对ChatGPT的安全设计所不能规避的风险问题形成了更全面的补充,建立了大模型安全分类体系,设置了八大不安全的对话场景,包括政治敏感、犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论、伦理道德,并针对以上八大不安全场景对大模型进行针对性升级,使模型能够在遇到安全问题时给予正确的回复策略,不去做判断和误导。

此外,研究团队还收集和构造了相应的hard case(更难识别和处理的安全测试用例),总结和设计了六种一般模型难以处理的安全攻击方式,称为指令攻击。使安全体系更加完善,进一步改进和优化模型表现。

据了解,早在去年7月,黄民烈教授就在媒体报道中表现出了对AI安全的关注,他表示,“AI对话系统下一阶段发展的重点是更有伦理、更道德、更安全。我们可以通过额外的资源、规则、检测手段赋予AI这样的能力,使风险降至最低。”

马斯克呼吁暂停AI研究,吴恩达:呼吁无效

“潘多拉的魔盒”难以逆转,积极拥抱AI for Social good

在科技发展的宏伟历史中,任何一项新兴技术的出现往往会引起人们对未知的恐惧,那些能够引起社会巨大变革的技术总是被比喻为“潘多拉的魔盒”,可能是引发灾难的根源,但是别忘了除了欲望与罪恶,盒子中也藏着希望。并且,“潘多拉的魔盒”一旦打开,很难扭转这一趋势,我们应该做的是规避不幸,释放希望。

就像当前急速发展的AI技术,暂停研究的呼吁是为了促进AI技术建立较高的道德标准和伦理规范,确保AI技术的应用不会对个人和社会造成潜在的危害。但应该看到,AI技术的发展是人类社会前进的必经之路,比起暂停进步,更应该做的是理解AI,适应它并利用其力量,同时建立起安全可信的框架规范其发展,确保其在促进人类社会发展的轨道上不偏航。

发展AI最终的目标是为人类谋福祉,而不是伤害人类,期待AI for Social good(AI赋能社会)尽快到来,为人类社会发展带来更高的社会意义和价值。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy