本文来自MIT人工智能专家Lex Fridman的播客节目,在与Lex Fridman的坦率对话中,Altman讨论了人工智能的所有内容,包括比较敏感的,语言模型GPT是否“太清醒”或有偏见的争议问题。
尽管Altman承认“醒来”一词随着时间的推移而改变,但根据Fridman周六发表的采访,他最终承认它有偏见,而且可能永远都是有偏见。
Altman补充说,在GPT-3.5和GPT-4版本之间,OpenAI显著增强了GPT模型。
他感谢批评者注意到OpenAI取得的进步,同时也指出还有很多事情要做。
Altman回应了Elon Musk对OpenAI的AGI安全研究的批评。Altman同情Musk的担忧,但希望Musk更专注于解决人工智能安全问题的艰巨工作。
Elon现在显然在推特上在几个不同的载体上攻击我们,我对此有同理心,因为我相信他对AGI安全感到非常紧张,这是可以理解的。我相信也有一些其他的动机,但这绝对是其中之一,我绝对是和Elon一起长大的,是我的英雄。你知道,尽管他在推特上是个混蛋,但我很高兴他存在于这个世界上,但我希望他能做更多的事情来看待努力工作。
人工智能(AGI)和人工智能(AI)之间有显著的区别。AGI是一种可以理解或学习人类可以执行的任何智力任务的机器,而AI是一种擅长特定任务的机器。
Altman公开了人工智能风险的概率:
我认为很多预测,这对任何新领域都是如此,但很多关于人工智能的预测在能力方面,在安全挑战和简单部件方面都是错误的。关于人工智能潜力及其安全问题的许多预测被证明是不准确的。
站在公司一边越狱有点糟糕。我们希望用户拥有很大的控制权,并让模型在广泛的范围内以他们想要的方式行事。越狱的存在表明我们还没有解决这个问题,我们解决得越多,越需要越少。人们不再真正越狱iPhone了,
此外,还讨论了更一般的主题,如生命的意义、事实与虚构的区别以及育儿技巧。Altman强调了智力诚实的价值,接受错误是可以犯的,并从中成长。
点击这里,可以查看视频原文:https://www.youtube.com/watch?v=L_Guz73e6fw