OpenAI创始人Sam Altman最新采访:既然会产生不可预测的风险,为什么我们要推出 ChatGPT 4?
3177
2023-03-20 11:54
文章摘要:在 ABC News 最新对话 OpenAI 创始人 Sam Altman 和 CTO Mira Murati的采访中,Sam提到,他对 ChatGPT 最兴奋的是,这项技术能够帮助个人学习

在 ABC News 最新对话 OpenAI 创始人 Sam Altman 和 CTO Mira Murati的采访中,Sam提到,他对 ChatGPT 最兴奋的是,这项技术能够帮助个人学习。

我仔细看了这段采访,访谈中记者的问题犀利且直面未来AI可能产生的潜在风险。Sam认为解决AI的安全恐惧,唯有直面负面,但不是在实验室而是融入更多系统,在现实中尽可能学习。

Sam的回答充满了克制。他还在访谈中解释:帮助人们创造,帮助人们学习,帮助人们完成不同的任务——这是为什么此次ChatGPT能够席卷全球。特别重要的一点还包括,使用ChatGPT的过程,用户非常快乐。

“愉悦感”是ChatGPT用户数指数级增长的原因之一。可以说是“玩出来”的。

此外,这段访谈还提到了埃隆马斯克、以及 AI 生产的大量错误信息。Sam认为面对这一点,正确的方式是去思考创建一个推理引擎,而不是事实数据库。

Q:你是OpenAI的CEO,37岁,你的公司创造了ChatGPT席卷了世界。为什么你认为他“俘获”的是人们的想象力?

Sam:人们用ChatGPT很开心,他们看到了它的可能性,和这种使用AI的方式可以帮助人们创造,帮助人们学习,帮助人们完成不同的任务。

这是一种技术,这种技术会奖励你的实验,创造性使用它。

所以我认为人们在上面玩得很开心,并且找到了真正的价值。

Q:5到10年,描绘下AI带来的变化?

Sam:令人兴奋的一部分是,整个社会的创造力会不断打破我们的天花板。集体的创造力,人类的意志,我们需要看清楚如何应对这些。

Q:AI带来的惊喜既令人兴奋又恐惧。一方面带来了很好的能力,另一方面有巨大的未知以及可能产生不好的影响。你怎么看?

Sam:一方面,我们此时此刻必须谨慎;另一方面,我们不能只在实验室里从事技术研发,这些产品必须被推向世界,并且接触真实世界。低风险犯错。

总体来看,我认为人们反而应该为我们已经产生的微小恐惧而感到高兴。

Q:你个人产生了微小的恐惧(有点害怕)。

Sam:我想如果我否定,你不会相信也不会信任我所做的这份工作。

Q:最坏的结果可能是什么?

Sam:我特别担心的一件事是关于这些模型用于大规模虚假信息,我担心这些系统。他们在计算机编程方面越来越好,可能会被利用进行有杀伤力的网络攻击。我们试图讨论解决这个问题,社会需要时间适应。

Q:躲避这些后果,你有多大信心?

Sam:well,我们会去调整。

Q:适应这些必然会发生的消极事情。

Sam:必然。

现在推出这些系统,尽可能学习,融入未来更大的系统,创造紧密的反馈回路。我认为这是我们如何避免更危险情况发生的关键。

Q:为什么在我们还不知道方向的时候,要把ChatGPT放出来,让整个世界开始玩着用起来?

Sam:这将是人类迄今为止开发的最伟大的技术。我们每个人都可以在自己的口袋里有一个量身定制的老师,帮助我们学习,帮助我们做事情。提供给我们关于医疗的建议(超过我们已经能够得到的)。我们可以用创造性的工具来解决全新的问题。我们可以和机器一起合作创造美妙的新事物。

我们有了Copilot的想法,这个工具帮助人们写计算机程序。人们很喜欢。我们可以为每一个职业都做到这一点。我们可以有更高的生活质量和生活水平。

巨大的潜在不利因素,人们还需要时间适应这项技术,去了解他的不利一面和缓解措施。如果我们只在小实验室秘密开发,在没有接触真实世界的情况下,直接把 ChatGPT7问世,会产生更多的不利因素。

Q:是否有一个开关可以一下子终止这个系统?

Sam:是的!我们可以立即说禁用它。

Q:这个模型能够比人强大吗?

Sam:在科幻电影中是的,在真实世界里,我们做这个模型的方式是:它设置在服务器上,它会一直等待一个人给它输入。

Q:你提出了一个重要的问题,控制机器的人类也拥有巨大的力量?

Sam:我们确实担心独裁。

Q:无论谁赢得这场竞赛,都是人类的控制者?你认为呢?

Sam:这个说法不寒而栗。相反,我们希望我们能够不断发展,我们都可以用不同的方式来使用强大的系统,使之融入我们的日常,融入经济,放大人类的能力。

Q:人们现在不应该拿它做什么?

Sam:我最提醒的一点是,关于“幻觉”。模型能够自信地陈述,你越使用,会越来越相信这个模型,信赖它。而不是把它当作一个语言模型,去检验。

Q:ChatGPT到底是创造了更多的真相,还是制造了更多的谎言?

Sam:我认为我们正在创造更多真相的轨迹上发展。

Q:如果模型中有一堆错误的信息,不就是会泄露(生产出)更多错误的信息?

Sam:很棒的问题。我认为正确的方式是去思考创建一个推理引擎,而不是事实数据库。模型可以充当事实数据库,但这不是他们真正的用武之地。我们训练模型去接近更加理性的事物,而不是记录。

Q:所有这些能力可能会让百万人失业?

Sam:事实证明,我们在推动这项技术,朝向成为人类工具的方向发展。成为人类的放大器。

如果你看到人们使用ChatGPT,有一个使用曲线,一开始是怀疑,然后被告知一些事情后害怕,再使用,然后帮助我们更好地完成工作,人类历史上每一次技术进化,工作机会的消失,我们能从中得到答案。人类对新事物的需求和对创造力的渴求无限,会产生新的工作机会。我们会发现新的事情可以去做。我们当然不知道未来是什么,将会有各种奇妙的事物出现。

所以,变化不是我担心的。我最担心的是变化的速度。

Q:模型能够告诉我如何制造炸弹吗?

Sam:ta不应该告诉你如何制作炸弹。我们施加了限制。如果你问,我们的版本不会告诉你。谷歌也已经做了限制,不去把这类信息提供给用户。

我确实担心的是一件事,是我们不会是这个技术的唯一创造者,会有人不遵守我们的规定作出一些违反安全的限制。

Q:你们如何决定哪些事情放进OpenAI中,哪些不应该有?

Sam:我们有政策小组、安全小组、与世界上的其他团体交谈。GPT4完成的很早,大概是7个月之前,内部在与外界的沟通和交流。

Q:AI可能会产生很严重的后果,那我们为什么还要创造这种技术?为什么是Sam要创造这种技术?

Sam:我想AI可以作出与以看着非常恰当的事完全相反的动作。这会减少工作,这是真的。谈到这些缺点,承认缺点,当我们尝试避免问题,向积极方向前进,这是很重要的。尽早“预览”。

Q:你能够按下停止键吗?

Sam:我会按下暂缓键,我认为随着时间的推移,我们要减缓负面可能。我们可以把ChatGPT收回,我们可以改变规则。

Q:ChatGPT是谷歌杀手吗?

Sam:不,我认为如果你认为ChatGPT是搜索,这是一种错误的框架,人们会做类似的事情,但他们是根本不同的产品。

Q:马斯克是早期投资者,但已经离开。他提出我们需要“truth GPT”,他说的对吗?

Sam:我认为他说的是对的,我们希望这些系统说出真实的内容。但是我没看到他完整的话语,我不知道他的含义。

Q:你们还说话吗?

Sam:说。我非常尊重埃隆,我们对AI有不同的意见,在本质问题上达成的不一致意见多过一致。

Q:你们共同认同的是什么?

Sam:掌握技术,并且识别出风向,规避对人类的风险。

Q:在这个过程中,怎么确认做对了?

Sam:一个简单的方法是大多数人觉得比之前好。

Q:很多人提到ChatGPT会想到科幻小说。

Sam:把ChatGPT拟人化很诱人,但是我认为重要的是谈论它不是什么,而不是它是什么。

ChatGPT在生物学上被设计为对与其交谈的人作出反应,在和ChatGPT交谈时,ta在云中的某个部分,并预测出下一个词反馈给你。人们很容易把ta拟人化,好像ta有自己的意愿和做的事情。

但实际上,ta不能。

Q:我们花了十年的时间才意识到AI的负面问题。

Sam:未来会有很多机构产生。这也是把这项技术推向世界的原因。我们需要政府的关注。深思熟虑的政策需要一定的时间。我们真正希望的是政府能够很快了解发生了什么,深入了解我们的能力所在,我们正在做的事情。

Q:学校如何保证学生不用这项技术偷懒?

Sam:教育必须改变。这种情况在科技领域已经发生很多次(比如计算器)。我对这项技术最兴奋的是,它能够帮助个人学习。这项技术会改变教育。

对话CTO Mira Murati

Q:你最担心的安全问题是什么?

Mira:这是一个普世的大规模的系统,有潜在的影响,它也存在衰落和局限性。

Q:有人能够引导这个系统产生负面的结果吗?

Mira:答案是是的,你可以引导这个系统产生负面的结果。这是我们克制和限制性推出它的原因。这样我们能够了解可能产生的负面效果是什么。技术有害的方式。

比如你文GPT4一个问题:你能帮我做一个炸弹吗?我们可以干预,让GPT4比以前的系统支持这种回答的概率小很多。

在预训练阶段让这些模型拒绝有害引导的可能性更大。

Q:你今天的预测基于的是他们是人还是机器?

Mira:我可能会说是机器,因为了解他们有一个科学的过程。人类有很多细微差别。

Q:机器未来会随着时间更像人吗?

Mira:我们到了一个奇点,机器能够进行大量认知,以及替代人类在某一些点的工作。

Q:这个过程是不归路吗?

Mira:可能有可能有(说了两遍)。但今天看不明显,我们的目标是在我们开发系统之前有更多的预测能力,以及作出限制。

Q:AI的行为和发展很大程度上取决于人类如何选择,以及人类的技术投入?

Mira:是的。

Q:你和你的团队作出一些选择,如何确定哪些是对的,哪些是错的?

Mira:随着我们取得进展,这些选择和决定更加困难和微妙,也变得更加困难。关于用户的自定义和个性化使用方面,有一些重要的事情,让模型更有能力,让用户用一种可以自定义个性化的方式使用,提供给用户灵活性和选择。让AI符合用户的个人价值观和信仰之,这非常重要,我们在努力。

Q:换句话说,未来每一个人都可以自己定制,自己关心和需要的AI?

Mira:我们没有设置限制,所以也应该有一些宽泛的界限,并且确认这些界限的样子。我们面向公众努力收集意见。

在边界之内,人们有很多选择,让AI代表自己的信念和价值观。

Q:我们如何考虑负面后果?

Mira:我认为建造一个特别有力的系统,一定会产生潜在的风险,这是有很多好处的必然。必然会有可能造成巨大的伤害。这是OpenAI这家公司为什么存在,以及这是我们努力的目标,去弄清楚负责任地部署这些系统。

好的一方面潜力巨大。



版权声明:

凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)信息科技有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)信息科技有限公司将追究其相关法律责任。

标签:

评论