OpenAI的Sam Altman如何看待2025年的人工智能和超级智能
2025-05-05 14:48

OpenAI的Sam Altman如何看待2025年的人工智能和超级智能

  

  OpenAI首席执行官萨姆·奥特曼最近在他的个人博客上发表了一篇文章,回顾了人工智能的进展,并预测了这项技术将如何影响人类的未来。奥特曼写道:“我们现在有信心,我们知道如何像传统上那样构建通用人工智能(AGI)。他补充说,ChatGPT背后的OpenAI公司正开始将注意力转向超级智能。

  虽然对AGI没有普遍接受的定义,但OpenAI历来将其定义为“在最具经济价值的工作中表现优于人类的高度自治系统”。尽管人工智能系统在国际象棋等狭窄领域的表现已经超过了人类,但AGI的关键在于通用性。例如,这样的系统将能够从头到尾管理一个复杂的编码项目,利用生物学的见解来解决工程问题,或者写出一部普利策奖级别的小说。OpenAI表示,其使命是“确保AGI造福全人类”。

  Altman在他的帖子中指出,技术的进步可能会导致人工智能在未来一年以人工智能代理的形式在工作场所得到更明显的应用,人工智能代理是一种自主系统,可以在没有人为干预的情况下执行特定任务,一次可能会采取几天的行动。他写道:“到2025年,我们可能会看到第一批人工智能智能体‘加入劳动力大军’,并从根本上改变公司的产出。”

  在最近接受彭博社采访时,奥尔特曼表示,他认为“AGI可能会在(特朗普)任期内得到发展”,同时指出,他认为AGI“已经成为一个非常草率的术语”。竞争对手们也认为人工智能已经接近了:OpenAI的联合创始人埃隆·马斯克(Elon Musk)经营着人工智能初创公司xAI, Anthropic的首席执行官达里奥·阿莫代伊(Dario Amodei)都表示,他们认为人工智能系统到2026年可能会比人类更聪明。在迄今为止对人工智能研究人员进行的最大规模的调查中,有2700多名参与者,研究人员共同估计,假设科学继续不间断地发展,到2027年,人工智能系统在大多数任务上超过人类的可能性为10%。

  其他人则持怀疑态度。著名的人工智能评论员加里·马库斯不同意奥特曼关于“基本上已经解决的问题”的看法,而微软人工智能首席执行官穆斯塔法·苏莱曼则表示,关于人工智能能否在今天的硬件上实现,“围绕这一点的不确定性如此之高,以至于任何明确的声明对我来说都是没有根据的,而且是过分的”,他引用机器人技术的挑战作为他怀疑的原因之一。

  微软和OpenAI自2019年以来一直是合作伙伴,他们也对AGI有一个财务定义。微软是OpenAI的独家云提供商和最大的支持者,迄今已向该公司投资超过130亿美元。两家公司达成协议,一旦实现AGI,微软将无法访问OpenAI的模型。根据这份尚未公开披露的协议,据报道,AGI的定义是,当一个人工智能系统能够产生其早期投资者有权获得的最大总利润时,即实现了AGI:目前这个数字为1000亿美元。然而,根据the Information的一份报告,最终,是否宣布“足够的AGI”仍由OpenAI董事会“合理判断”。

  目前,OpenAI离盈利还有很长的路要走。该公司目前每年亏损数十亿美元,据报道,预计到2026年,其年亏损将增加两倍,达到140亿美元。该公司预计在2029年之前不会实现首次盈利,届时其年收入将达到1000亿美元。Altman在x上的一篇文章中写道,即使是公司的最新计划ChatGPT Pro(每月花费200美元,用户可以使用该公司最先进的模型)也在亏损。尽管Altman没有明确说明公司亏损的原因,但运行人工智能模型的成本非常高,需要在数据中心和电力方面进行投资,以提供必要的计算能力。

  OpenAI表示,AGI“可以通过增加财富、涡轮增压全球经济、帮助发现改变可能性极限的新科学知识,来帮助我们提升人类水平。”但奥特曼最近的评论显得有些缓和。他在去年12月表示:“我的猜测是,我们将比世界上大多数人想象的更早实现人工智能,而且它的影响要小得多。”“人工智能可以建立起来,世界基本上以同样的方式发展,事物发展得更快,但从我们所说的人工智能到我们所说的超级智能还有很长的一段路要走。”

  在他最近的帖子中,Altman写道:“我们正开始将目标超越[AGI],转向真正意义上的超级智能。我们热爱我们现在的产品,但我们在这里是为了辉煌的未来。”

  他补充说,“超智能工具可以大大加速科学发现和创新,远远超出我们自己的能力,从而大大增加富足和繁荣。”这种加速科学发现的能力是AGI和超级智能之间的一个关键区别因素,至少对奥特曼来说是这样,他之前曾写道:“我们有可能在几千天内拥有超级智能。”

  超级智能的概念是由哲学家尼克·博斯特罗姆(Nick Bostrom)推广的,他在2014年写了一本畅销书《超级智能:道路、危险、策略》(superintelligence: Paths, dangerous, strategies),奥特曼称这本书是“他在这个话题上见过的最好的东西”。博斯特罗姆将超级智能定义为“在几乎所有感兴趣的领域大大超过人类认知能力的任何智能”,比如AGI,但不止于此。OpenAI在2023年的一篇博客文章中表示:“第一个人工智能将只是智能连续体中的一个点。”“一个错位的超级智能AGI可能会对世界造成严重伤害;一个拥有决定性超级智能领导的专制政权也可能做到这一点。”

  这些危害与超级智能的概念密不可分,因为专家们目前还不知道如何将这些假设的系统与人类价值观结合起来。AGI和超级智能系统都可能造成伤害,不一定是出于恶意,而仅仅是因为人类无法充分指定他们希望系统做什么。正如斯图尔特·罗素教授在2024年告诉《时代》杂志的那样,人们担心的是“那些看似合理的目标,比如解决气候变化,会导致灾难性的后果,比如把消灭人类作为解决气候变化的一种方式。”在他2015年的文章中,奥特曼写道:“超人机器智能的发展可能是对人类继续存在的最大威胁。”

  OpenAI此前曾写道,它不知道“如何可靠地引导和控制超人人工智能系统”。去年,在两位联合负责人离开公司后,该团队解散了,该团队成立的目的是领导人类安全转向超级智能系统的工作。当时,联合负责人之一简·莱克(Jan Leike)在X上写道,“在过去的几年里,安全文化和流程已经让位于闪亮的产品。”目前,该公司有三个安全机构:一个内部安全咨询小组,一个安全与安全委员会,它是董事会的一部分,以及部署安全委员会,该委员会的成员来自OpenAI和微软,并批准超过一定能力水平的模型的部署。奥特曼表示,他们正在努力简化安全流程。

  当被问及他是否认为公众应该被问及他们是否想要超级智能时,奥特曼回答说:“是的,我真的想;我希望我们能很快就如何解决这个问题展开更多的公开辩论。”OpenAI此前曾强调,该公司的使命是打造AGI,而不是超级智能,但奥特曼最近的帖子表明,这种立场可能已经改变。

  在最近接受彭博社(Bloomberg)采访时谈到人工智能带来的风险时,奥特曼表示,他仍然预计“在网络安全和生物领域,我们会看到严重的或潜在严重的短期问题,需要缓解”,而长期风险则更难准确想象。他说:“我同时认为这些风险是真实存在的,同时我也相信,解决这些风险的唯一方法就是发布产品并从中学习。”

  回顾近年来,奥特曼写道,这是“迄今为止我生命中最有价值、最有趣、最好、最有趣、最累、压力最大的两年,尤其是最不愉快的两年。”

  2023年11月,奥特曼被OpenAI董事会短暂罢免,随后又回到了公司。在进一步探讨这一事件时,奥特曼称这是“包括我在内的善意人士治理的重大失败”,并指出他希望自己当初能做得不同。在最近接受彭博社(Bloomberg)采访时,他进一步阐述了这一点,说他后悔最初说过,只有在整个董事会退出的情况下,他才会回到公司。他还代表董事会表示,存在“真正的欺骗”,董事会指责他在与他们打交道时没有“一贯坦诚”。当时的董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)后来写道,公司的高层领导曾找到她们,担心奥特曼培养了一种“有毒的撒谎文化”,并从事了可以被称为“心理虐待”的行为。

  现任董事会成员布雷特·泰勒(Bret Taylor)和拉里·萨默斯(Larry Summers)否认了托纳和麦考利的指控,并指出,代表公司的威尔默黑尔律师事务所(WilmerHale)正在对托纳和麦考利被解雇一事进行调查。他们在一篇专栏文章中写道,他们“发现奥特曼在所有相关问题上都非常乐于助人,并始终与他的管理团队合作。”

  该审查将奥特曼的解职归因于“前任董事会与奥特曼先生之间的关系破裂和信任丧失”,而不是出于对产品安全或发展速度的担忧。在谈到他重新担任首席执行官后的一段时间时,奥特曼告诉彭博社:“这就像是又一次政府调查,又一位董事会老成员向媒体泄露了假新闻。所有那些我觉得真的欺骗了我和公司的人都走了,现在我不得不收拾他们的烂摊子。”他没有具体说明“假新闻”是什么意思。

  在谈到这段经历教给他的东西时,奥特曼说,他“认识到一个拥有不同观点和丰富经验的董事会在应对一系列复杂挑战方面的重要性。”良好的治理需要大量的信任和信誉。”

  自2023年底以来,该公司的许多顶级研究人员——包括其联合创始人兼首席科学家伊利亚·苏斯克维尔、首席技术官米拉·穆拉蒂和介绍gpt的开创性论文的第一作者亚历克·拉德福德——已经离开了该公司。

  去年12月,OpenAI宣布计划重组为一家公益公司,这将使该公司摆脱试图解雇奥特曼的非营利组织的控制。这家非营利组织将获得新公司的股份,但价值仍在谈判中。

  奥特曼承认,有些人可能会认为超级智能的讨论“疯狂”,但他写道:“我们非常有信心,在未来几年里,每个人都会看到我们所看到的东西,我们需要非常谨慎地采取行动,同时最大限度地提高广泛的利益和赋权,这是非常重要的。”他补充说:“鉴于我们工作的可能性,OpenAI不可能是一家正常的公司。”

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 世腾网

相关推荐