本·特纳是Live Science的特约撰稿人,他的报道指出,根据最近一项对业内专家的调查,目前的人工智能方法不太可能创造出能与人类智能相匹敌的模型。

在这项面向475位人工智能研究人员的调查中,有76%的人表示,大型语言模型的扩展“难以”、或“非常难以”实现通用人工智能(AGI)——也就是机器学习系统能够像人类一样,甚至更好地学习的这个假设性里程碑。
这是对科技行业流行预测的一个明确否定。
自2022年生成式人工智能爆发以来,科技界普遍认为,当前最先进的人工智能模型只需要更多数据、硬件、能源和资金,就能超越人类智能。
如今,随着新模型发布的步伐似乎陷入停滞,大多数接受世界人工智能促进协会调查的研究人员认为,科技公司已经走进了死胡同——再多钱也无法使其突破。
“我认为自GPT-4发布后不久就很明显了,继续扩展所带来的进步既有限又代价高昂。”加州大学伯克利分校的计算机科学家拉塞尔说,他是这项报告的组织者之一。
他在接受Live Science采访时表示:“人工智能公司已经投入太多,无法承认自己犯了错误。如果承认错误,他们将不得不退出市场多年,却还要偿还投资者投入的数千亿美元。所以他们唯一能做的就是加倍下注。”
近年来,大型语言模型带来的惊人进步,部分得益于其背后的Transformer架构。这是一种深度学习架构,由谷歌科学家在2017年首次创建,通过吸收人类输入的训练数据来不断成长和学习。
这种架构,使模型能够通过神经网络(即一系列模拟人脑学习方式排列的机器学习算法)生成概率模式,在接收到提示后前馈生成结果,并随着数据的增加提高答案的准确性。
但要持续扩展这些模型,需要巨额资金和能源。2024年,生成式人工智能行业在全球共获得560亿美元的风险投资,其中大部分资金投入到了建设庞大的数据中心园区中,而这些园区的碳排放量自2018年以来已增长了三倍。
预测显示,人类生成的数据是模型进一步发展的关键资源,而这一资源很可能会在本十年末耗尽。一旦发生这种情况,替代选项可能就是开始收集用户的私人数据,或者将人工智能生成的“合成”数据重新输入模型中。
这种做法可能导致模型因为吸收自身产出而发生错误,甚至崩溃。
调查专家指出,目前模型的局限性不仅仅是因为消耗资源巨大,更是因为其架构存在根本性问题。
“我认为当前方法的基本问题是,它们都依赖训练大型前馈电路。”拉塞尔说,“电路本身作为概念表达方式有根本限制。这意味着要表达哪怕是近似的概念,电路也必须非常庞大——本质上就像是一个升级版的查找表——这就导致对数据的巨大需求以及零散、不完整的概念表示。这也解释了为什么普通的人类围棋选手能轻松击败那些‘超人级’围棋程序。”
这些瓶颈给努力提升人工智能性能的公司带来了重大挑战,一些调查参与者表示,这导致模型在评估基准测试中的得分停滞,也让外界传闻的OpenAI的GPT-5模型至今未见发布。
今年,关于“扩展就能带来进步”的假设,也被中国公司DeepSeek打破。DeepSeek的模型在成本和能耗远低于硅谷高价模型的前提下,实现了相当的性能。
正因如此,79%的受访者表示,公众对人工智能能力的认知并不符合现实。
“有很多专家认为这是一场泡沫,”拉塞尔说,“尤其是在那些性能不错的模型可以免费获取的情况下。”
不过,这并不意味着人工智能的进展已经停滞。调查显示,推理模型——这些专门模型会投入更多时间和计算资源来处理问题——比传统模型生成更准确的回答。
受访者表示,将这些推理模型与其他机器学习系统结合,特别是在被压缩成专业模型之后,为未来开辟了令人兴奋的道路。DeepSeek的成功也表明,人工智能系统的设计仍有大量工程创新空间。
专家们还指出,概率编程可能比当前的电路模型更有可能实现通用人工智能。
注:概率编程(Probabilistic Programming)是一种结合了统计学和编程语言的方法,用来更方便地构建和运行复杂的概率模型。简单来说,让人可以像写普通程序那样,去定义一个包含不确定性和推理能力的模型。比如,在传统编程中,要处理的数据是确定的;而在概率编程中,可以把一些变量设置为“未知但遵循某种分布”,然后让计算机帮你“反推”出最有可能的结果或解释。
“业界正在押注生成式人工智能将诞生高价值应用。”俄勒冈州立大学计算机科学荣誉教授迪特里希说,他也参与了这份报告的撰写。
“过去重大的技术进步往往需要10到20年才能带来显著回报。”他说,“第一批公司往往失败,所以我不会对今天的很多生成式人工智能创业公司最终倒闭感到意外。但很可能会有一些取得巨大成功。我只希望我知道会是哪几家。”