插图贾里德-布里格斯
如今,要想成为人工智能领域的领导者,首要条件是成为数字救世主即将到来的预言家:超级智能人工智能。
对于 Anthropic 公司的达里奥-阿莫代(Dario Amodei)、谷歌公司的德米斯-哈萨比斯(Demis Hassabis)和 OpenAI 公司的萨姆-阿尔特曼(Sam Altman)来说,仅仅宣称自己的人工智能是最好的还不够。他们三人最近都坚持认为,人工智能将变得如此出色,它将改变社会的根本结构。
就连 Meta 公司--其首席人工智能科学家一直对这种说法不屑一顾--也想参与其中。该公司证实,它将斥资 140 亿美元,为其人工智能工作引入一位新的领导者,以实现马克-扎克伯格的人工智能超级智能梦想,即比我们更聪明的人工智能。
阿尔特曼在本周的一篇文章中宣称:"人类即将建立数字超级智能。"这将导致 "整类工作的消失 "以及 "新的社会契约"。人工智能驱动的聊天机器人将接管我们所有的白领工作,而人工智能驱动的机器人将承担物理工作,这两者都将带来后果。
在你为曾经对 Alexa 的无礼而感到紧张之前,请先了解这一点:越来越多构建、研究和使用现代人工智能的研究人员并不买账。
AppleAAPL2.20%的一篇新论文的标题说明了一切:"思考的幻觉"。在这篇论文中,六位顶尖研究人员对推理模型进行了研究--这些大型语言模型可以更长时间、跨多个步骤地 "思考 "问题--这些模型来自领先的人工智能实验室,包括OpenAI、DeepSeek和Anthropic。他们发现,几乎没有证据表明这些模型的推理能力接近其制造者声称的水平。
Open AI 首席执行官山姆-奥特曼照片:Justin Sullivan/Getty Images
生成式人工智能在特定应用中非常有用,对提高工人的工作效率大有裨益。OpenAI 声称其 ChatGPT 月活跃用户达到 5 亿--对于一项两年半前才发布的服务来说,其覆盖范围之广、增长速度之快令人惊叹。但这些批评者认为,过高估计它能做什么,并根据似乎与产品本身越来越脱节的声明来制定商业计划、政策决策和投资,是非常危险的。
苹果公司的论文建立在许多相同工程师之前的工作以及学术界和包括Salesforce 在内的其他大型科技公司的著名研究基础之上。这些实验表明,今天的 "推理 "人工智能--被誉为迈向自主人工智能代理和最终实现超人智能的下一步--在某些情况下在解决问题方面不如之前的普通人工智能聊天机器人。这项研究还表明,无论你使用的是人工智能聊天机器人还是推理模型,所有系统在完成更复杂的任务时都会彻底失败。
苹果公司的研究人员发现了这些模型的 "根本局限性"。当承担的任务超过一定的复杂程度时,这些人工智能的 "准确性完全崩溃"。同样,Salesforce AI 研究公司的工程师也得出结论,他们的研究结果 "凸显了当前 LLM 能力与现实世界中企业需求之间的巨大差距"。
重要的是,这些最先进的人工智能无法解决的问题都是逻辑谜题,即使是早熟的孩子,只要稍加指导也能解决。更重要的是,当你给这些人工智能下达同样的指令时,它们却无法执行。
苹果公司的论文在科技界掀起了一场争论--Signal聊天室、Substack 帖子和 X 线程--人工智能极致论者与怀疑论者针锋相对。
"风险投资公司 Lux Capital 的联合创始人乔希-沃尔夫(Josh Wolfe)说:"人们可能会说这是酸葡萄心理,苹果公司只是在抱怨,因为他们没有最先进的模式。"但我不认为这是一种批评,而是一种经验观察。"
OpenAI 的一位发言人说,OpenAI 模型中的推理方法 "已经为能够使用工具、做出决策和解决更难问题的代理奠定了基础"。"我们将继续推动这些能力向前发展。
关于这项研究的争论始于这样一种暗示,即当今的人工智能并没有思考,而是在其训练数据所涵盖的每一种情况下,创造出一种由简单规则组成的意大利面条。
加里-马库斯(Gary Marcus)是一位认知科学家,曾在2016 年将一家人工智能初创公司出售给优步,他在一篇文章中认为,苹果的论文以及相关工作暴露了当今推理模型的缺陷,表明它们不是人类水平能力的曙光,而是一条死胡同。"他说:"苹果公司的研究如此成功,部分原因是苹果公司做了这项研究。"我认为,他们是在人们终于开始自己理解这一点的时候做了这项研究。
认知科学家加里-马库斯照片:Don Mackinnon/Agence France-Presse/Getty Images
在编码和数学以外的领域,最新模型的进步速度并不如从前。而最新的推理模型实际上比它们的前辈产生了更多的幻觉。
罗格斯大学工程学副教授豪尔赫-奥尔蒂斯(Jorge Ortiz)说:"推理和智能是随着模型规模的扩大而产生的,这种广义的观点可能是错误的,"他的实验室利用推理模型和其他尖端人工智能来感知现实世界的环境。他补充说,如今的模型有其固有的局限性,使它们不善于遵循明确的指令--这与你对计算机的期望恰恰相反。
这个行业就像是在创造自由联想的引擎。他们善于拼凑,但我们却要求他们扮演始终如一、遵守规则的工程师或会计师的角色。
尽管如此,即使是那些对当今人工智能持批评态度的人也急忙补充说,向能力更强的人工智能迈进的步伐仍在继续。
奥尔蒂斯说,揭示当前的局限性可以为克服这些局限性指明方向。例如,新的训练方法--逐步反馈模型的表现,在遇到更难的问题时增加更多资源--可以帮助人工智能解决更大的问题,并更好地利用传统软件。
沃尔夫说,从商业角度来看,无论当前的系统能否推理,它们都将为用户创造价值。
"宾夕法尼亚大学沃顿商学院教授伊桑-莫利克(Ethan Mollick)对人工智能的实际应用进行了研究,他说:"模型在不断完善,新的人工智能方法也在不断开发,因此,如果这些限制在不久的将来在实践中被克服,我也不会感到惊讶。
与此同时,真正的信徒却毫不气馁。
分享您的想法
追求先进的人工智能有哪些潜在风险和机遇?请参与下面的对话。
奥特曼在文章中写道,仅仅十年之后,"也许我们会从前年解决高能物理问题到后年开始太空殖民"。他补充说,那些愿意通过直接的脑机接口"接入 "人工智能的人,他们的生活将会发生深刻的变化。
这种言论加速了人工智能在社会各个角落的应用。现在,政府专家组正在利用人工智能来重组我们的政府,军队正在利用人工智能来提高杀伤力,而我们的孩子也正在接受人工智能的教育,这往往会带来未知的后果。
这意味着,人工智能最大的危险之一就是我们高估了它的能力,对它过于信任--即使它已经表现出 "机会主义讹诈"等反社会倾向--并过度依赖它。这样一来,我们就很容易在最关键的时候被它的失败倾向所伤害。
"虽然你可以利用人工智能产生很多想法,但它们仍然需要相当多的审核,"奥尔蒂斯说。"因此,举例来说,如果你想报税,你会希望坚持使用更像 TurboTax 的东西,而不是 ChatGPT。"
《从 Siri 的延迟到令人失望的 Apple Intelligence 功能,苹果公司的人工智能推广一直充满坎坷。华尔街日报》的乔安娜-斯特恩(Joanna Stern)与软件主管克雷格-费德里吉(Craig Federighi)和营销主管格雷格-乔斯维克(Greg Joswiak)坐在一起,畅谈苹果人工智能的未来--以及更智能的 Siri 到底发生了什么。图片说明:林俊杰
写信给 Christopher Mims,电子邮件:christopher.mims@wsj.com
Copyright ©2025 Dow Jones & Company, Inc. All Rights Reserved. 87990cbe856818d5eddac44c7b1cdeb8
刊登在 2025 年 6 月 14 日印刷版上的标题是《苹果称当今的人工智能是 "思维的幻觉"》。