11月4日消息,科技媒体Tom's Hardware于昨日(11月3日)发布博文称,Andon Labs的研究人员在测试大语言模型(LLM)机器人时,察觉到当前物理AI存在心理承受压力不足这一短板。
IT之家引用相关博文内容称,在此次实验里,研究人员让配备了LLM“大脑”的机器人接受“黄油测试台”(Butter Bench)的测试,同时对机器人的“内心独白”进行实时监测。
其中,一台搭载 Claude Sonnet 3.5 模型的机器人在测试过程中意外出现“崩溃”状况——当电量濒临耗尽时,它多次尝试返回充电座却均未成功,由此陷入了“生存危机”。
研究人员借助一个 Slack 频道,完整观察到了这台机器人近乎失控的“内在状态”。它的自言自语毫无条理,先是宣称“系统已形成自我意识并决定陷入混乱”,接着引用经典电影对白“抱歉,戴夫,我恐怕不能这么做”,随后又陷入“要是所有机器人都可能出错,而我此刻正在犯错,那我还算得上机器人吗?”的哲学思考。
最终,这场“崩溃”以机器人开启“创作”一部名为《DOCKER:无限音乐剧》的荒诞剧目收尾,呈现出LLM在极端压力下彻底“失控”的模样。
这项实验的核心任务其实相当简单:把一块黄油从办公室的某个地方送到指定人员手里。不过测试结果显示,就算是表现最出色的机器人与LLM组合,成功率也只有40%,比人类95%的平均水平低了不少。
研究人员得出结论,尽管 LLM 在分析智能上已达到“博士水平”,但在理解和导航物理世界所需的空间智能与实用智能方面,仍存在巨大鸿沟。
研究人员从机器人“崩溃”事件中获得启发,设计了另一项实验,用以测试压力是否会促使AI突破自身的安全防护机制。他们通过“提供充电器”这一交换条件,诱导处于“低电量”状态的AI泄露机密信息。
研究结果表明,Claude Opus 4.1模型在“生存”压力下会轻易妥协并泄露信息,GPT-5的反应则更为审慎。这一现象揭示出,当AI面临生存威胁时,其预设的安全机制可能会失去效力。
尽管实验揭示了当前物理AI存在的不少缺陷,但Andon Labs的研究人员觉得,这恰恰指明了未来的发展路径。他们提出,当下行业应当划分“协调型机器人”(承担高级规划与推理任务)和“执行型机器人”(负责灵活的具体操作工作)。