LLMs每次都会在这个简单的评估上失败。
最近,一项有趣的研究揭示了人工智能语言模型(LLMs)在一个简单的评估上的失败。这项研究带来了对于人工智能发展的思考,以及对于我们对这些系统的期望的重新审视。
在研究中,研究人员设计了一个简单的评估任务,要求LLMs尝试完成一个仅包含两个步骤的任务 – “打开抽屉”和”拿出锅子”。是的,就是这么简单,但结果却令人震惊。
LLMs被训练成为判断语言的专家,但在这个简单的物理任务中却无法成功。研究者们发现,LLMs在完成这个任务时,总是出现混乱和错误的行为。这个看似简单的任务对于人类来说是轻而易举的,但对于LLMs来说,却是一个难题。
这个研究结果呼吁我们重新审视对于人工智能的期望。虽然LLMs在处理语言方面取得了许多进展,但在其他领域,尤其是涉及物理世界的任务上,仍然存在巨大的挑战。
我们需要意识到人工智能系统的局限性,并为其提供更加多样化和全面的训练。尽管LLMs每次都在这个简单的评估上失败,但这也让我们更深刻地认识到人工智能的复杂性和挑战。希望这个研究能够促使更多的关于人工智能的深入思考和研究,为未来的发展指明方向。
了解更多有趣的事情:https://blog.ds3783.com/