为了使AI更像人类,现代智能系统使用了对话生成算法,其中最著名的就是“Generative Pre-trained Transformer”(GPT)模型了。但是,一项新的研究表明,这些模型并不能解决所有问题。研究显示,GPT模型在处理“不”的问题时表现糟糕。这是因为GPT使用的训练数据中缺少否定语句,导致它们无法正确回答带有否定情况的问题。虽然这表明需要更多的训练数据来纠正和提高这些模型,但这也表明AI模型的挑战在于尝试模仿人类自然语言的复杂性。这篇文章解释了为什么我们需要看到AI的不足之处,并注意AI的限制。
了解更多有趣的事情:https://blog.ds3783.com/