说起人工智能,大家或许会想到机器学习、自然语言处理等等,但是你有没有想过,它们是否会有“幻觉”的情况呢?一项最新研究表明,语言模型在生成语句时,实际上有很高的可能性会误把幻象搭进去。
这项研究由斯坦福大学的研究人员所发表的论文解释了语言模型中可能出现的错误。通过使用大型神经网络以及 Wikitext-103 数据集来训练,研究团队发现训练后的神经网络反应出了某些“幻觉”特征。这意味着在创造与语言相关的信息时,这些模型能够产生具有误导性的假象。例如,如果一个模型在阅读到“牛奶”相关的上下文信息时,它可能会自动生成某些食物相关的词汇,这样一来就会产生一个看似合理的但实际上完全无关的幻象。
幻想是语言模型中的一个经典问题。根据研究团队所指,这可能是由于神经网络学习的词汇,只有在大量语料库中频繁出现时,才会产生信号。当神经网络在训练过程中遇到罕见的词或姿态时,它可能会填补权重或模拟出某些不合理的幻想。
更令人惊讶的是,这种“幻觉”的特性并不像我们以前想象的那样前后限制预测的范围。相反,这些幻觉信息并不局限于模型之内,它们同样能够影响到其他AI系统的产生与结果。因此,要想真正让AI更精确、更可靠,我们需要特别注意到这些“幻觉”特征,并想办法消除它们。
这项研究的发现可能会让我们重新审视现代语言模型的精度和稳定性。虽然现在的语言模型可以在创造文本方面已经达到了前所未有的高度,但它们可能会根据某些无关信息生成出令人意义不明的句子,因此它们仍然有待改进。
总而言之,语言模型是否会误看事物还处于研究的起步阶段,这项研究的发现也只是一个预示。但是,这些问题促使我们更好地了解人工智能中可能出现的问题,并为我们未来的文本自动生成工具提供指引。
了解更多有趣的事情:https://blog.ds3783.com/