最近,由于语言生成技术的快速发展,越来越多的人开始使用像GPT-3这样的AI模型进行自动化的内容编写。然而,与此同时,操纵这些模型的黑客也变得越来越猖獗。

在最近的一项研究中,研究人员发现,通过利用YouTube的副本系统,黑客可以操纵文本作者模型,从而在人工智能系统中引入有害的信息。 这项研究揭示了所谓的ChatGPTs的脆弱性——是一种新的AI技术,旨在消除GPT-3中已知的问题。

通过利用YouTube的闭路电视副本,黑客可以利用它的字幕文本来操纵ChatGPTs,这使得他们能够将其训练为以有害的方式产生输出。这种操纵技术可以利用一个漏洞,在这个漏洞中,ChatGPTs不能正确处理来自副本系统的文本数据。

研究人员警告说,这项技术可能会给在线社区和许多其他部门带来安全问题,因为它可以轻松地操纵像ChatGPTs这样基于语言的AI技术。 要解决这个问题,研究人员建议改进该模型的设计和测试,以帮助它更好地识别和处理来自副本系统的数据。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/