“大规模深度学习可称为基于数据的科学,这是一个功能性的系统,它在计算机的巨大处理能力下不断地逼近其知识界限。”这是由斯坦福大学的人工智能专家 Fei-Fei Li 所说的一段话,其中突出了当今最受瞩目的一个因素:生成性人工智能。

生成性人工智能是什么,它能为我们带来什么?简而言之,这个术语是指程序可以在没有大量数据的情况下生成内容的人工智能。关于生成性人工智能的范围,范例比如曾经打破记录的计算机游戏 AlphaGo,以及能够生成独霸时代杂志的深度神经网络。

但是,随之而来的问题是:在这个新型人工智能领域里,面临诸多基本性的偏见和刻板印象。记住这个事实:生成性人工智能几乎都是基于大量数据集的,这也意味着它们可能会自然地从这些数据中吸取特定所在群体的偏见和刻板印象。

最近,人们对于这个问题越来越关注,它已经受到了干预并受到了重视。事实上,根据《彭博商业周刊》的报道,一些公司已经开始考虑更好地采取数据并修复这些数据中的偏见问题,以确保他们的人工智能之后可以生成出更加平衡和准确的内容。

不过,要了解一个失衡问题的根源不是一件容易的事情。一个让人非常关注的例子是扭曲的图像识别:人们使用成千上万张白人的图片来进行训练,结果在试图识别其他种族人类的时候,出现了巨大的失误。这些偏見是如此的精细和微妙,甚至都不被机器学习的算法所察觉,而别的情况可能就会非常平凡。

这个问题非常棘手,因为它所涉及的东西很多而且非常复杂。任何基于大数据集的人工智能都会存在这样的问题,并且长期来看,这个情况无法消失,它所存在的基本原因就是因为数学上的無法從别的數學中抽象出來規律性。

换言之,生成性人工智能或许能够提供希望,但是它也会带来和增加很多问题和难题。因此,如果我们想要在这个领域内继续发展和进步,我们需要更深入地调查和理解这些问题。最后,只有这样,我们才能更好的教育和指导人工智能,使其更加准确和公正地反映我们的现实世界。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/