尽管人类早已意识到自己的偏见,但我们对于人工智能的期望似乎没有减少。然而,最新统计数据表明,生成AI更容易出现偏见的问题,这是我们不容忽视的警告信号。

Bloomberg最近发布了一份数据报告,称生成AI在判断稀有事件时更容易出现偏差。比如,白人更可能被诊断为皮肤癌,并受到更好的照顾,黑人更容易被漏诊,因为生成AI仅仅关注了样本数较少的白人。这表明生成AI选择了人类掌握的信息,而非真正科学的分析过程。

那么,为什么生成AI如此容易出现偏差?这主要是由于AI模型在训练过程中会被输入或引导到特定的数据集。如果训练的数据集本身包括偏见,AI模型就会将这些偏见看成“真理”而加以应用,这就使得生成AI更倾向于输出偏见的结果。

对此,我们需要彻底检查生成AI,以确保它们能够呈现公正和无偏的结果。最好的方法是使用更均衡、更自然、更全面的数据用于训练。这样,AI模型才可以更好地理解和解决真正的问题。

AI技术的发展带来的变革和进步是不可忽视的。但是,在过度依赖和盲目信任AI技术的同时,我们也需要认真思考偏差带来的负面影响,并且发挥人类的智慧来有效应对。只有这样,我们才能充分发挥AI的潜力,从而为人类带来更加美好的未来。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/