最近一项研究表明,人工智能模型的严格评判可能会导致不公正的结果。一个由麻省理工学院的研究人员进行的研究发现,例如用于招聘或银行贷款决策的自动化模型会倾向于对少数族裔、女性和年龄较大的申请者偏离标准。这是由于模型在训练和设计阶段中接受的数据可能具有偏差。该研究进一步调查了一些可能的解决方案,包括重新设计模型来使用更多的数据、更好地监控算法的表现和改进数据集的多样性。因此,人工智能专家强调,在设计和使用人工智能模型时需更加警觉,防止任何形式的偏见在其决策中占主导地位。
了解更多有趣的事情:https://blog.ds3783.com/