未对齐的人工智能正成为一个愈渐加剧的公共健康威胁

当我们谈及人工智能(AI)时,我们很可能想起比较高大上的使用场景,例如像无人驾驶汽车和机器人外科手术这种能够展示其魔力并推进科技前沿的先锋项目。但是,这并不是所有 AI 的应用都具有良好的道德和伦理标准,也不是所有人工智能都能如一些令人惊叹的例子般发挥其强大的威力。

在人工智能的发展趋势中,必须要考虑到某些方面,确定这不会对人体生命健康和人类社会产生负面影响。一项最新的研究发现,未对齐的人工智能正成为一个愈渐加剧的公共健康威胁。

2018年5月,英国医学杂志《BMJ》发表了一篇关于AI应用中存在的偏见和失衡的文章。该篇文章指出,AI社区所爱用的一种名为“瞬间成分分析”技术,其固有的偏见和失衡已经导致基于人工智能的健康应用中出现了许多严重问题。

尽管人工智能的目标是自动化、标准化和加速一系列医疗和生物科技领域的任务,但未对齐的算法容易产生与现实不符合的假设,这种情况可能会导致数据偏见,从而损害到人类的健康。对于瞬间成分分析,研究人员发现在人工智能提取人脸数据时,很多种族和性别的无法被识别、监督数据集存在着跨越种族和性别差异的预训练,导致 AI 给出的分析结果有很强的偏见。

这种 AI 偏见可能会导致粗暴的处理方案、冒险的诊断结论,甚至推断性的处理方式。此外,偏见的人工智能可能无法识别某些地区的特定疾病,或者无法识别社会群体中的一些特殊病人群,从而使得他们的症状无解。这样的 AI 偏见将可以造成严重的健康影响。

事实上,未对齐的人工智能不仅是一个公共健康风险,同时也是一种公共安全威胁。AI的实际应用正在成为我们日常生活中越来越重要的一部分,而这种应用不若任何形式的公共安全威胁难以被检测出来。对此,我们就有责任去确保应用程序中的人工智能,以及这些AI所在的机构和行业具备良好的道德和伦理标准。

因此,政府和企业应擦亮眼睛,确保人工智能应用的伦理规定足够完善。他们应该不断实践,并提供透明和可再生的空间来调整AI的偏见,借此来消除 AI 对我们的身体和社会健康带来的威胁,从而创造出更有意义和更安全的未来。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/