马克·沃尔特斯 vs. OpenAI LLC:人类的智慧究竟能否担保AI的发展?

尽管AI走向蓬勃发展的未来看起来一片光明,但是在它的发展过程中难免会有一些失败的探索和前进中的错误。开发人员可能会遇到重挫,而这些挫折肯定会对整个AI产业产生重大影响。随着AI越来越被广泛应用,谁能承担AI开发中的错误责任?

就在最近,AI公司OpenAI LLC因其大规模AI项目中的一个致命性错误而在法律上挑战了其与前雇员马克·沃尔特斯之间的协议。这起案件引起了人们对AI是否已经具备自我判断的想法。难道人类的智慧不再是AI发展的必要配套吗?

在这个案子的背后,我们可以看出一个历史性的事件,它会颠覆整个AI生态系。因为这被认为是最新一例AI重大错误中,企业主体责任有问题的案例。马克·沃尔特斯因原公司在开发一个控制性AI措施的过程中出现的一个致命性错误而被解雇,最终将此事诉至法庭。他称这次错误是是由于公司的管理层与工程团队之间缺乏相应的合作和沟通所导致的。为上述原因,沃尔特斯起诉开发人员,认为其申请了一个制定性的AI控制技术专利并提供了重要的软件开发方案,而这些方案最终导致了该错误。

直接指责一家公司的管理层和开发(engineering)团队是一个稀有的选择,但随着AI可塑性的不断扩大,这种事情将迅速增加:AI工程师可能会对AI开发中的数据或代码中的误差和漏洞负责。这个案子是一个有争议的案子,因为很难定义开发人员的责任。但这已经成为了一个正在发生的问题,对于AI开发,开发者必须考虑所有未知和风险,以避免类似的问题。

在这场法律战中,我们能想到的最佳解决方法就是在AI开发的早期就进行全面审查来确保开发的决策和代码的质量。而更加可持续的做法是在AI生态系统中不断增强风险管理机制。因此,和AI有关的精细控制和管理过程将成为未来科学中的关键问题。而正确的法律框架更是必要的,以确保AI的发展成为双赢的事情:为AI发展创造积极影响的同时,保障人类的权益和利益。

从这一事件中可以看出,AI的发展不是一件简单的事情。如果AI工程师不能充分考虑安全因素和决策土壤,AI的发展将受到很大的阻碍。在推进AI市场发展的同时,还需要关注AI的可可持续和安全性。我们期待随着AI市场不断成熟,AI更多以促进经济、社会和人类福利为中心的发展。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/