在人工智能日益普及的时代,我们迫切需要一份规则来指导其运作和应用,以确保其对社会和个人的影响最大化,而损害最小化。但是,问题来了:谁应该制定这些规则?
让我们先来看看人工智能的现状。从大数据的规模到深度学习的能力,从自动驾驶的可行性到人类语言的识别,这些都展示了当今人工智能日新月异的进展。而作为一个开放式的领域,人工智能完全可以被塑造成服务于人类的特定目的,或者成为不可控制的危险力量。所以其中的许多潜在风险必须要被规则所限制开来。然而,制定这些规则的工具、资源和权力需要完全明确。因为其中的针对人工智能的发展有可能会扰乱所有行业的规则,包括了道德原则和法律法规。
那么,谁应该来制定这些规则呢?首先来看技术领导者。在过去的几年中,一些重要的科学家和高管呼吁人工智能需要道德意识和规则,他们乐观地认为这些规则应该是由技术领导者们自己来制定的。然而,这种想法存在缺陷。技术人员并非专门从事伦理问题研究,因此其可能不足以独自负责一些人工智能可能产生的潜在危害,比如网络安全和隐私等。而且,人工智能的研究和应用必须考虑固有的社会和文化差异。
另一方面,真正的潜在风险是来自那些可以独立决策和操作人工智能的持有者和监管机构。比如,国家安全或者商业机构的决策者们,他们有权力决定人工智能的发展方向和应用范围。当然他们可能会考虑到道德、法律和其他的规则,但是这些权力的滥用仍然是必须警惕的,因为这些规则往往是针对人而非机器的。
唯一的解决办法是一种协作的机制,可以整合所有可靠的信息来源来制定规则,不仅仅包括技术人员和政策制定者,还要横跨科学家、哲学家、社会学家和公民/消费者团体。
但是这个机制本身也存在挑战。例如,信息的可靠性、信息来源的影响力、执行和执行策略的分歧等问题,这意味着这个机制需要耗费大量的时间和精力,才能得到广泛认可的规则。
在缩短这样的时间和精力之前,我们必须清楚,没有任何一个组织或机构可以独自完成一项如此重要、核心的任务。相反,我们需要一个更富包容性、更复杂性、更对照性、更平等的组织形式,来确保制定出普遍可被接受的规则。一个这样的组织应该均衡反映了不同地区和文化的声音,以及不同企业和个人的观点,而不是只为一些非正式的决策者张言的部门或者团体发言。同时,一个这样的机制也应该考虑到不同的应用场景,包括医疗、金融、安全、环保、消费、劳动力、娱乐等领域。
在人工智能正成为日常生活中不可或缺的技术之际,我们需要制定一系列通用的、符合伦理的规则来规范它的使用。然而,这个过程需要大量的时间和遍及全球乃至跨文化的协作,以避免出现潜在危害和不利影响。那么,制定规则的过程应该由谁来负责呢?答案就是,所有人。
了解更多有趣的事情:https://blog.ds3783.com/