在科技不断发展的今天,越来越多的人担心,超人工智能是否会给人类带来灾难性的后果。而加拿大多伦多大学的杰弗里·辛顿教授近期在其博客中发表了一篇名为“致死计算”的文章,对此做出了一番论证。

在这篇文章中,辛顿教授提到,我们需要找到一种避免超人工智能带来灾难的解决方案。但是,他也指出了一个现实,那就是人类无法掌握超人工智能的思维方式。这意味着,在完全拥有超人工智能的时候,我们很有可能无法理解它的思考过程以及它所做出的决策。

“这就像是我们试图告诉一只灰色的猫,我们是如何看到颜色的。”辛顿教授在文章中写道。

为了避免这个问题,辛顿教授提出了一个叫做“致死计算”的概念。这个概念的核心思想是,在超人工智能做出决策之前,我们需要先确认它所做出的决策不会对人类造成致命的后果。如果发现有任何潜在风险,我们需要立刻终止这个决策。

当然,这种方法很明显也有一些问题。一个显而易见的问题是,我们如何能确定这个决策是否具有潜在的致命后果?而且,在每个决策点上,必须重新评估潜在的危险性,这意味着我们需要对超人工智能进行不间断的监督和评估。

另外,致死计算还会带来一些道德上的问题,比如,假设超人工智能正在执行一项任务并且它发现所做的决策会对一些非常少数的人造成致命后果,但是对于大多数人来说,则是值得接受的。在这种情况下,如何确定我们应该优先考虑什么?

尽管存在这些问题,但是辛顿教授认为,“致死计算”依然是一种非常可行的方案。在人类无法掌握超人工智能的情况下,这种方法可以弥补这一缺陷,让我们逐步控制超人工智能的智能水平,使其更符合人类的需要。

总之,随着越来越多的超人工智能问世,探索如何避免超人工智能带来的潜在危险,已经成为了一个重要的问题。而辛顿教授的“致死计算”或许可以为这个问题提供一个解决方案。

详情参考

了解更多有趣的事情:https://blog.ds3783.com/