此「人工智能」与彼「人工智能」

本文节选自第 68 期 「I/O」会员通讯。欢迎加入「I/O」会员服务获取全文,每周你还会收到三封专属会员邮件,包括独家的科技书评,科技新闻、趋势的独家解读以及别处看不到的文章、图书、视频推荐

在最近关于人工智能的讨论中,斯蒂芬·霍金的声音远比凯文·凯利(以下简称 KK)大了许多。

这当然不奇怪,一个是物理学百年难遇的奇才,「全球最聪明的头脑之一」,另一个不过是来自硅谷的媒介和技术观察家,两人各自不同的社会认可度,也让两人在人工智能舆论场的份量各有不同。

但声音大小却与对错无关。

霍金最新关于人工智能的态度是在上月末北京举行的 Gmic 大会的演讲,霍金这样说道:

现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
 
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

更进一步,霍金继续发出警告1

But it could also be the last, unless we learn how to avoid the risks。 I have said in the past that the development of full AI, could spell the end of the human race, such as the ultimate use of powerful autonomous weapons...

就在霍金发表此番演讲之前,曾经是中国互联网公司的老朋友 KK 公开发文指出:当下人工智能威胁论完全是错误的看法。之所以错误,则是因为这些人,当然也包括霍金在内2,有意无意地利用若干个假设来佐证他们的「担忧」,这些假设包括:

  • Artificial intelligence is already getting smarter than us, at an exponential rate.
  • We'll make AIs into a general purpose intelligence, like our own.
  • We can make human intelligence in silicon.
  • Intelligence can be expanded without limit.
  • Once we have exploding superintelligence it can solve most of our problems..

简单来说,这五个假设指出了一种显而易见的论调:人工智能正在快速发展中,而且正在超越人类智能,这种快速崛起的智能不仅将在通用层面帮助人类解决难题,还有可能超出人类的控制。

这正是霍金、马斯克等人立论的起点,但事实却绝非这么简单.....(欢迎加入「I/O」会员服务获取全文)


  1. 这里直接引用英文以准确表达霍金的意思。  

  2. 写过《超级智能》的尼克·波斯特洛姆也持这样的观点,我曾写过该书的书评