资 源 简 介
AI 对人类是威胁吗
有新闻报道称,人工智能(AI)
研究尽管在未来可能取得成功且前途
不可限量,但潜在的长期风险正逐
渐显示出来。奥伦·埃齐奥尼(Oren
Etzioni)是一位知名的人工智能研究
人员,他对此感到不满(参见《专
家并不认为超级智能对人类是一种
威胁》)。在他直接公开指责牛津大
学 哲 学 家 尼 克· 波 斯 特 罗 姆(Nick
Bostrom)和他的最新著作《超级智能》
(Superintelligence)后,埃齐奥尼指出,
波斯特罗姆提出的“即将出现的人类
层级智能的主要数据源”来自对 AI
□艾伦·达福(Allan Dafoe) 斯图尔特·罗素(Stuart Russell)
人工智能的真正风险
最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它
研究人员意见的调查。在此之后,埃
齐奥尼自己也对 AI 研究人员的意见
进行了调查,声称他得出的结论推翻
了波斯特罗姆的观点。
要知道,埃齐奥尼甚至没提到为
什么他公开谴责《超级智能》所造成
的影响,这点很重要。他也没有解释
清楚为什么超级智能的 AI 可能会造
成无法把控的负面影响,为什么提前
开始解决 AI 的问题是如此重要。波
斯特罗姆并没有把事实建立在超人类
AI 系统即将来临的这个预测上,他在
著作中写道 :“本书并不是在表明我
们正处于人工智能重大突破的开端,
也没有表明我们可以准确预测这一重
大进展何时会发生。”
因此,在我们看来,埃齐奥尼的
文章转移了读者的注意力,使读者没
有关注该书的核心内容。埃齐奥尼以
质疑调查结果为由,直接从个人偏好
的角度出发攻击波斯特罗姆。我们觉
得有必要更正一下。我们的一位同事
(拉塞尔)甚至还参与了埃齐奥尼的
调查,但却发现他的回答完全被埃齐
奥尼曲解了。事实上,根据我们的详
细分析,埃齐奥尼的调查结果与波斯
特罗姆的观点完全一致。
那么,埃齐奥尼是如何得出他的
新结论的呢?他自己设计了一份调查
问卷,不过问卷的质量比波斯特罗姆