Elon Musk的“人工智能恶魔论”是在误导大众
2014-11-04 09:34

Elon Musk的“人工智能恶魔论”是在误导大众

作者注:Elon Musk不久前曾公开表示人工智能就如同“召唤恶魔”,用科幻电影来说明人工智能的危害。但在本文作者看来却是非常不负责任的误导大众,而且还在传递一种没来由的恐惧,这将对目前人工智能领域的具体工作产生严重伤害。作者对Musk的言论进行了强有力反驳,并对人工智能的风险评估和发展提供了非常完善的论证。


本文原载这里,作者Jordan Pearson,由机器之心成员赤龙飞、杨涵舒、Viola、微胖、赵赛坡和赵云峰翻译。欢迎关注微信公众号:机器之心(ID:almosthuman2014)。


Elon Musk缩短了未来和当下的距离。他的SpaceX成功的完成了太空探索任务,特斯拉也在电动车行业发挥了关键作用。因此,当Musk谈论未来时,人们总会侧耳倾听。这就是他最近对人工智能的言论引起如此多关注的原因


在巧舌如簧的对人工智能研究的走向大泼脏水方面,Musk的行为不断升级加码。就在最近,他将当下的人工智能研究描述成“召唤恶魔”,并且恶搞的将影片《2001太空漫游》中的超级电脑HAL9000戏称为小狗,拿它和未来的机器人做比较。前段时间,他解释之所以参与人工智能公司DeepMind,是因为他渴望时刻关注可能出现的“终结者”情形的进展。这样的谈论总体来说弊大于利,特别是对于那些Musk的铁杆粉丝来说。


从根本上讲,Musk的言论被大肆炒作和宣传,当这样的负面宣传涉及到具体的研究工作时,会产生非常消极和有害的后果。就像去年Gary Marcus在《New Yorker》杂志的一篇专题报道中所说,在过去的几十年中,公众关注热点的反复无常、投机行为蔓延、以及研究先驱们的接连放弃一直困扰着人工智能的研究。这一现象被称作“人工智能寒冬”——研究者在烧掉投资之后却无法兑现他们之前在媒体上公开发表的承诺,这一过程在人工智能的历史上重复出现。


正如1993年Daniel Crevier(加拿大企业家、人工智能和图像处理专家)在一本对人工智能历史研究的书里所描述的那样,或许人工智能研究中最声名狼籍的宣传(也就是宣扬人工智能将战胜人类)发生在20世纪70年代,当时,DARPA(美国国防部先进研究项目局)资助了很多类似项目,但最终效果却都未达到预期。


Facebook 人工智能实验室的负责人Yann LeCun去年在Google+上总结道:“一些不实宣传对于人工智能是非常危险的。在过去的50年里,人工智能就先后因为不实宣传而沉沦了四次。关于人工智能的炒作必须停止。”如果不能如Musk所愿,我们五年内造不出一台功能齐全的自动驾驶汽车,会对这个领域产生何种影响?因此,还是忘记所谓的终结者吧,我们应该重新考量如何谈论人工智能。


Musk对于人工智能的尖刻评论只会误导那些比他更不熟悉人工智能的人。事实上,我们现在最聪明的人工智能产品也仅仅是与一个刚会走路的孩子智力相当,而这还仅限于处理一些需要外部帮助的任务(如信息召回)。大多数机器学家仍然在努力使机器人们能够捡起一个球,跑步时不会摔倒,这看起来离“天网”的最终结局还有十万八千里。


的确,欧盟的Human Brain Project和美国的BRAIN Initiative花费巨资,希望能够找到人类大脑的“数字地图”,但他们任重道远,大多数支撑研究结果的技术还处在研发阶段,比如,能够更好扫描大脑的纳米生物传感器。当然,这不是说这些研究完全没有意义,这项工作当然有意义,而且这些研究并没有向公众宣扬所谓的恐惧。


“当我们听到这些关于人工智能的令人惊悚的事情时,就感觉像是那种源于外星人和科幻小说的恐惧。外星人出现了,带着比我们高三倍的智商。”纽约伦斯勒理工学院人工智能实验室主任Selmer Bringsjord告诉我,“那些政府支持下的人工智能研究员也开始产生这种电影情节里的恐惧情绪。这与自己现在所做的研究无关,而是一种更深层次的、非理性的恐惧。”


以Musk和霍金为代表的这些人最害怕的是人工智能所带来的“存在风险(existential risk)。” 存在风险是指那些威胁到整个人类发展、或者是将我们彻底毁灭的风险,该名词于2001年由牛津大学人类未来学院(FHI,Oxford)院长Nick Bostrom首次提出并从此流行开来。Musk是Bostrom最近所著一本书《Superintelligence》的粉丝。


来自牛津大学人类未来学院的科学家Daniel Dewey表示,“存在风险”可能是战争、财富不均蔓延、自然灾害、以及恶意的人工智能。有一个明显的事实Musk没有搞清楚,至少是没表达出来——与其他风险不同,在评估人工智能所带来的风险时需要单独对待,因为目前对该风险的讨论在很大程度上是一种带有推测性的、哲学上的见仁见智,没有统一的路径可循,而这些推断正确与否只有在遥远的未来才能得到验证。即便如此,只有当机器突然具备了出乎我们意料的智能之后,人类未来学院研究者眼中的“智能爆炸”才会出现。


“我认为,我们要足够重视我们目前对人工智能风险状况的未知程度。” Dewey说到,“我们现在对人工智能的评估大多是一种可能性讨论,而不是严谨的计算——例如,我们虽然可以谈论智能爆炸有可能出现,但无法百分之百确认这种可能性,也无法预测这会在何时发生。


像霍金一样(译者注:霍金曾表示人工智能或将威胁到人类生存),Musk认为相关的监督管理委员会应该开始监督人工智能的发展,以免我们做出一些“非常愚蠢的事情”,比如说造出一个能干掉我们的机器人。但我们对此表示严重怀疑,一个负责颁布公共政策的人工智能委员会此时能做出些什么?诚然,就像华盛顿大学法学院教授Ryan Calo提议的那样,针对已经具备一定智能的机器人制定一套规则是有好处的,例如我们已经拥有的自动驾驶汽车、无人机杀手和战争机器人等等。但对于那些依然遥不可及的强人工智能,就完全另当别论了。


“危险会很严重,在某些具体的情景下,人工智能可能会做出错误决定。举例来说,一台自动驾驶汽车只会考虑更加现实和直接的风险,就像最近广为人知的伦理困境(译者注:例如桑德尔在《公正》中提到的案例),所以当撞车成为最符合现实主义和最可靠的选择时,机器会毫不犹豫的这样去做。"


"我认为人工智能是一个数学和工程学问题,而非公共政策问题。”Bringsjord坦言,"如果我们建立一个委员会,我们应重点关注人工智能的工程层面。”


根据Bringsjord的观点,在出台公共政策之前,应该先从优秀的工程设计入手来对人工智能潜在的社会弊病进行规范。这不仅仅是因为人工智能刚刚上路,更是因为严谨的设计过程能够缓解计算机程序中出现的弊端。


解决这个问题的方法之一就是恢复对正式软件认证的研究,他说,正式认证可以精确的检测出程序的缺陷和潜在错误,将功能失常的风险降到几乎为零。过去随着资助减少,这方面的研究活动曾一度消失,但DARPA已经开始通过开源和众包的形式来重新开启这项研究(译者注:即DARPA的CSFV,开源正式认证)。


“相比这类监管委员会,我们更愿意为那些有能力进行必要的工程设计的人买单,”Bringsjord对我说,“就像新奥尔良洪水,众所周知,工程师曾事无巨细的向我们解释了如何保护新奥尔良免于洪水侵害——但别人却认为这项计划耗资太过巨大。因此,从本质上来说,轻率的吝啬行为才是真正威胁,而非人工智能。


但是,先进人工智能与生俱来的潜在危险似乎才是Musk们所重点关注的。技术有招致毁灭的风险,这种黑色预言不但捏造了人工智能在可预见的将来真正能做的事情,而且还使现在对人工智能的讨论陷入混乱。


比如,科技发展所带来的失业。资本控制下的人工智能和便携机器人研发正彻底改变世界,取代无数劳动者,完全体现不出任何的未来进步。随着无人机技术的不断进步和应用范围的扩大,军用机器人虽然没有强人工智能的支持,但也能够自行完成杀人任务,这已经成为极具争议的话题,但那些呼吁停止这类研发的组织却被直接忽视。


事实上,我们不需要这样的技术突破——人工智能变得和人一样聪明,因为我们的世界将不可避免的被机器和软件改变,不论好坏。这不是说,我们不该考虑先进人工智能的未来应用,而是应该更加负责一点,尤其是面对公众时。


Musk的评论适时给媒体的炒作加了一把火,也加剧了这种未经证实的恐惧,而这种恐惧仅仅是来源于对一种还处于婴儿阶段的技术的过分夸大,不管它每天的进步是多么令人印象深刻。自动驾驶汽车、智能安检员、机器人同事......这些可能性虽让人恐惧,但也很美妙。这就是我们的未来,而人工智能决不会让它陷入疯狂。


本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定

读了这篇文章的人还读了...

回顶部
收藏
评论1
点赞