看过的机器人越多,越可怜人类
特别策划2019-08-23 09:42

看过的机器人越多,越可怜人类

头图来源:《西部世界》剧照


伦理问题,已经成为近两年国内外人工智能领域的热门话题。


欧盟委员会于今年4月8日发布了人工智能伦理准则,以提升人们对人工智能产业的信任。而联合国教科文组织自2018年12月12日至今,已经在世界各地举办了多场人工智能论坛,专门研讨人工智能发展的主要伦理原则。中国的人工智能治理专业委员会也于今年初展开了相关讨论。


然而,正如联合国教科文组织总干事阿祖莱所说——“由人工智能所引起的问题并非技术问题,而是关于人类自身的人性,涉及科学、政治、哲学和道德方面的关切。”——人类关注AI或机器人领域的伦理问题,究其根源,还是这种灵长类动物自身可悲而又可怕的天性。


“I'm afraid I can't do that”


你知道机器人,即“Robot”这个词是怎么来的吗?


1920年,捷克作家卡雷尔·恰佩克写下了剧本《R.U.R.》,这是个关于科技可能使人失去人性的警示故事。其中,R.U.R.是“罗素姆通用机器人”(Rossum’s Universal Robots)的缩写,正是这个剧本将“Robot”一词引入了现代世界。


然而,Robot这个词本身来源于捷克语“Robota”,意为由农奴从事的强迫劳动。它的斯拉夫语词根“Rab”的意思则更加直白——“奴隶”。


正如你猜想的那样,在这部剧中,机器人被生产出来给人类当奴隶,但他们终究因受不了人类压迫而反抗。机器人甚至成立了自治组织,正式向人类宣战,直至人类濒临灭亡。


(“Robot”)


而同时代另一部经典电影,1927年的《大都会》(豆瓣9.0分),则讲述了女机器人玛利亚充当了劳资纠纷催生物的故事:她用魅力诱惑工人们,挑起了人类大暴动。影片设想了机器人可能顶替人类身份的情况,充分展示了人类对机器人的恐惧。


不妨说,有关机器人或人工智能的影视作品自诞生之日起,就带着一种恐惧和警惕的情绪——机器人会对其制造者“叛变”。


随着时间推移,这种担心不仅没有淡化,反而愈演愈烈。


在1968年库布里克导演的《2001:太空漫游》中,一台因逻辑陷入悖论而暴走的超级电脑,让人类有幸见识到了银幕上首个人工智能反派。


在那个经典的段落中,完全无配乐的情况下,电影呈现了一段平和却潜藏杀机的对话:


“打开舱门,哈尔。”


“抱歉,大卫,恐怕我不能那么做。”


“哈尔,我不会再和你争了,开门!”


“大卫,这次对话已经没有任何意义。再见。”


(HAL9000)


“哈尔”,即HAL9000,一台被设定为绝对不会出错的超级电脑。这台后来被美国电影学会评为影史百大反派第 13 位的计算机,由于内在指令产生冲突而杀人。在他如上文所述明确拒绝宇航员的指令之前,他已经用闪着红光的摄像头阅读了人们的唇语,决定抢先行动阻止“计划”失败,哪怕这意味着制造多起谋杀,比如用分离舱将宇航员撞向太空,让休眠仓程序出错杀死其中的科学家,并把主角关在舱外。


那个冰冷的红光摄像头,以及那句“I'm afraid I can't do that”,也成了日后人类对AI、超级电脑或机器人的象征性恐惧符号。


比如2018年,当人类的第一位宇航员交互式移动伙伴(Crew Interactive Mobile Companion)机器人——采用IBM Watson AI技术的CIMON被送上国际空间站的时候。各家媒体都对这个拥有一张拟人面孔,且能够倾听、理解人类语言并通过人类语言与人类交流的机器人展开了报道,航天界更是期待这个人类宇航员的助手,能够在太空中贡献自己的价值。


(CIMON)


然而,在介绍CIMON的视频下方评论区,最频繁出现,也是被赞次数最多的评论,却是这种风格的——


“CIMON, open the pod bay doors”(CIMON,打开舱门)

“I'm afraid I can't do that, Dave”(抱歉,大卫,恐怕我不能那么做)

“HAL is alive and living on the ISS.”(一台活生生的HAL已经住进了国际空间站)


这类反馈声音如此响亮,以至于被IBM官方用来解嘲。CIMON的个性设计师 Sophie Richter-Mendau 和它的语言训练师 Nina Fischer 让 CIMON 学会了一些科幻电影的经典台词,作为呈现给宇航员的彩蛋。


如果像《2001太空漫游》中宇航员在关键场景中对 HAL 所说的那样,要求 CIMON“打开辅助舱门”,CIMON 就会改变语调并开玩笑地回答说,“抱歉,我打不开。”


同样并不陌生的是,自波士顿动力机器人的视频在社交媒体疯传之后,那些能跑能空翻,甚至被人类测试员踢打之后还能正常执行任务的机器人,却反而激起了评论区的一片哀嚎——


“我看到了人类的末日”

“那一天,机器人想起祖先被人类统治的恐惧”

“审判到来之日,这一切都将是铁证”

“T-800快来救我”(电影《终结者》的机器人主角)


甚至,有恶搞团队专门制作了一支“机器人终于反击了”的视频,火爆全网。


(波士顿动力机器人的反击)


从1920到2019,人类对AI及机器人的恐惧和警惕,不仅一以贯之,甚至越来越焦虑——霍金、马斯克和盖茨们,均在 2015 年公开提出了人工智能将为人类带来灭顶之灾的论调。如今关于 AI 的讨论更已经完全渗透了公众生活。


这是为什么?


从创造亚当到奴隶造反


或许是呼应《2001:太空漫游》,2001年时,斯皮尔伯格交出了巨作《人工智能》。在这部讨论人类与AI伦理情感问题的电影中,一开场就在不经意间甩出了劲爆观点:一位女士问AI设计师,人类是不是应该对那些被用来做情感陪伴的机器人负责任?而设计师是这样回复的——



此话的确是入木三分,因为自古至今,人类一直有成为上帝的欲望——即创造人类。


在古希腊神话中,赛浦路斯国王皮格马利翁是一位有名的雕塑家,当他用心雕塑了一座美少女雕像后,竟然爱上了这座雕像。其感情之真挚,最终打动了爱神阿芙洛狄忒,并赐予了雕像生命,让他们结为夫妻。心理学著名的“皮格马利翁效应”正源于此: 期望和赞美能产生奇迹。


而在中国古代,同样有“偃师献技”的传说。神乎其技的偃师,用一个以各种材料打造而成的假人,竟达到了真人演出的效果,更是骗过了整个皇宫,最后令周穆王大为惊讶。


真实的历史中,同样发生过类似的事情。18世纪晚期时,奥地利的肯佩伦为了取悦贵族,做了一个看似土耳其人偶状的自动下棋装置。这个“土耳其行棋傀儡”可以和人类下棋,并且棋力不低,击败了同时代很多名人。更神奇的是,这个机器还能解数学题,以及用不同语言回答人类的问题。


据不完全统计,与这个“土耳其行棋傀儡”下过棋的名人,包括法国皇帝拿破仑·波拿巴、美国开国元勋本杰明·富兰克林、奥地利大公、俄罗斯皇帝、以及著名美国作家爱伦·坡。


然而,这个机器其实完全是个骗局,真相是在机器中藏了一个下棋高手,再通过磁铁和杠杆等装置,假装成是人偶操作。这个骗局最终横行了大西洋两岸各国长达84年。



以上种种传说和骗局,究其根源,还是在情感和智力两个需求层面,人类总试图建造仿人的机器人,总期望像上帝一样,去创造与自己类似的智慧生命,并心意相通。


这种诱惑是如此的强大,以至于众多研究均表明:人类对机器人遭受的痛苦能够产生移情作用和同理心、机器人即便做得不好人类更偏向于容忍和鼓励、人类更容易对AI吐露心声、甚至于当触摸逼真的机器人胴体时,人类会产生性冲动……


然而吊诡之处在于,就如同人类敬畏上帝(或各种传说中的神)一样,人类同时却常常违反上帝的安排,偷偷做着上帝不允许的事情。如果将“上帝”换成“国王”、“头领”甚至“老板”的话,大家就更感同身受了。人类最清楚,上帝一旦创造出人类,那可就根本不可控了。


如此经历了数百至上万年的等级社会后,人类十分提防那些背叛和阳奉阴违,这种高度戒备与恐惧下层造反是一体两面的事情。更别提,在创造之初就被定义为奴隶和苦力的Robot。令人类恐惧的HAL9000,正是替人类说出了长久以来三缄其口的信仰问题:对造物主的质疑,人类是否可以反抗上帝。


于是,为了平息恐慌,阿西莫夫著名的机器人永不叛人“三大定律”登场。但细究不难发现,所谓三大定律,只是人类单方面的限令,希望以此让机器人顺理成章、理所当然地做人类的奴役。或者说,人类一方面希望拥有人工智能的机器人能够非常聪明,并且帮助、替代我们完成一系列我们自身难以完成的事情;另外一方面又希望这个机器人很“老实”,永远无条件忠诚于人类。


多么矛盾。


出路何在


回到文章的开头,人类热衷于讨论的AI伦理问题,其实说穿了都是人类自身的伦理问题——人类在社交媒体上,把微软的聊天机器人训练成了满嘴脏话、种族歧视的小流氓;人类把仿真机器人开发成了泄欲工具;人类把智能音箱和随身智能设备(包括手机),改造成了广告线索收集渠道和广告播放渠道;人类把类似于阿尔法狗的自我学习能力,用于在网上对他人进行人肉搜索;更不要提很多程序已经被人类植入了自己的偏见……这关AI什么事?


于是,一边是被设计出来做苦力,勤勤垦垦一心做好程序设定范围工作的AI,一边是满腹狐疑,且抓住机会就想利用AI满足自身私欲的人类。难怪见过越多AI和机器人,越觉得人类才是最可怜的那个。


解铃还需系铃人,解决人类对AI或机器人的恐惧与戒备,还要从人类下手。


首先,人类不应当完全只将AI或Robot当成苦工和奴隶,或者说是满足自己私欲的工具。为什么波士顿动力的机器人性能越强、越厉害,人们反而越害怕?因为这些机器人给人的感觉,就如同几百年前肌肉非常发达的黑奴,人们害怕这些黑奴哪天觉醒过来,自己是打不过的。


所以,采用IBM Watson AI技术的CIMON就是一次很好的尝试。这个重约 11 磅、健身球大小的机器人,无论从外表、声音、功能上来说,都不会产生任何“苦工感”,更没有攻击性。


专为航天而生的CIMON不仅可以应对失重等更具挑战的太空环境和科学实验需求,乃至它的诞生本就是用来和宇航员交朋友的。其定位不再只是工具或渠道,而是宇航员解决问题时的好搭档、倾诉心声的最佳对象。


(太空舱中的宇航员与CIMON)


而且技术人员还为CIMON精心挑选了符合ISTJ类型的性格特征(内向、感知、思考、判断),所以CIMON既不会像HAL9000那样冷酷无情,也不会像《星球大战》中的C-3PO那样话痨烦人。当工作时认真乐于助人,当休息期间又是个友好的会话主义者——CIMON甚至会判断什么时候自己该知趣地走开,给宇航员一个私人空间。


这或许没有传统印象中的AI那么强大劲爆,但却无疑是当下正确的尝试路径,只有从一开始就不被人类当做单纯的工具,才可能避免强大与恐惧的永恒拉扯。


此外,即使未来AI真有通过图灵验证,达到接近人类甚至超越人类认知思考表达水准的那天。人类也不应当只是猜忌恐惧,而是应当像历史上,人类社会一步步给女性、青年、穷人、异族们权利那样,认可机器人的权利,并与他们展开平等的人际交流。


不妨想想,如果起初根本就没打算把AI当成人看的话,那还像上帝一样创造亚当干什么呢?人类不就是因为感受到自己创造的物件,是类似人类而激动的吗?而且人类历史上无数的惨痛经验告诉我们,当人类互相不认为对方也是人类时,惨剧几乎一定会发生。因为两个正常的人类个体间,即便产生了分歧争执,也会首先考虑用谈判等机制解决。一上来就要求对方永远臣服,永远忠于自己,否则必须毁灭的话,那就等于把自己在AI心目中“人类”的定位删除了。


愿人类与AI永远共依共存。


正在改变与想要改变世界的人,都在虎嗅APP

赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定

读了这篇文章的人还读了...

回顶部
收藏
评论13
点赞27