authorImg 徐贲

美国马萨诸塞州大学文学博士,加州圣玛丽学院英语系教授,复旦大学社会科学高等研究院兼职教授。

“人工智能毁灭人类”是一种末世恐惧传染病

导读

一些人类害怕人造人有一天会毁灭人类,这种末世焦虑是一种莫名的害怕,这种害怕比害怕的对象更令人害怕,因此没有缓解的可能。就连他们害怕的人造人也是他们的某种自我折射。

人工智能对人类未来的威胁已经成为即将过去的2017年里最引人关注的问题之一。不久前,一篇题为《今天,从美国惊爆凶讯:终结者,终于要来了!》的报道说,IBM宣布成功研制出了量子计算机原型机,“一台台式机电脑大小的量子计算机,或能达到今天最先进的中国天河一号超级计算机的计算能力”。

报道预言,“很可能,在不远的将来,人类在量子计算机+人工智能面前,就可能像蚂蚁面对人类一样无力和脆弱”。报道甚至联想到,“这也就是为什么近日,国家突然宣布:2030年一定要抢占人工智能全球制高点,还要在中小学设置人工智能课程!”

为什么成功研制出了量子计算机是个“凶讯”而不是好消息呢?对谁是凶讯,对人类还是对中国?“抢占人工智能全球制高点”又是为了什么目的?是为了保卫人类还是仅仅为了一国的科技优势?

在人工智能问题的技术主义未来展望中,为什么要发展人工智能的目的价值问题——人类自身能从人工智能研究得到什么样的认知和人性提升——经常被抛到一边。人工智能被想当然地当成对人类的威胁,害怕‘人造人’毁灭人类成为一种非理性的,像传染病一样传播的恐惧。这是愚蠢而不是智慧的表现。

一 人类的愚蠢比超级电脑更可怕

从目前的情况来看,害怕和反对发展人工智能的一些主要理由都是从它对人类可能的负面影响着眼的:使人贬值(人在某些方面失去智力优势、信任智能机器胜过信任人、迷恋智能手机让人忽略了周围的他人)、降低对人的劳动的需要(造成某些行业的失业)、冒充为道德主体(法庭用人工智能决定是否让犯人假释)。

这些都是人可以想办法来加以纠正或改变的,因此不构成反对人工智能的必要理由,更不要说是充分理由了。对人工智能最严重的反对理由是,人类将无法控制后奇点的人工智能,它有一天会摧毁人类,人类将对此束手无策。

人类真的需要害怕“人造人”会毁灭人类吗?要回答这个问题,首先得问,人造人有可能毁灭人类吗?脸书的人工智能研究部主任,纽约大学教授扬·勒丘恩(Yann LeCun)是一位计算机科学家,他在机器学习、计算机视觉、活动机器人和計算神经科學等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络(CNN),他也被称为卷积网络之父。

以他对数码技术和人工智能的知识,他在Quora(一个在线知识网站,集合许多问题和答案,也容许用户协同编辑问题和答案。 其创建目标是“挖掘出网络上未有的维基知识,并赋予其强烈的社会媒体属性”)上发表意见说,人工智能毁灭人类的可能不是没有,但需要人类足够愚蠢,自己让这样的事情发生。人类既然能有创造超人智能的聪明才智,应该不至于愚蠢到让人工智能获得如此摧毁力量的程度。 在人工智能的未来发展中起决定性作用的是人,不是机器。这是一个基本的人文主义信念。

我们也没有理由相信,机器人因为智能强大就会想要主宰世界,控制人类。主宰欲和控制欲是一种人类的特性(虽然只是一部分人类)。即使在人类中间,智能越高也不等于主宰欲和控制欲就越强。

情况可能正好相反,权力欲很强的人,往往不是因为智能高超,而是因为道德低下,什么事情都能不择手段、无所不为。他们为获得权力所做的事情,智能高的人不是没有能力去做,而是因为一些道德或原则的理由而不愿意去做,也就是,坏事当前,有所不为。不择手段、无所不为也能算是一种值得学习和发展的人类智能吗?

勒丘恩指出,人类所做的许多坏事都是人性所致,其基因都是在人类生存的演化过程中形成的,如面对威胁时的暴力(当然可以变成无缘无故)、自私、妒嫉、独占心、控制欲等等。除非人类将这些阴暗和邪恶的东西编程输入机器人的头脑,它们不可能从不存在的演化过程中自行获得。因此,看上去是机器人的问题,其实是人类自己的问题:我们要把这些危险的东西输入给机器人吗?

就算有的人类会像对学生洗脑那样,把邪恶的东西塞进机器人的头脑,也还是会有别的人类会创造出另一种不同的机器人,它们的专门任务就是打败那种邪恶的机器人,或者对它们进行启蒙,帮助它们不再继续作恶。

勒丘恩相信,“如果两种人工智能都能获得同等的计算能力资源,那么第二种人工智将会胜出”。当然,这个胜利最终还必须取决于这个世界上善的力量是否强大。归根结底,不同性质人工智能之间的善恶交战,其胜负是在人类世界里决出的。

一些人类害怕人造人有一天会毁灭人类,这种末世焦虑是一种莫名的害怕,这种害怕比害怕的对象更令人害怕,因此没有缓解的可能。就连他们害怕的人造人也是他们的某种自我折射。他们害怕的其实不是所有的机器人,而是与某些人类同样危险,同样富有攻击性的邪恶机器人。

这是一种新的,与某些人类一样坏,但比他们更强大的坏人。人们害怕它们,就像歹徒害怕跟自己一样歹毒但比自己更厉害的歹徒。善良的人不会害怕比自己更善良的他人,即便善良的他人比自己能干十倍,也用不着害怕他们会毁灭自己,所以在善良的人中间总是信任多于害怕。

二 “人工智能根本不构成对人类的威胁”

美国科技理论家迈克尔·柯勒斯特(Michael Chorost)在《让人工智能进化》(Let Artificial Intelligence Evolve)一文中也是从人类进化的角度来论证,就算智能机器能发展出堪舆人类匹敌的智能,那将是一个十分漫长而极不确定性过程,在这个过程中,有望胜出的是善而不是恶的适者生存力量。

同金井良太一样,柯勒斯特认为意识,尤其是知觉的意识,是智能技术发展的关键。“如果一个人工智能机器没有‘感觉’(feeling),它就不可能‘想要’(want)做任何事情,更不要说是违背人类的利益或打败人类的抵抗了”。

从人工智能‘想要’做一件事情的那一刻起,它就存在于一个不是想要做什么就能做什么的世界里了。这是一个事情有对和错之分的世界,错的就会遭到惩罚。为了在人类掌控的世界里生存,幼小的人工智能必须发展出与人类一致的对错意识,学会知道哪些事情是对的(可以做的),哪些事情是错的(不能做的)。因此,等到人工智能有能力毁灭人类的时候,“它已经知道毁灭人类是错的了”。

至今为止,人工智能还没有这种“想要”的能力,机器人连想要自己不被人类损毁的能力都没有。

超级AlphaGo可以打败人类中最顶级的围棋高手,但是,它并不是真的知道自己想要做什么。它不知道自己是在“比赛”,还是在与朋友“对弈手谈”,更不会以轻松的心情边弈边聊了。它下棋就是下棋,不会有棋逢对手的“紧张”或棋错一着的“懊恼”。它对自己所做的事情没有感觉,胜了,它不会喜悦,输了,它不会沮丧。它也不会说,今天我不想要下围棋,想要玩扑克。

柯勒斯特指出,人类的感觉意识是非常复杂的,至今我们对它知之甚少。但我们知道,感知是认知的捷径,帮助我们知道什么有益,什么有害——当然不一定可靠,例如,味道好的,是对身体有好处的,难吃的则是有害的。

感觉是因为人类生存有用,才在进化过程中被保存和加强的。这种知觉意识的生物机能(脑功能)十分复杂,在自然脑体里起作用的是与“计算”不同“水性信息体系”(aqueous information systems)。2012年《神经元》(Neuron)杂志的一篇研究文章指出,计算机的能力还及不上老鼠四分之一立方毫克的脑活动能力。

柯勒斯特指出,“亿万年里,水性信息体系不得不与极端复杂的环境搏斗。一般而言,环境越复杂,水状信息系统也就越复杂——不得不如此,不然就活不了。……相比之下,计算机生活在非常简单的环境里,输入数码,输出数码,如此而已。它享有充足的食物,没有天敌,……为什么计算机能下围棋打败你,而不知道打败了你呢?因为它太简单了。这也就是说,人工智能根本不构成对人类的威胁”。

三 人工智能研究的人文关怀

要让人工智能学会“想要”,发展出知觉意识,就需要为它复制一个进化的过程,让机器人的知觉在这个过程中变成它的“有价值”的能力。这个进化过程要足够严酷和致命,适应的就生,不适应的就死。这也就是机器人专家,卡内基梅隆大学移动机器人实验室主任汉斯·莫拉维克(Hans Moravec)在《心智的孩子》(Mind Children)一书里设想的情景。

无论是人类的生理还是心理因素都可以归结为“意识”(consciousness),我们对意识是否已经有了足够的认知呢?人工智能研究者的回答是否定的,而人工智能研究正是为了帮助人类提高和加深对人的意识的认知。

我们对意识的认知应该是具有可实验性的,创造智能机器就是一种实验方式。这个机器是否具有人的模样,是不是仿真人,那根本就不重要。研究人工智能不是为了造出跟人一样聪明的机器,而是为了用过对机器智能的研究,对人类智能有更多、更好、更深入的认识。人工智能研究不只是出于技术性的好玩或好奇,而且更是出于对人自身的关怀,它本身就是一种人文关怀。

意识的主观性让许多人以为,用客观的科学方式研究主观的意识是不可能的。但是, ARAYA脑成像公司(ARAYA Brain Imaging)创始人兼总裁金井良太(Ryota Kanai)在《我们需要知觉的机器人》(We Need Conscious Robots)一文中指出,在过去25年里,人工智能研究者非常认真地把意识确定为科学研究的对象,并取得了重要成就。以前对意识的认识太哲学化,缺乏切实的成效,科技研究可以改变这种局面。作为一种意识研究,智能科技是以发明来推动理论,这就像在有物理学热动力理论之前先有了蒸汽机一样。

倘若人工智能有可能发展出“意识”,那不会是人类的灾难,而会是人类重新思考和认识自己的一个机遇。假如有一天,人工智能发展出了知觉意识,它也可能获得某种道德本能(moral intuition),如柯勒斯特所说,“开始是很简单的本能,如‘有能量是好的,没有能量是坏的’。后来又会有其他道德本能,如同类不相残”。

人类开始的道德意识也是如此,直到今天。虽然人类相残是经常的事,但毕竟还是有人不能吃人的道德禁忌。哲学家彼得·辛格(Peter Singer)在《扩展的圈子》(The Expanding Circle)一书里指出,狗、海豚、黑猩猩都有互不残害和利他的道德行为。研究者还观察到,老鼠在有巧克力诱惑的情况下,也会放弃巧克力而去救落水的同伴(这似乎超出了一些人类的道德本能)。

如果道德本能有利于适者生存,而且这种本能能够代代相传,那么这个物种就能发展出它自己的道德观来”。也正是因为一些人类的道德水准在动物之下,才有“禽兽不如”的说法。

也就在人工智能发展出道德本能的同时,它又会发展出“理性”的能力。这样,它的道德观就会不断优化。辛格把这一过程称为“理性电梯”(an escalator of reasoning)。

对此,柯勒斯特解释道,“假设我和你生活在一个原始的部落里,我们一起捡到一些果子,我对你说,我要比你多得。你就会问为什么。要回答你,我就必须给你一个理由——不只是一个‘因为’,而且是一个你能接受的理由。说不通的理由最终会导致反抗,或者部落社会的瓦解。就算是狗也能够懂得公平的原则,如果人类对它有不公的对待,它就不跟人合作”。在这方面,一部分人类比较精明,他们有把不公平说成是公平的本领,那就是运用欺骗和诡辩的语言。当然,这也需要另一部分人类比较愚蠢,他们居然会相信这样的欺骗和诡辩。

四 理性世界里的人工智能

人工智能一旦开始能提供理由,它也就有了怀疑和责问的能力,这是一种说理和要求说理的能力:为什么部落里的首领总是拿最好最多的果子?说理总是在扩展的。辛格写道,好的理由是放到哪里都说得通的,“它需要有普遍的可运用性”。在这种说理中,有权的部落酋长与部落里任何一位普通的成员应该是平等的。

“理性电梯”指的是人类越来越明白理性和说理的重要:这是一种公正的,非暴力的说理,而且,必须把这样的说理变成日常生活社会的一项基本准则。如果人类期待智能机器也能发展出理性,那么,是不是更应该自问,我们人类今天是否已经足够理性了吗?如果有一部分人类还没有,那么,我们是服服帖帖地听命于他们呢,还是应该有所反抗?

如果说连智能机器也需要登上理性电梯,那么人类岂不更应该如此?理性的另一个主要作用就是把人从非理性的害怕中解放出来。对智能机器人毁灭人类的害怕是非理性的,非理性的害怕让人不经过思考就匆忙下结论,既吓唬自己,也吓唬别人。

麻省理工学院物理学教授马克斯·泰格马克(Max Tegmark)建议他的学生对科技保持一种理性的乐观,他说,“我是一个技术乐观主义者。技术为我们改善生活提供了极好的机会。但是,因为技术强大,总会伴随着陷阱,所以需要预先思考会有怎样的陷阱,免得跌进去,追悔莫及”。技术改善人类生活不只是物质的,也应该包括精神和道德的层面。

未来学家约翰·斯马特(John M. Smart)也认为有理由相信,即使技术出现道德偏离,也是可以规范的。他说,“我们思考越来越仿真的技术的未来,很难想象它们的意识、感觉、同理心和道德约束。但是,如果道德和抗恶是发展的过程,那么,……随着每个文明中计算机能力的增强,道德和抗恶也必须能加强力度和范围”。

资料图:电影《星球大战》中的机器人资料图:电影《星球大战》中的机器人

尽管每一种文明中都有道德偏离,但是,“在所有的文明发展进程中,这样的道德偏离会随着时间而得到好得多的规范,……总的趋势是聚合(convergence)和统一(unification)”。计算机技术的发展应该是整体文明发展的一部分,而不是游离在文明发展之外。斯马特更认为,由于人工智能具有超强大的处理信息能力,“它应该远比人类更负责任、更受管理、更有自我克制力”。

智能机器研究的首要目的应该是帮助我们获得无法或难以用其他手段获得的关于人类自身的认知,这是人工智能研究的目的价值所在。如果最终不能创造出后奇点仿真人,不能算是智能技术的失败;如果能够创造出有智能特征或高智能的机器,那也不过是一个副产品。这样的未来人工智能不应该是不道德的,也不应该令人恐怖,它应该增添人类对未来的信心。

【责任编辑:身中一刀】
show