机器人的情绪为什么很少被研究?

机器人的智能终将超越人类,将近7成网友这么认为。但是,机器人可以拥有情绪吗?你期望机器人拥有情绪吗?这两个问题不好回答。但一个毫无疑问的事实是,在人工智能的科学探索和工程实践中,机器人情绪很少被关注。多数人工智能领域的科学家和工程师,似乎对这一问题采取了不深究、抵制或者无视的态度,这与科幻小说家的热情形成了鲜明的对比。或许这是因为,机器人情绪带来的伦理挑战、理性主义者对情绪的厌恶、机器人情绪实用价值的缺失,以及这一问题的研究难度。但是,只拥有智能而不具有情绪的机器人是可能的吗?

机器人情绪的伦理考量

伦理担忧恐怕是抵制机器人情绪的最佳理由,这一点堪比对克隆人的恐惧。这种恐惧首先来源于失控感。拥有情绪的智能机器人,已经完全超越了人们对传统“机器”概念的理解。可以拿人类目前最普及、最先进的机器——计算机来说明。虽然计算机处理算数和逻辑运算的速度远远超过人脑,但很少没有人会担忧某天夜里你桌子上的笔记本电脑自动开机,偷偷地监视着你,除非你恐怖小说看多了。我们可以轻松地就解剖自己的笔记本,可以发神经砸碎它,扔了它,就像对待一台收音机那样。虽然通过网络,成千上万的计算机可以连接起来,甚至进行功能复杂而强劲的云计算,但是我们几乎不用担忧这个拥有“无数成员”的网络有一天会结成一个“机器人政党”来挑战人类。但是,如果有一天,这个网络中的所有笔记本电脑和台式机都拥有了情绪,而且即便他们没胳膊没腿,那也一定会是一种恐怖的末日情景;就好比你一觉醒来,发现世界上所有的人外貌没变,但都变成了吸血鬼。

对机器人情绪的恐惧感,第二个来源是人类的“移情”能力:我们可以通过自己内在的情绪感受,想象人类同伴、动物,甚至植物,具有类似的感受。泛灵论者(万物有灵论者)走的更远,他们会认为你的床单和被罩、窗外飘飞的塑料袋,也拥有灵魂(当然涵盖了情绪)。不要觉得不可思议,移情能力,是我们维系社会关系,进行社会活动的保证,是进化赋予人类的最高贵的能力。对于大多数来说(考虑到最近玉林狗肉节引发的争论),“杀掉”自己的笔记本电脑,除了心疼钱以外,和杀掉猪并且吃了猪肉的行为没有实质区别。这是因为我们的移情能力,是与被移情对象和我们的相似程度决定的。拿一个活体的人、一只黑猩猩、一只小白鼠、一粒玄武岩分别做实验,带来的伦理声讨是完全不一样的,因为黑猩猩比小白鼠更接近人,这种接近不仅仅是外表上的,更重要的是功能上的。想象一下,如果你的笔记本电脑如果真的具有了情绪,你“杀了他”会不会产生一种“杀了人”的罪恶感?又或者,如果你是一枚万年宅的屌丝,你会不会有一天突然“爱”上你的笔记本?

显然,对机器人失控的担忧,是基于“性恶论”考量的;而对于机器人情绪体验的“移情”想象,是基于“性善论”考量的。这就像人有善恶之分一样。毫无疑问,这将继续是人工智能科幻故事的永恒主题之一。而且一旦这种科幻变成事实,不管是“善”还是“恶”,都会严重挑战人类的伦理体系。

为什么理性主义者厌恶情绪

看过《生活大爆炸》的人,绝对无法忘记sheldon这朵可爱的奇葩。最为一名极端的理性主义者,sheldon从不掩饰对机器人的热爱,甚至渴望自己变成机器人。他喜欢霍金,不仅因为霍金拥有超越其他人类同伴的超级理性,还因为霍金长的像机器人。因为一个人长得像机器人二崇拜他,这绝对是一个奇葩的理由,但并非是不可理解的。理性主义者认为理性高于感官,理性是人类获取知识和真理的途径,感官和经验是不可靠的,情绪和欲望会对理性造成干扰。人工智能这么高大上的科学技术,要模拟和超越的是人类的智能与理性,而且本身就是人类理性的高级练兵场。科学家和工程师未必都像sheldon这么极端,但在人工智能领域中引入“情绪”这样飘忽不定的对象,未必和乎他们的口味。

机器人情绪缺乏实用价值

人工智能这一学科诞生半个多世纪以来,几经兴废。商业和资本对此起了决定性的作用。一方面,现代科技已经远远不远不是科学启蒙时代的模样了。科学启蒙时代,专家和业余有时差距并不大,科学研究进入门槛很低,普通人也有机会取得重大科学发现。但是现在,科学研究不仅需要常年累月的科研技能训练,最重要的是需要复杂高端的仪器和设备,这些设备费用高昂。脑科学研究者,不是随便就能买得起一台正电子断层扫描仪或者核磁共振机,人工智能研究者也不是随便就用拥有成千上万片处理器。要知道,谷歌用了16000片处理器,才实现了一个能识别猫脸的神经网络。如此一来,商业投资和赞助自然把控了很多研究领域的经费命脉。另一方面,科学家也是人,也需要吃喝拉撒睡,也有七情六欲需要满足。并非所有的科学工作者都是“为了真理而献身”,或者“为了兴趣而奋斗”,就像《生活大爆炸》中谢尔顿的死敌之一Keipke所说“我是实用弦理论物理学家,我研究这狗屁理论就是为了申请科研经费,然后去泡妞”。所以,多说科学研究者,自然会根据资本的兴趣来决定自己的研究领域。缺少实用价值的研究,自然不会引起资本的兴趣,于是该研究的热度就会冷却。

与机器人“智能”相比,机器人“情绪”实用价值可以忽略不计。总不能发明一个有感情的“机器恋人”吧?就算有,高不帅不屑于,屌丝也买不起啊!总不能发明一个有感情的“机器心理咨询师”吧,虽然已有一些简单程序能模拟人本主义倾向的心理咨询师,但这还只是玩具程序。但是对于智能机器人,用处就大了,甚至与你我息息相关:可以让你的搜狗输入法更好用;可以让购物网站的商品推荐更符合你的需求;可以在你“百度一下”时让百度更懂你;可以分析大数据研究股市规律;可以通过人脸识别技术改进安检系统……所以,机器人的“情绪”不被打入科研的冷宫反而是不正常的。

机器人情绪的研究难度

毫无疑问,从纯粹兴趣的角度考虑,机器人情绪绝对是引人入胜的。该领域少人问津最重要的原因,恐怕是研究难度太大。这已经不仅仅是人工智能领域的问题了,牵涉到一个更大的学科群,包括哲学,心理学,神经科学,计算科学,行为科学,认知科学,甚至数学。虽然心理学家已经从不同的视角和维度对情绪进行了研究,提出了各种情绪的模型,今天心理学专业的本科生教材里也对“情绪”一词下过定义,但是,到今天,依然没有人能回答情绪的本质的是什么。与之紧密相关的问另一个没有很好回答的问题是:意识的本质是什么?

深入分析之前,首先需要面对的一个问题是:古老的心物问题,也就是意识和物质的关系问题。和绝大多数现代人一样,我是一个唯物论者。“物质决定精神,物质世界是客观存在的,意识是对客观世界的反应”,这样的观点,我完全同意。但这个观点没有回答这样一个问题:意识世界的现象和规律如何被意识自身所认识?意识的本质是什么?通过现代生物学和心理学的研究,我们认识到大脑是意识的器官,是产生各种心理活动(包括情绪)的物质基础。人体解剖学和分子生物学让我们对人的认识层次从“人、八大系统(如神经系统)、器官(如脑)、组织、细胞(神经元)、亚细胞(如突触),一直到有机高分子”,再接下去就是物理学和化学的世界了。没错,我们的大脑就是客观的分子和原子按一定方式组织构建起来的,但这些客观存在的分子和原子,是如何产生了主观的感觉的呢?科学家在研究人脑时,只能看到人脑不同层次的物质实体,但却无法看到大脑的物质实体运作时产生的主观感觉,这是一个困惑我好多年的问题。

这个问题是如此的神奇,以至于很多人认为必须引入一种独立于物质世界的特殊存在,这种存在不同人喜欢不同的名称,比如:灵魂、鬼魂、意念、精神……持这种观点的人,认为大脑是一团没有活力的原生质搭建起来的,精神作为一种独立的存在被注入大脑,正式这种注入,才使的大脑拥有了自我感觉。的确,对人脑的解剖分析无法发现意识的实体,但因此而认为意识是一种特殊的不可认识的大脑注入物,是很荒谬的。详细地解读这个问题超出了本文的范围,但有一点必须明确:我们需要的是深化我们已有的唯物世界观,而不是毁灭它然后重塑一个允许鬼神或精神的独立实体存在的世界观。

大脑是主观世界和客观世界产生交集的地方,回答“主观感受的本质”这个问题有太多困难,所以现代心理学的不同流派对这个问题采取了不同的态度。比如现代心理学之父冯特主张“内省实验”,在主张用实验方法研究心理学的同时,承认心理的主观感受和内省的重要性;行为主义走则走的十分极端,主张只研究人的外在行为,完全无视主观的意识体验,因为外在的行为是、可观察、可量化、可实验的,而内在的意识是无法精确研究的;认知学派视图纠正行为主义这种“向研究狗一样研究人”的倾向,在借鉴计算机科学中的信息加工观点,重新关注人脑的内部过程,提出了无数细碎的认知模型,这些模型构成了本科生《认知心理学》的全部内容。但是,不管心理学的这些流派如何兴废演替,现代心理学还远远没有在意识的“主观感觉”这一问题上达成能广泛接受的一致哲学基础。

就像心理学没有迈过主观性的门槛一样,人工智能也一样。现在的人工智能研究,不管是只立足于让机器“看起来是智能的”的“弱人工智能”,还是试图完全模拟人类智能的“强人工智能”,采取的都是一种行为主义的研究取向,尽管相关从业人员可能没有意识到自己有“行为主义”的观念。的确,这是最省事的研究取向,快刀斩乱麻,管他机器有没有主观感受呢,不是吗?而且,这或许是人工智能唯一能采取的研究方式,毕竟,不管是用软件模拟,还是用硬件实现,不管是用碳系元素,还是使用硅系芯片,我们能看到的只有机器的外在,不是吗?

那我们怎么从一台人造的智能机器的外在行为表现,来断定它是否有情绪呢?这是可能的吗?由于我们无法像孙猴子那般,变得与这台机器一模一样,我们无法与这台机器的精神同一(假如它真的有精神的话),所以我们无法精确断言它是否真的有情绪。我们能做的只能是通过移情和想象。这就和想象你家那只可爱的小狗是否有情绪是一个样子。

无论如何,这是一个心理学和人工智能必须面对的问题。还记得谷歌的猫脸识别机器吗?这台机器将来有一天或者此刻正在对不同的猫脸产生偏好吗?比如它“喜欢”白色的小猫,讨厌“黑色”的大猫?我们可以矢口否认说:那只是一架用了16000万片芯片的复杂机器而已,不可能有情绪。但是,谁能说的准呢?路边那只眼神无辜的小狗,实验室那只黑乎乎的大猩猩,你敢说他们没有情绪吗?或者你敢说他们有情绪吗?

总结和后续

本篇中,我们简单分析了机器情绪的研究受冷落的四个原因,指出了机器情绪研究中遇到的“主观性”哲学困境。下篇中,我们将从通常意义上的“情绪”概念出发,探索这样一个问题:只拥有智能,不具备情绪的机器人是可能的吗?别急着说是或不是,这个问题远比想象的复杂。