人工智能与人

如果要评选2023年科技领域的头条新闻,那毫无疑问是ChatGPT的出现。回溯到2016年,当人工智能AlphaGo以绝对优势战胜韩国围棋九段李世石,人们惊呼人工智能已超越人类智力高峰。现在,人工智能已在我们的日常生活中,如手机的语音指令和导航软件等,起到了不可或缺的作用。ChatGPT的流行引发了大规模的模型热潮,人工智能对人类是祸是福的问题再次浮现。

尽管人工智能的能力有限,只能在特定领域完成人设定的任务,人们仍担忧“强人工智能”甚至超越人类智能的出现。这个预警来自于霍金、艾伦·马斯克和比尔·盖茨等人,他们都提醒我们要警惕奇点的来临。然而,反对的声音也很强烈。对话程序的智能会增长,但它们真的能像人类一样具有意识吗?人工智能是否会像电影《终结者》和《我,机器人》所预示的,反过来控制人类?如果真的出现这样的情况,我们还能区分人类和人工智能吗?虽然人工智能领域的从业者对此有发言权,但哲学家也提出了自己的观点。例如,美国哲学家约翰·塞尔就坚定地站在反方。他认为,人工智能再聪明也不可能获得意识,或者说心灵。

17世纪的法国哲学家笛卡尔认为,语言是人类独有的能力,任何机械装置都无法正确回答人的问题。然而四个世纪后,人们通过语音指令与手机互动,对笛卡尔的这一观点产生了质疑。这些进步归功于英国数学家阿兰·图灵,他被誉为“人工智能之父”。图灵提出了著名的“图灵测试”作为智能的检测标准。图灵测试的设想是,如果一台机器能以假乱真地代替一个人与另一个人对话,那么这台机器就可以认为具有智能。然而,图灵在接受BBC访谈时降低了这个标准:如果超过30%的人类裁判误以为是人而非计算机在与他们对话,那么就认为测试成功。此后,许多软件开发人员都想突破图灵测试。2014年6月7日,“尤金·古斯特曼”聊天程序宣称通过了图灵测试。那么,它是否已经具有与人类一样的智能了呢?

塞尔在文章一开始就区分了两种人工智能。第一种人工智能称为“弱AI”。弱AI可以在心灵研究中为我们提供一个强有力的工具。例如,它能够使我们以更严格、更精确的方式对一些假设进行系统的阐述和检验。第二种人工智能称为“强AI”。持“强AI”立场的学者就主张,经过恰当编程的计算机其实就是一个心灵,可以被认为具有理解和其他认知能力。这种观点在当时美国的人工智能研究者中占据主流。塞尔的中文屋论证,其实就是要反驳强AI的观点。

塞尔假设他自己被锁在一间房间里,房间中有一些中文文本,而塞尔本人其实对中文一窍不通。对他来说,中文文字就是一些非常有趣的线条。他接着假设,房间外面的人又给了他第二批中文文本,以及一些用英文写的规则。这些规则可以让塞尔把第一批中文文本和第二批中文文本联系起来。简单来说,这就是一些中英、英中词典及其使用方法。接着外面的人又给了他第三批中文的符号和英文规则,使得他把第三批中文和前两批联系起来。大家可以发现,塞尔能够理解的仅仅是用英文写的指令,纵使他能够根据规则将这些文字排列成一段通畅的文字,他依旧不懂这些文字是什么意思。例如,塞尔可以根据规则,在“恭喜发财”的文字下搭配“红包拿来”,但他并不能明白这些字代表了什么意思,以及为什么要这样搭配。但是房间外面的人可能会误以为里面的人懂得中文,所以才能给出恰当的回答。

塞尔想要通过“中文屋论证”来说明,就算一台安装了恰当程序的计算机能够按照一定的指令和程序来恰当地完成一些工作,我们依然不能说这台计算机理解了一门语言,换言之,不能说计算机拥有了心灵或者意识。塞尔的这篇论文发表之后,引起了广泛的讨论。有学者把这篇论文称为“25年以来对认知科学和人工智能影响最大的论文”,当然在赞美声中也不乏激烈的反驳。 在对塞尔中文屋论证的反驳中,伯克利的“系统的回答”对塞尔的中文屋论证做出了一个强有力的反驳。该反驳指出:被锁在房间里的塞尔的确不懂中文。但是,塞尔和这个房间,还有房间里的工具书,一起构成了一个系统,塞尔这个人只不过是这个系统的一部分。虽然塞尔不懂中文,但整个系统“明白了”或者说“理解了”中文。所以最终给出恰当回答的并不是塞尔,而是这个系统。此外,人工智能哲学的研究者博登在另一篇论文《跳出中文屋》中反驳说,塞尔认为大脑的因果能力和神经蛋白的特性有关,而金属和硅则不具有这样的特性。塞尔这样做依然是在把大脑的思考还原到大脑的生物化学特性上。所以,博登指出,塞尔在这里犯了一个范畴错误:大脑应当是智能的因果基础,而不是因果的承担者。也就是说,如果人类能创造出一个与人脑拥有同样机能的大脑。能够研究清楚思维中因果机制运作的原理,那么我们即使是用金属,也可以说,塞尔的中文屋论证在人工智能领域引起了很大的争议,有许多人并不买塞尔的账。在突破了图灵测试之后,他们想挑战更高的标准。

在人工智能领域,"更高的标准"具体指什么呢?塞尔曾经提出,只有人具有"意向性",而这正是更高的标准。那么,“意向性”是什么呢?我们在说出一个词时,意识总会指向某个对象。然而,即使一台机器发出声音或模仿人类说出“月亮”二字,它并没有指向“月亮”这个对象。例如,如果我们在电脑操作系统上修改文件名,尽管内容未改变,电脑会将其视为两份不同的文件。因为人类具有意向性,我们可以判断一个对象的同一性。意向性这个概念,源自欧洲中世纪的经院哲学,是指意识的某种指向性或相关性,也是意识和心灵的基本特征。

那么,意向性是否一定要基于生物的特性呢?一个点钞机和一个正在数钞的人有何区别呢?哲学家丹尼尔·丹尼特认为,点钞机不能真正计算,只能转动齿轮。然而,点钞机实际上也不能真正转动齿轮,它只是在遵守物理规律。这种说法同样适用于人类:人类或许不能真正计算,只是操纵心理符号;人类实际上并不能真正操纵心理符号,只能激活各种神经元;更为现实的是,人类并没有自行激活神经元的能力,只能遵循物理学定律来激活神经元。丹尼特的这种立场与塞尔大不相同,它属于典型的自然主义。在他的理论中,人类的意识、智能和心灵在很大程度上可能与机器并无本质差异。

无论人类的意识与机器的差异有多大,人工智能已经与我们的生活紧密相连。无论是机器翻译、自动驾驶、人脸识别,还是股市的高频交易,都应用了人工智能技术。我们期待人工智能技术的发展能为我们带来更美好的未来,但其发展速度已超越了我们在伦理和法律领域对其的审查和限制。我们可以设想一个类似“电车难题”的场景:一辆由人工智能控制的汽车行驶在公路上,突然前方出现五个小孩。如果按照车速,已无法停车,而车内坐着一位母亲和她的新生儿,此时,自动驾驶软件应优先保护车内人还是车外人呢?

因此,围绕人工智能的讨论不仅仅是技术问题,它涉及到人类生活的诸多方面,甚至影响着整个人类的未来。这就需要技术专家、科学家、社会科学家、法学家,当然,哲学家们也是必不可少的。