学术资讯|我系王华平教授发表文章:人工意识的两难及其出路
人工智能与人类社会
王华平
摘 要: 人工 意识是对被确认为人类意识现象的那些方面的模拟或实现。据其目标与意识的形而上学,人工 意识可分为强弱两种。弱人工意识旨在设计和建构模拟意识的机器,强人工意识则力图设计和建构有现象意 识的机器。人工意识面临一个两难困境:弱人工意识放弃意识的核心部分,无助于从根本上提升人工智能的 性能,因而非常地局限。强人工意识则囿于现有概念框架,不可避免地陷入“中间层谬误”,要实现强人工意识 就需要构建一个新的概念框架。就目前而言,泛心论与错觉论是两个可行的选择。错觉论,更具体的,意识的 注意图式理论,是人工意识摆脱两难困境最有希望的出路。
关键词: 人工意识;难问题;泛心论;错觉论
人工意识(Artificial Consciousness),有时又称 机器意识,是对被确认为人类意识现象的那些方 面的模拟或实现。这项工作受到了两方面的激 励:一是借助它提升未来人工智能的性能,制造出 人类水平的机器人;二是通过它加深对人类意识 及其与认知关系的理解。尽管人工意识发展迅 速,但目前为止仍属于前范式的异质领域。正如 加梅兹(David Gamez)所指出的,一些人感兴趣的 是与意识相关的行为,另一些人则致力于模拟意 识的认知特征,还有一些人试图赋予机器以现象 状态。人工意识领域的异质性为其增添了无以 复加的活力,但同时也带来了难以消弭的混乱,而 在混乱的背后,隐藏着一个更为深层的人工意识 两难。这个两难就是,当人工意识被看作纯粹模 拟时,它丧失了意识的核心部分,因而非常局限。 而当人工意识被当成对意识的实现时,它会陷入 “中间层谬误”(Intermediate Level Fallacy)。要摆 脱两难,就要重塑人工意识的概念框架。就目前 而言,泛心论(Panpsychism)与错觉论(Illusionism) 是两个可行的选择。文章将论证,错觉论,更具体 的,意识的注意图式理论,是人工意识摆脱两难困 境最有希望的出路。
一、人工意识
从20、21世纪之交到现在,人工意识历经20 余载,但目前仍处于异质的前范式阶段。加梅兹 富有 启发地将众多异质研究归并为以下四类:
(MC1)具有意识相关的外部行为的机器;
(MC2)意识相关物模型;
(MC3)意识模型;
(MC4)具有意识的机器。
MC1 是图灵测试的直接产物。它类似于哲 学中的赞比人(Zombie), 尽管表现出与意识系 统相关的外部行为(例如情境对话、玩游戏、思 考),但却没有内部意识。有很多这样的机器被建 构出来,比如第一个人工意识大项目系统 CRO⁃ NUS,IBM 的 Watson。MC2 属于意识的计算相关 物,即与意识而非无意识相关的最小计算机制。 由贺兰德(Owen Holland)领衔开发的 CRONOS 机 器人是 MC2 的杰出代表。MC3 是对意识的模拟。 索尼的 AIBO 狗机器人、切拉(Antonio Chella)设 计的 Cicerobot 很好地模拟了意识的某些特征,但 并不具有真正的意识。MC4 是真正拥有意识的 机器,可以和人一样沉浸于色彩、味道和声音的世 界中。MC4 是人工意识的最高目标。
不同的研究路线反映了不同的研究策略。更 深层地,却是隐藏在背后的对人工意识的不同理 解。 人工意识中的“人工”是什么意思?是“人工植物”中的“人工”?还是“人工心脏”抑或“人工光源”中的“人工”? 如果是第一种,那么人工意识就 只是让机器看起来有意识但实际上并没有。如果 是第二种,那么人工意识就是让机器具有意识的 功能,就如同人工心脏具有泵血的功能一样。如 果是三种,那么人工意识就是真正的意识,就像 “人工光源”就是光源一样。
更复杂的,“意识”又是什么意思?“意识”,正 如哲学家和科学家所普遍认识到的,是个混杂概 念。有时,我们用它来指有感觉的生物体处于警 醒状态。称这样的意识为生物意识(Creature Con⁃ sciousness)。有时,它被用于刻画某个心理状态, 以区别于那些无意识的心理状态。称这样的意识 为状态意识(State Consciousness)。有时,我们 用它来指生物体对自身的觉知(Awareness)。称 这样的意识为自我意识(Self-consciousness)。有 时,我们用它来指经验,即主体感知外部事物或自 身状态时的主观感受。称这样的意识为现象意识 (Phenomenal Consciousness)。还有的时候,我们 用“意识”来刻画心理内容被其他心理状态广泛利 用的这一特性。称这样的意识为取用意识(Ac⁃ cess Consciousness)。由于一个系统只要具有了 后三种意识中的一种,它必然就会有生物意识与 状态意识,所以就意识的形而上学与人工意识而 言,重要的是后三种。
现在我们知道,人工意识有强弱之分。需要 指出的是,这样的区分并非单纯的类型学上的区 分,而是基于意识本性的区分,因而是有规范力 的。很明显,如果现象意识不能还原为取用意识, 那么强人工意识本质上就不同于弱人工意识;如 果现象意识最终可还原为取用意识,那么人工意 识就只能是弱人工意识。塞思( Anil Seth )是持后 一种观点的代表人物。他认为,人工意识应该关 注“真问题”,而不是“难问题”。 “真问题”是如 何用生物机制来说明意识的特殊性质的问题。一 旦“真问题”得到了说明,我们就可以用计算机来 逐个模拟意识的特殊性质,从而通过不断逼近的 方式来实现弱人工意识。
目前正在进行的或业已展开的研究大都属于 弱人工意识。在众多进路中,最具代表性的当属 全局工作空间模型( Global Workspace Models )。 这个模型的理论基础是意识的全局工作空间理 论。该理论认为,互通的分布式大脑活动创建了 容可被广泛用于或广播到诸如感觉、运动控制、语 言、推理之类的专门处理机制。专门处理机制通 过竞争一旦获取了全局工作空间的存取权,就可 以向它发送或接收全局可用的信息。正是在专门 处理机制与全局空间的整体互动中,意识经验涌 现了出来。有意思的是,全局工作空间理论的 提出受到了早期 IDA(分布式智能行动者)计算模 型的直接启发,现在却反过来成了人工意识的一 个重要理论资源。在这个理论的指导下,狄昂 (Stanislas Dehaene)及其同事建构了一个神经全 局工作空间模型。这个模型可以很好地模拟人类 之于斯特鲁普效应(Stroop Effect)的表现, 展现了 人类执行无须意识的不费力的日常任务与需要意 识的费力的受控任务的神经活动模式的区别。
比测量问题更麻烦的是意识的“难问题”。 正 如前面所提到的,“难问题”就难在,在物理的此岸 与现象的彼岸之间始终横亘着一条无法逾越的鸿 沟。体现在人工意识中,就是功能与感受之间的 鸿沟。现代计算机是功能机,它通过算法来赋予 硬件系统各种各样的功能。功能是机器做事情的 能力,可根据机器的输入、输出及其内部状态来定 义,是一种关系性质。现象意识是主体处于经验 状态所经历到的主观感受,是经验状态的所是,属 于非关系性质。功能与感受的本性决定了它们分 属不同的范畴。可是,如果它们之间的鸿沟不能 填平,那么在机器中实现现象意识就无异于望风 扑影。
强人工意识研究可谓迎难而上。其中的一个 典范性尝试是海科宁( Pentti Haikonen )所提出的 认知架构 HCA 。 HCA 利用感觉模块的信号来表征所感知到的对象,通过将系统中的大量反馈和不同感觉模态之间交叉连接将所表征的对象的质性特征整合到运动空间中,从而产生意识相关的行为。 值得一提的是, HCA 还包含了情绪。比 如,它有一个“疼痛”模块,可以利用关于物理损伤 的信息来激发缩回行为并重新定向注意力。在 HCA 中,语言是听觉系统的一部分。借助语言词 汇与其他感觉模态的表征之间的联系,觉象(Per⁃ cepts)可以用语言的方式描述出来。海科宁认为, 当不同模态步调一致地合作并聚焦于同一对象 时,觉象就会变为有意识的。根据海科宁,这样 一个系统如能按预期建构出来,那么现象意识也 就在人工系统中得到了实现,从而强人工意识也 就得到了实现。
但是,HCA 以及它所代表的强人工意识进路 并未解决“难问题”。原因就在于,HCA 所说的 “觉象”是暧昧不清的。在哲学中,觉象指通过运 用感观而获得的关于对象的印象。印象,正如休 谟所强调的,内在地具有强烈的现象性。HCA 所 说的“觉象”显然不是这种意识,因为觉象的现象 特征是通过被聚焦而外在赋予的。问题就在于, 为什么不同模态步调一致地合作并聚焦于同一对 象时,觉象就变成了有意识的?在这个问题得到 解决前,HCA 没有资格说它实现了人工意识 。 实际上,HCA 所遇到的问题是它所代表的强 人 工意识进路普遍存在的问题。这个问题就是曼 佐蒂(Riccardo Manzotti )和切拉 (Antonio Chella )所 说的 “中间层谬误”。谬误的典型症状是,为了解释意识和实现人工意识,一个中间层被引入。乍看起来,中间层起到了桥接解释项和被解释项的作用,但实际上却徒增两个新问题:中间层有何特征?它与现象意识有何联系? 在 HCA 中,觉象 是中间层。它具有某种暧昧性,一定程度上能表 明现象意识的质或量。但是,现象意识并未真正 得到解释,而是被稀释为滤掉了现象性质的某种 近似物,比如为不同模态所聚焦。通过稀释,一个 廉价的解释得以提出。对那些试图直接回答“难问题”的理论或模型来说,中间层谬误是不可避免的。 这是因为,要直 接回答“难问题”,就得找一个东西(即中间层)来 填平解释的鸿沟。于是行为、功能、觉象等纷纷被 提出来。但一方面,如果中间层本身是有现象意 识的,那么就会产生如何赋予中间层现象意识的 问题,而这恰恰是强人 工意识问题。另一方面,如 果中间层本身没有现象意识,那么它又如何产生 现象意识呢?而这正是意识的“难问题”。所以, 采取中间层策略的强人工意识是没有出路的。
三 、强人工意识与泛心论
现在我们明白了人工意识的两难。 这个两难就是,当人工意识被看作是弱的时,它非常地局限;当人工意识被看作是强的时,它非常地困难。 那么,人工意识还有出路吗?要回答这个问题首 先就得清楚它的根源,可追溯到自 20 世纪中叶物 理主义范式确立以来所形成的关于意识的主流概 念框架。这个框架一方面承认现象意识的主观特 征,另一方面又试图将其纳入物理主义世界观。 由于物理主义认为世界中的一切都是物理的,或 者不超出物理的,所以,当我们试着用物理的(包 括功能的,因为功能的实现者通常被认为是物理 的)来解释或实现现象意识时,不可避免地就会遇 到“难问题”:客观 的物理事物究竟如何能产生出 主观的现象意识?因此,主流概念框架不可避免 地会导致“难问题”。如今,越来越多的人认识到, 要实现强人工意识就要突破主流框架,构建新的概念框架。 前耶 鲁教授麦克德莫特( Drew McDermott )曾做过一个 问卷调查,询问美国人工智能协会会员对“创造具 有‘现象意识’的计算机或程序”这一问题的看法。 结果显示,在所有 7 个选项中 ,回答“需要新观念” 的最多,高达 32% 。
新框架应能避开“难问题”,而要避开就要消 除问题的根源。“难问题”的根源是主流概念框架, 而 主流概念框架依赖如下两个预设:实在性预设(R),意识是实在的;派生性预设(D),意识是由更为基本的东西产生的。 颠覆这两个预设中的任何 一个,“难问题”就会烟消云散。近来强势复兴的 泛心论否认预设(D)。泛心论认为,基 本物理实 体具有原初的意识特性,而我们的意识是它们的 精致组合。泛心论有着古老的历史,近来由于 查默斯、斯特劳森(Galen Strawson)、戈夫(Philip Goff)等人的倡导而重新兴起。新泛心论被认为 与物理主义是相容的。物理主义主张一切都是物 理的。然而,对于什么是“物理的”,它却未能给出 清楚表述。一种理解是,物理的就是物理理论所 告诉我们的那些东西。而物理理论,正如罗素 所指出的,只是根据世界的时空结构及其动力学 来描述倾向性质(Dispositional Property),对于那 些支撑结构与动力学的内质(Quiddities)并未做出 断言。泛心论由是宣称,内质,或者说那些起到诸 如质量作用、电荷作用的绝对性质(Categorical Property),是现象的。如此, 泛心论就可以在不违反当代主流世界观的情况下对意识给出一个解释:我们的意识是由内在于物理实体的微意识以某种精致的方式组合而成的。 这种解释是非物理 主义的,不会产生“难问题”。托诺尼声称,根据 IIT,一个具有与大脑相似 的连接与动力学的神经形态电子设备具有意识, 因为它与大脑一样具有高 φ 值。 所以,实现人 工意识的关键是赋予系统高 φ 值。依据 IIT ,加梅 兹设计了一个机器人视觉系统神经控制器。他先 让这个控制器接受训练,然而根 据 φ 值算法对信 息整合在其网络中不同区域的分布进行计算,以 评估这个系统的哪些单独部分可被认为是有意识 的。 加梅兹发现,由于托诺尼及其同事所给出 的算法需要考虑的参数太多,因而计算任务极其 繁重,如果直接用它来计算则需要 10 9000 年!他开 发出一个有效的近似算法,删除了原算法中在此 情形不适合的部分。计算结果出人意料地表明, 系统中涵盖全部“抑制区域”与大部分“情感区域” 的 91 个神经元以及其他区域的少数几个神经元 具有最大 φ 值。按照信息整合理论,可以认为这 些神经元是有意识的。这个断言与最近的一些经 验发现惊人地一致。在加梅兹的神经系统中, 91 个高 φ 值的神经元充当的是选通回路( Gating Cir⁃ cuit )。越来越多的认知科学证据表明,选通是工 作记忆非常重要的认知控制机制,而工作记忆被 认为与意识密切相关 。
正如我们所看到的,人工意识的 IIT 进路取 得了一定成果。但它面临不可忽视的重大理论挑 战。 挑战之一是将意识等同为 φ值,这突破了意识的常识概念。 IIT 认为任何具有高 φ 值的系统 都具有,但系统的 φ 值可以通过一些简单的方法 建构出来。比如,一个 n×n 方格排列的 XOR 门网 络可以产生 √ n φ 的值,通过增加 n 值,我们可以 产生任意大的 φ 值。 结果,一个简单的网络可 以拥有不亚于人的意识。这非常反直觉。然而, 托诺尼争辩说,常识并不能驳倒 IIT ,因为 IIT 就 是要超越常识给出一个意识的基本理论。对 IIT 来说, XOR 门方格的意识不是其反例而是正确预 测。可是,如果这样的话,就不会有任何东西对 IIT 构成反例, 从而IIT 就沦为普波尔(Karl Prop⁃er)所说的那种永远不能证伪的理论。
更大的挑战来自 IIT 的泛心论承诺 。托诺尼 曾以自诘的口吻说道:“此立场与认为宇宙中的一 切都具有某种意识的泛心论观点有多接近 ?无 疑, IIT 蕴含了只要是包含了能在不同选项间进行 选择的某种功能机制的诸多实体皆具有某种程度 的意识。” 按照 IIT ,简单如二态光电二极管那样 的实体,也有“一丁点”意识。但二极管的意识必 定不是我们所感受到的那种意识 ,否则 IIT 将无 比疯狂。那么,如何解释两种意识之间的差异呢 ? 按照泛心论,这些宏观意识都是由微观意识或原 型意识组成的,构成它们的微观实体的数量或组 合方式的不同决定了宏观意识的不同 。可是,数 量或组合方式的不同究竟如何导致了宏观意识的 不同?请注意,诉诸 φ 值或内在因果关系是无助 的 ,因为它们是组合方式的宏观体现 ,构不成微观 解释 。这个问题难就难在我们无法用科学来回 答。科学,按照泛心论最初的区分,只是研究倾向 性质,而意识涉及的是绝对性质。 既然意识已经被先验地归入科学所不能触及的异域存在,那么,不但意识的科学研究是不可能的,而且人工意识的研究,即使可能的话,也是不科学的。
此外,泛心论还存在与上述问题相关的组合 问题。组合问题是一个系列的问题,比如,微观意 识主体如何组合一起产生出宏观主体?微观现象 性质如何组合一起产生出宏观现象性质?微观经 验结构如何组合一起产生出宏观经验结构? 正 如查默斯所指出的,这些问题都是很难回答的问 题。以第一个问题为例。我们知道,意识总是为 主体所拥有,至少我们的意识是如此。可是,像 你、我这样的宏观意识主体究竟是如何从一堆微 观意识主体产生出来的呢?给定任何数量的微观 主体,原则上总有可能不会产生任何新的主体。 而且,作为宏观主体的我们,也从未觉知到任何微 观主体。当然,泛心论的支持者不会束手就擒,他 们对组合问题给出了令人钦佩的回答, 使得形 势愈加复杂。也许,这就是哲学与科学的不同。 在哲学中,很难找到一个类似于科学中的判决实 验的东西,以致能够一锤定音地击败一个理论。 但无论如何,在基本实在层面假定意识的存在似 乎不太合理。至少,这不符合“奥康剃刀原则”,也 不符合“祛魅”的当代科学世界观。笔者的观点 是, 在没有确定是否有其他出路之前,最好不要将泛心论当成最佳选择。
泛心论与主流概念框架有一个共同点,即接 受实在性预设( R )。不同的是,泛心论放弃了派 生性预设( D ),试图以此消解“难问题”。但是,正 如我们所看到的,泛心论以及基于其上的 IIT 进 路并非理想的出路。这让我们想到另一种可能的 出路,即放弃预设( R )。放弃预设( R )等于放弃了 对意识的解释。这是因为,一个不真实的现象是 无须也无法解释的 — —它只能被解释掉( Explain Away )。解释掉一个现象就是通过解释而摒弃那 种现象,它的一个突出特点是否定了被解释项的 实在性。比如,对于太阳东起西落这一现象,地心 说试图去解释它 — —它是由太阳围绕地球的转动 引起的;日心说则试图将它解释掉 — —太阳既没 有升起也没有落下,而是地球的运动造成了这样 的错觉。类似地, 将意识解释掉,意味着将意识看作像太阳东起西落一样的错觉现象。这个观点被称为意识错觉论。
意识错觉论初看起来十分荒谬。这个世界还 有什么比意识更为真实呢?难道痛不就是我感觉 到痛吗?错觉经验不也是经验吗?尽管经验内容 是可怀疑的,比如说所看到的是毛线团还是猫,但 经验本身是不可怀疑的。用笛卡尔的话来说,经 验是自明的,属于不可怀疑的“我思”。这种思想 即使在当代也是根深蒂固,如塞尔( John Searle )就 说:“就意识而言,现象的存在就是实在。如果在 我看来确实像是我具有有意识的经验,那么我就 具有有意识的经验。” 在接受这种思想的人看 来 ,错觉论是“疯狂的”“荒唐的”“明显错误的”“自 毁的”“不融贯的”。类似的指责有很多,但是,这 样的指责与其说是对意识实在论的辩护,不如说 是对错觉论的误解。
误解之一是认为错觉论“否认显明” ( Deny the Obvious )。实际上,错觉论并不否认作为错觉 的意识 现象的存在,就像日心说不会否认太阳看 起来东起西落一样。它否认的是,意识所呈现出 现的现象性质不存在,就像太阳看起来东起西落 所暗示的事实不存在一样。显然,一个东西看起 来像是什么,与它实际上是什么并不是一回事。 丹尼特( Daniel Dennett )第一次注意到,这个原则 对经验本身也适用。他指出,意识向主体显示自 己,只是意味着意识状态在主体看来具有现象性 质,但这并不意味着意识状态真的具有它向主体 显示的那些现象性质。 这就好比,一部计算机 向我们呈现出图形界面,并不意味着计算机就真 的拥有那个界面。正如那个界面不过是计算机的 信息状态经屏幕的投射让我们产生的错觉一样, 意识也有可能是大脑的信息状态经内省机制解释 让大脑产生的错觉。
误解之二是将错觉论与取消论(eliminativ⁃ism)混为一谈。 科什非常反感非实在论,他批评 道,意识不是实在的就像科塔尔综合症( Cotard syndrome )患者否认他自己是活着的一样,是“科 塔尔综合症的形而上学对应物”。当他这么批评 时,他指责的是“将经验实在性的大众信念看作是 朴素假说”这样一种取消论观点。 取消论将意 识存在的信念看作理论错误,就像燃素断言燃素 存在一样。并且,这种错误在得到澄清后是可以 被取消的,就像今天的化学完全放弃了燃素说一 样。但 错觉论认为意识错觉源自大脑的内省机制,是不可取消的。 这就好比穆勒 - 莱耶尔错觉 ( Müller-Lyer Illusion ),即使我们知道两条线段是 一样长的,它们看起来也仍然是一长一短。同样, 即使我们知道意识是错觉,但在我们看来也仍然是那么真切。所以错觉论与常识并无直接冲突。
一些人可能会反驳说,如果错觉论是对的,那 么我们根本就没法获得对世界的正确理解,从而 也就认识不到意识是错觉。实际上, 错觉论并不认为意识经验不能可靠地表征任何性质。它否认的只是经验中的现象性质,即那种“像是什么的东西”,是一种错觉。 经验表征的实际上是“准现象 性质”( Quasi-phenomenal Properties )。准现象性 质是非现象的物理性质,它通常会让内省误表征 为现象的。 比如,准现象的红性( Redness )就是 通常会引发现象红性的内省表征的物理性质,即 红色物体的表面性质。错觉论并不否认经验可以 可靠地表征准现象性质,而且,它也不否认取用意 识。它否认的只是现象意识,而这并不妨碍我们 对世界的认识。
最后看第三点。我们知道,意识具有一系列 独特的现象学特征。比如,意识是无形的;它总是 为主体所拥有;具有对象;具有统一性等。 AST 可 以很好地解释这些特征。由于注意图式不包含注 意的物理信息,所以意识被大脑的内省机制曲解 成无形的。由于注意图式总是与大脑中的自我模 型与注意对象模型相联系(注意图式将它们联系 到一起),所以意识总是表现为某人的意识,并且 总是有所呈现。由于注意图式是一个整合了的信 息集,所以意识总是表现出统一性。总之, AST 可 以很好地解释意识的现象学。
如果注意图式理论是对的,那么要在机器中实现人工意识,就不是让机器具有意识,而是让机器产生具有意识的错觉。 更具体的,就是赋予机 器一种错觉机制,以便让它制造意识错觉。按照 注意图式理论,错觉机制的核心是注意图式与内 省机制。目前人工意识中已有相关想法和工作。 早在 20 世纪 60 年代,明斯基( Marvin Minsky )就 指出, 一个智能体不仅要包含外部环境模型,而且还得有一个关于自身的模型。 自我模型可使人 工主体思考自身,并且思考自身对自身的思考,即 内省( Introspection )。一种观点认为 ,现象意识产 生于对知觉的内省。 还有一种观点认为 , 在学 习 过程中引入自我概念是创造人工意识的关键步 骤。 如前面提到的 CRONOS 就包含了一个自我 模型,作为物理身体的模拟器,与分立的关于机器 人外部环境的内部模型互动。最近,布林斯耶德 ( Selmer Bringsjord )等人设计出了一个能通过自我 意识的人类测试的机器人。不过他们也承认,机 器人并不真的拥有自我意识。
另一方面,意识与注意的关系同样早就为人 所注意到。詹姆士说:“我的经验是我同意加以注 意的东西。” 通常情况下,一个人注意到什么,他 就会意识到什么。如果注意改变,意识就会随之 改变。鉴于注意与意识的紧密联系,有一些人工 意识模型干脆将注意机制看作是表征有意识的信 息的加工机制。比如,廷斯利( Chris Tinsley )设计 了一个计算模型,这个模型的注意网络的输出被 看成是对刺激的有意识的表征。 泰勒( John Tay⁃ lor )及其同事研究了“注意运动的关联放电”( CO⁃ DAM )模型。这个模型通过控制注意焦点的改变 (即“注意运动”)而非运动控制中的改变来模拟意 识的神经基础。结果显示,在注意瞬脱( Attention⁃ al Blink )、变化盲视( Change Blindness )等情形中, CODAM 系统表现了与人类受试非常相似的反 应。 有趣的是 ,近来在对各种不同的注意相关 任务中的 fMRI 、 MEG 、 EEG 活动的分析结果显示 , 人类大脑同样存在关联放电信号。
单独地看,外部环境模型、自我模型与注意模 型对现象意识来说都是不充分的。 假如我们能够在注意图式理论的指导下将这些已有工作整合到一起,以一种恰当的方式将它们关联起来,机器很可能就会产生具有意识的错觉。 这样的机器,我 们就可以说它在我们具有意识的意义上具有意 识。如此一来,强人工意识就得到了实现。然而, 在强人工意识被确认得到实现前 ,仍然有两个问 题需要解决。首先,如何以一种恰当的方式将外 部环境模型、自我模型与注意模型整合起来,这既 是一个理论问题,也是一个工程学问题。其次,即 使我们制造出了这样的机器,又如何知道它拥有 了现象意识呢?这是个与传统的他心问题密切相 关的复杂问题。
在这里,文章打算对第二问题给出一个方向 性的建议。其具体论证与第一个问题理论部分的 解答一样,需要单独的文章来阐明。建议如下:从 内部结构上看,机器具有完整的注意图式,即具有 工程学上的可测量性;从外部行为上看,机器能在 真实世界中以与人类行动者无法区分的方式做人 类行动者所能做之事,即通过“全总图灵测 试”。 如果一个机器同时满足以上两点,我们就 有充分理由说它具有了现象意识。如果一个人仍 然对之持怀疑态度的话,那他必须承认他的怀疑 对人也适用。这是因为,给定机器与人的内部结 构和外部行为的相似性,使得我们已经没有可用 的差异制造者来阻止将机器意识的怀疑延伸到人 类意识上。但这样一来,我们就会陷入唯我论:知 道一个人会思考的唯一方式就是成为那个人。鉴 于唯我论是不可取的,没人愿意持此立场,所以也 就没人能合理地坚持机器意识的怀疑论。如此一 来,机器意识就得到了合理确认。
五、结语
自 2001 年斯沃茨基金(Swartz Foundation)资 助举办“机器可以有意识吗”工作坊以来,迄今已 逾 20 余载。这 20 余载见证了人工意识从纯粹哲 学思辨到其真实可能性的转变。一旦人工意识得 以实现,我们将不得不思考,人究竟是什么? 当意识作为人类的最后一道防线被突破后,我们在自然界中的地位以及我们应该如何对待我们创造出来的同伴,就成为我们不得不面对的问题。 在笔 者看来,没有什么能比这些问题更能激励我们去 做进一步探究。
本文原载《上海师范大学学报(哲学社会科学版)》2023年第6期,参考文献及注释参见本刊原文,欢迎转发与授权转载。如需转载请留言或联系021-64322304,联系人:李老师。转载请注明来源!配图均来自网络。
《上海师范大学学报(哲学社会科学版)》官网:
http://shnu.ijournals.cn/zxshb/ch/index.aspx
来源|上海师范大学学报哲社版
初审|韩 珩
审核|卢 毅
审核发布|屈琼斐