信息学基础研究分享 http://blog.sciencenet.cn/u/geneculture 语言理解&知识表达

博文

双重形式化中文屋论题在人机互助新时代的综述与发展

已有 236 次阅读 2026-4-26 20:21 |个人分类:学术研究|系统分类:教学心得

双重形式化中文屋论题在人机互助新时代的综述与发展

 

作者:邹晓辉0000-0002-5577-8245

日期2026426日星期日

image.png 

0 图形摘要:论文核心框架的可视化总结。塞尔的中文屋仅包含符号规则(F₁),无法产生理解;双重形式化引入F₁F₂的双向耦合,产生功能性语义理解;这五种哲学进路为人机互惠时代提供了研究路径。

(此处为图形摘要,展示:左侧原始中文屋(无理解),中间双重形式化F₁F₂双向耦合,右侧涌现功能性理解,底部五种哲学进路。图中文字:中文屋(Searle 1980)仅F₁→无理解”→“双重形式化:F₁符号层↔F₂亚符号层双向耦合”→“功能性理解(组合性、指称连贯、全局可用);底部:计算层级多元主义、具身-生成耦合、IIT/GWT、神经符号重构、实践导向互惠。)

摘要约翰·塞尔1980年提出中文屋论证至今仍是强人工智能最难以逾越的哲学障碍。经过四十年的争论,其核心主张——单靠语法不足以产生语义——既未被驳倒,也未被完全证实,部分原因在于争论被框定为形式规则与神秘非形式属性之间的二元选择。本文提出一个新的组织框架:双重形式化。一个系统要满足合理的语义理解功能标准,只有当它在两个不同但相互作用的层次上被形式化描述:一个是显式的、人类可读的符号规则系统(F₁);另一个是连续的、分布式的亚符号表征动力学系统(F₂)。本文主张,双重形式化论题可解决文献中五个长期存在的难题:理解的运作定义缺失、计算层次混淆、感受质的第三人称困境、符号落地问题停滞以及论证循环结构。在双重形式化框架内重新解读中文屋,会发现塞尔的论证并没有否定强人工智能而是提供了一个建设性的约束条件:任何可行的机器理解都必须被双重形式化;而在新兴的人机互惠(human-AI mutualism)时代,这种理解恰恰是通过人类与人工智能在两个层次上的动态耦合而涌现出来的。本文进一步提出五种互补的哲学进路:计算层级多元主义、具身-生成动态耦合、信息整合理论与全局工作空间理论、神经符号重构、以及实践导向的互惠主义。每种进路都在双重形式化框架内得到自然表达。最后,本文为在双重形式化人机互惠框架下进行人工智能哲学研究制定了一个未来议程,主张哲学的角色应从外部批判转向设计、评估和伦理治理。

关键词:中文屋论证;强人工智能;双重形式化;语义意向性;人机互惠;系统综述

1. 引言

约翰·塞尔在1980年《行为与脑科学》上发表的心灵、大脑与程序一文提出的中文屋思想实验,已成为人工智能哲学中被引用最多、争论最广的一个论证[1]。该思想实验的场景众所周知:一个只懂英语的人被关在一间屋子里,里面有一本操作中文符号的规则手册。他按照规则操作,输出与中文母语者无异的答案,但他自己并不理解中文。塞尔由此得出结论:任何执行程序的数字计算机同样只是一个句法引擎都不可能拥有真正的语义理解。因此,强人工智能(即恰当编程的计算机人工智能它能够拥有心智状态)是虚假的。

1展示了这个思想实验的基本结构

image.png 

1 中文屋思想实验(Searle 1980

(绘制一个矩形房间,内部一个小人(Man)和一本规则书(Rulebook),左侧箭头输入(中文),右侧箭头输出(中文),下方标注:人遵循句法规则,不理解中文。)

1:中文屋思想实验。房间内的人按照规则书操作中文符号,产生与母语者无异的输出,但他本人不理解中文[1]。这一直觉泵直观地呈现了句法不足以产生语义的核心主张。

该论证的力量在于其表面上的简单性——它将整个计算主义纲领归结为一个直觉:遵循规则不能创造意义[2,3]。然而,尽管批评如潮,却从未达成共识,争论的规模之大以至于即使专家也常常难以把握全貌。

为什么中文屋论证一直没有被解决?部分原因在于它迫使我们直面意义、意向性和意识的本质。但更深层的原因——本文将论证——在于塞尔和他的批评者都默认了一个虚假的两难困境:要么系统是一个句法引擎(显然无法理解),要么它拥有某种神秘的、非形式的属性从而获得真正的语义。本文提出第三种可能性:两种不同层次的、相互作用的形式化描述,能够共同实现任一层次单独都不具备的功能性语义能力。我称之为双重形式化论题

双重形式化(DFDual Formalization主张:一个认知系统要满足合理的语义理解功能标准,仅当它能够接受两个互补的形式化描述:一个是符号层(F₁——由显式规则和离散符号组成;另一个是亚符号层(F₂——由连续的、分布式的表征动力学构成,并且两者之间存在双向耦合。人类认知似乎就是双重形式化的(例如[4,5,6,7]),当代最成功的人工智能架构也是如此(例如[8,9,10])。

如果DF论题是正确的,那么中文屋论证并没有否定强人工智能,而是指明了任何有望实现理解的系统必须满足的一个必要条件:它必须是双重形式化的。塞尔最初的房间只包含F₁,因此缺乏理解。而一个双重形式化的中文屋——即增添F₂和耦合机制的屋子——原则上可以展示功能性理解。此外,在正在兴起的人机互助互惠时代[11,12,13],问题从孤立的人工智能是否理解转变为人类-人工智能联合体如何在两个层次上通过动态耦合共同实现理解

本文从DF视角对中文屋文献进行系统的批判性综述。第2节勾勒了该论证四个阶段的演变。第3节阐述DF框架并论证其必要性和充分性。第4节诊断五个长期存在的难题,并展示DF如何解决它们。第5节为人机互助互惠时代提出五种哲学进路。第6概述未来研究议程。第7节总结。

2. 中文屋论证的演变:四个阶段2.1 第一阶段:基础争论(1980–1990

塞尔最初的文章[1]附有《行为与脑科学》上的同行评论。出现了三种经典回应。

系统回应Churchland 1990[14]; Lycan 1987[15])主张:虽然房间里的那个人不理解,但整个系统(人+规则书+数据库)可能理解。塞尔的反驳是内化思想实验:如果那个人把规则书全部背下来,系统就缩化为他一个人,但他仍然不理解中文。因此,单纯分布并不能解决问题。这一回应虽然指出了系统大于部分之和,但未能明确分布需要何种结构——这正是DF将要补充的。

机器人回应Dretske 1981[16]; Harnad 1990[17])提出:通过传感器和执行器把符号与外部世界因果地联结起来,就能为符号落地塞尔反驳说:增加输入-输出通道并没有改变内部处理仍然是句法的本质。然而,DF认为,如果机器人的内部不仅有符号规则(F₁),还有亚符号动力学(F₂)并通过耦合与外部世界互动,则可能真正实现语义接地。

模拟回应Harnad 1989[18])区分了模拟认知和实例化认知:一个完美模拟飓风的计算机程序不会产生雨水;同理,模拟理解也不等于真正理解。DF不否认这一点,但它认为充分实例化需要同时实现F₁F₂

到本阶段结束时,双方立场已固化:塞尔坚持内在意向性是大脑的生物属性[2];对手们则认为功能组织(可能是分布式的)可能就足够。但正是这一僵局为DF的到来预留了空间。

2.2 第二阶段:联结主义挑战(1990–2010

联结主义(Rumelhart, Hinton & Williams 1986[4]; Smolensky 1988[5]; Elman 1990[6]用简单单元的并行网络和分布式表征取代了显式规则。这似乎削弱了塞尔的论证,因为联结主义网络并不遵循规则”——至少不是经典意义上的遵循规则。

Smolensky (1988)[5]引入了符号层/亚符号层的区分,认为亚符号层更为基础。这一区分直接启发了DFF₁/F₂二分。Fodor Pylyshyn (1988)[19]则发表了一则著名的批判:联结主义缺乏系统性和组合性,除非它在更高层次上实现了一个经典符号系统。换言之,纯F₂是不够的,必须与F₁结合。

塞尔(1992[3])不为所动:任何联结主义架构都可以在数字计算机上模拟,因此仍属于同一类型的批评。然而,联结主义转向确实为双重形式化播下了种子——即可能需要两个层次的形式化描述协同工作。此阶段揭示了:仅有符号(F₁)不行,仅有亚符号(F₂)也不行;必须两者兼备。

2.3 第三阶段:大语言模型之前的计算转向(2010–2020

深度学习在许多任务上取得了超人类表现。词嵌入(Mikolov et al. 2013[10])捕捉到语义关系作为向量算术。Transformer架构(Vaswani et al. 2017)和BERTDevlin et al. 2019[9]进一步模糊了统计模式匹配与理解之间的界线。在哲学上,意识的操作化定义出现了:全局工作空间理论(Dehaene 2014[20])和信息整合理论(Tononi 2008[21])提供了可测量的代理指标。Bender Koller (2020)[22]认为大语言模型只是随机鹦鹉Piantadosi (2021)[23]则反驳说,丰富的统计规律可以构成意义。这一争论实质上是中文屋在LLM时代的重演:纯统计模式(类似F₂)是否足以产生理解?DF答案是:必须加上显式的符号层(F₁)和耦合。

这一时期为将中文屋视为一个经验的(而非纯粹先验的)问题铺平了道路

2.4 第四阶段:人机互助互惠(2020年至今)

随着语言模型融入日常生活,分析单元从孤立的人工智能转向人机联合体。扩展心灵(Clark & Chalmers 1998[11])和生成主义(Varela, Thompson & Rosch 1991[24]; Thompson 2007[12]; Noë 2004[13])再次获得了重视Kirchhoff (2018)[25]应用动力系统理论认为意义产生于结构耦合

在这种互惠语境下,双重形式化不仅变成描述性的,而且成为规范性的:我们应该建造具有显式符号组件(透明、可验证)和强大亚符号学习器(灵活、鲁棒)且双向耦合的系统。中文屋不再是障碍,而是一个设计原则2000年一种知识信息数据处理方法和2002年言和语的关系数据库落地验证过

2展示了中文屋争论的四个阶段的时间线

image.png 

2 中文屋争论的四个阶段时间线

(绘制水平时间线:标记1980199020102020四个节点上方分别标记Phase 1 Foundational(基础阶段)、Phase 2 Connectionist(联结主义阶段)、Phase 3 PreLLM(大语言模型前)、Phase 4 Mutualistic(互惠阶段)。各阶段上方标注关键特征:系统/机器人/模拟回应、亚符号表征、深度学习/意识理论、人机互助互惠。)

2:中文屋论证四十余年的四个阶段。从早期基础回应,到联结主义挑战,再到深度学习与意识操作化,最后进入人机互助互惠时代。每个阶段都对何为理解提出了新的视角,但最终汇聚到双重形式化的要求

3. 双重形式化:框架与论证3.1 定义

令一个认知系统 S给定。一个形式化是对该系统的状态和转移函数的描述,使得系统的演化能够完全通过根据形式属性定义的规则对符号进行形式操作来描述(1列出了关键概念)。

定义如下:F₁(符号层):一个形式化 M1=(Q111,δ1,q0,1),其中 Q1是符号状态集合,δ1是转移函数,并且该描述是人类可读的(显式规则)F₂(亚符号层):一个形式化 M2=(X,f,h),其中 XRd 连续状态空间f:X×RmX 是一个可微函数控制状态演化,h:XY 输出函数。该描述不要求人类可读耦合 C:存在函数 ϕ:X→Parameters of δ1 ψ:Q1×History→Rm,使得 F₂ 的状态调节 F₁ 的规则选择,而 F₁ 的符号输出影响 F₂ 的输入或学习。一个系统是双重形式化的,如果它承认这样的三元组 (M1,M2,C)

概念

定义

形式化

用形式语言对系统的描述,状态和转移规则仅由形式属性定义。

F₁(符号层)

使用离散符号、显式规则和组合操作的(间接)形式化;人类可读

F₂(亚符号层)

使用连续状态空间和可微动力学(如神经网络)的(直接)式化;不要求人类可读

耦合 C

双向影响:F₂的相似度度量调节F₁的规则选择;F₁的约束偏置F₂的学习。

双重形式化(DF

一个系统是双重形式化的,如果它承认(F₁, F₂, C)具有上述性质。

功能性语义理解

系统满足三个标准:组合泛化、指称连贯性、全局可用性。

人机互惠

人类与人工智能体之间动态、互惠的协同适应,二者相互塑造对方的认知加工

1 关键概念及其形式定义

3展示了双重形式化框架的示意图。

image.png 

3 双重形式化框架

(绘制上下两个矩形框:上方蓝色框标注“F₁: Symbolic Level (explicit rules, discrete symbols)”;下方绿色框标注“F₂: Subsymbolic Level (continuous dynamics, vector representations)”。中间双向箭头:左侧向上标注“similarities”(相似度),右侧向下标注“constraints”(约束)。顶部标题“Dual Formalization Framework”,底部说明“Bidirectional coupling C enables functional semantics”。)

3双重形式化框架的核心结构F₁提供显式规则与离散符号,F₂提供连续表征与学习动力学。二者之间的双向耦合(约束与相似度)使得功能性语义成为可能

3.2 必要性:为什么任何具有语义的系统都必须被双重形式化

一个满足以下三个功能标准语义理解系统必须同时拥有 F₁ F₂

组合泛化:理解已知成分的组合的能力

指称连贯性:内部状态与外部对象或事态之间的系统因果/信息关系

全局可用性:报告内部状态并用于推理的能力。

F₁ 的必要性:组合泛化需要组合性句法和语义[19,22,23]。纯亚符号系统在系统性上表现不佳[26,27]。没有F₁,就无法解释人类语言的创造性组合

F₂ 的必要性纯符号系统是脆弱的,不能处理噪声输入或渐近学习。鲁棒的学习需要连续的、分布式的表征[4,8]。没有F₂,系统无法从模糊、不完整的数据中学习

因此(组合性鲁棒性可报告性)⇒(F1F2)

3.3 充分性:F₁+F₂+耦合能否产生语义?

如果一个双重形式化系统在需要语义能力的任务上达到人类水平的表现,并且满足上述三个标准,那么没有原则性的理由否认它具有功能性理解。这是一个经验假设,得到了神经符号系统的支持(例如[28,29,30]),这些系统显示出改进的组合泛化和可解释性。当然,这并不声称机器拥有了人类那样的感受质(qualia),而是说在功能等价的意义上,它们能够完成理解所要求的信息处理任务。

3.4 双重形式化的中文屋

现在DF应用于中文屋。假设房间里不仅有规则书(F₁而且,还有一个实现训练好的神经网络的向量处理器(F₂)。规则书指示计算向量相似度并用它们来选择合适的规则。人本身并不理解这些向量,但耦合后的系统(人+规则书+向量处理器+数据库)同时拥有 F₁ F₂ 以及耦合。根据DF,该系统可以展示功能性语义理解。这不仅仅是系统回应——它具体指明了分布必须跨越两个性质不同的形式化层次,而且二者必须双向耦合

4. 五个长期存在的问题及其DF解决方案

在此,总结五个持久问题DF的解决方案

问题

描述

DF解决方案

1. 理解的操作定义缺失

塞尔的质的第一人称理解 vs. 功能主义。

将二元问题替换为功能能力向量(组合性、指称连贯性、可报告性)使理解成为分级的、多维度的、可经验检验的。

2. 计算层次混淆

计算混淆物理层、算法/动力学层、符号层(Marr 1982[7]

明确区分F₁(离散符号)和F₂(连续亚符号)并通过交互指定层次。

3. 感受质的第三人称困境

意识的硬问题Chalmers 1995[31])使第三人称测量不可能

采取功能-实用主义立场,搁置硬问题,聚焦于接入意识(Block 1995[32])和可报告理解。

4. 符号落地问题停滞

符号若无非符号表征的连接则无意义(Harnad 1990[17])。

通过耦合实现落地:F₂提供与世界因果连接的连续表征,F₁提供组合结构。

5. 循环论证

双方依赖于关于理解的前理论直觉

DF转向经验设计问题:需要什么功能以及如何实现它们?

2 中文屋文献中的五个持久问题及其通过双重形式化(DF)的解决方案

4.1 问题1:理解的操作定义缺失

塞尔的理解概念是质的、第一人称的、无法从第三人称测量的。批评者采用功能主义,但双方无法对话DF解决方案DF将二元问题替换为一个功能能力向量(组合性、指称连贯性、全局可用性),使理解变成分级的、多维度的、经验上可处理的。这样,我们不再争论是否真正理解而是衡量系统在多个维度上的表现

4.2 问题2:计算层次的混淆

塞尔将形式系统视为单一整体,忽略物理层、算法/动力学层和符号层之间的区别[7]DF解决方案DF明确区分 F₁(离散符号)和 F₂(连续亚符号)。澄清所调用的层次,可以消解许多误解。

4.3 问题3:感受质的第三人称困境

意识的硬问题表明没有第三人称的功能描述能够捕捉到成为那个系统是什么样子”[31]DF解决方案DF采取功能-实用主义立场,搁置硬问题,专注于接入意识[32]和可报告理解。对于互惠时代的人工智能,我们关心的是能否信任一个系统执行语义任务,而不是它是否有内在感受性。这是一种务实的哲学承诺。

4.4 问题4:符号落地问题停滞不前

Harnad (1990)[17]指出,符号如果没有与非符号表征连接起来,就是没有意义的。纯 F₁ 未落地;纯 F₂ 没有符号可以落地。DF解决方案:通过耦合实现落地。F₂ 提供连续的、可与世界因果连接的(通过传感器或社会互动)表征;F₁ 提供组合结构。当 F₂ 向量与外部指称物相关,并且耦合允许这些相关影响符号操作时,问题就得到了实质性缓解。

4.5 问题5:循环论证

塞尔的论证依赖于房间里的人不理解的直觉;批评者依赖于系统可能理解的直觉。双方都预设了一个前理论的、未经协商的理解概念DF解决方案DF通过提供一个独立于关于房间的直觉的框架打破了循环。我们询问:对于我们所关心的任务,需要什么样的功能能力?然后我们设计和测试 DF 系统。争论变成了经验和工程双重导向的。

5. 互惠时代的五种哲学进路5.1 进路1:计算层级多元主义

该进路[7,33,34,23]认为认知系统必须在多个层次上描述,没有一个可以还原为另一个。在DF中,F₁ F₂ 都是真实且互动的。对于人工智能,设计具有可检查符号层和强大亚符号学习器的系统;伦理可锚定在符号层,自适应能力锚定在亚符号层。

5.2 进路2:具身-生成动态耦合

生成主义[24,12,13]认为意义产生于动觉-感觉耦合。应用于中文屋:原始房间因为缺乏行动的历史而没有理解。一个具身且社会性嵌入的 DF 房间可实现理解。在互惠中,人工智能应被赋予虚拟身体和交互历史。

5.3 进路3:信息整合与全局工作空间

信息整合理论(IIT[21]用量 Φ 度量整合程度;全局工作空间理论(GWT[20]将意识通达描述为全局可用性。一个具有高 Φ 和全局广播的 DF 系统将成为意识和理解的候选者。这会把问题转化为测量问题。

5.4 进路4:神经符号重构

神经符号人工智能[28,29,30,35]显式实现了DF。哲学的角色是澄清期望和批评设计选择。在互惠中,神经符号重构是建造可信赖合作伙伴的最直接路径。

5.5 进路5:实践导向的互惠

受维特根斯坦[36]和近期人机协作研究的启发,该进路认为理解是由实践的参与者赋予的状态。一个系统如果能够参与符合期望的交流并能够被问责,那么它就理解了。DF 使得这种被看作理解成为可能,但不保证之;交互协议、反馈回路和问责机制至关重要。

3总结了五种进路及其与DF的联系。

进路

核心思想

DF的联系

计算层级多元主义

多层次描述,互不还原(Marr, Newell

F₁F₂都是真实的,互相作用

具身-生成动态耦合

意义产生于感觉运动耦合(Varela, Thompson, Noë

F₂描述耦合动力学,

F₁捕捉其符号规律性

信息整合/全局工作空间

意识由Φ或全局可用性度量(Tononi, Dehaene

Φ和全局接入的DF系统

可算作理解

神经符号重构

建造神经与符号组合的系统

DF的直接实现,双向耦合

实践导向互惠

理解由实践中的成功参与赋予(Wittgenstein

DF提供能力,实践验证理解

3 人机互惠时代的五种互补哲学进路

6. 综合与未来研究

五种进路是互补的。双重形式化DF研究计划应解决以下问题

实现功能性语义所需的最小耦合强度F₁ 是否可以从 F₂ 中涌现(例如通过符号提纯)。将 DF 扩展到大型语言模型。时间历史和发展中的作用。伦理意涵:权利、责任及过度归因的风险。

此外,未来还需要设计人机互助互惠的实验范式,量化测量功能性语义理解的指标,并将DF框架应用于实际AI系统的可解释性与安全性研究中。

7. 结论

中文屋论证一直是哲学质疑人工智能的最有力工具。本文论证了其持久力量源于一个正确但不完整的洞见:单凭语法不足以产生语义。双重形式化保留了这一洞见,同时容纳了当代人工智能的成就。在人机互惠时代,哲学的任务不再是终极性地回答中文屋,而是学会如何生活在其中——设计、栖居并批判性评估那些将塑造认知生活未来的双重形式化形式。

参考文献

[1] Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.[2] Searle, J. R. (1983). Intentionality: An Essay in the Philosophy of Mind. Cambridge University Press.[3] Searle, J. R. (1992). The Rediscovery of the Mind. MIT Press.[4] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533–536.[5] Smolensky, P. (1988). On the proper treatment of connectionism. Behavioral and Brain Sciences, 11(1), 1–23.[6] Elman, J. L. (1990). Finding structure in time. Cognitive Science, 14(2), 179–211.[7] Marr, D. (1982). Vision. W. H. Freeman.[8] LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.[9] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. NAACL, 4171–4186.[10] Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. (2013). Distributed representations of words and phrases and their compositionality. NIPS, 26, 3111–3119.[11] Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19.[12] Thompson, E. (2007). Mind in Life. Harvard University Press.[13] Noë, A. (2004). Action in Perception. MIT Press.[14] Churchland, P. S., & Churchland, P. M. (1990). Could a machine think? Scientific American, 262(1), 32–37.[15] Lycan, W. G. (1987). Consciousness. MIT Press.[16] Dretske, F. (1981). Knowledge and the Flow of Information. MIT Press.[17] Harnad, S. (1990). The symbol grounding problem. Physica D, 42(1-3), 335–346.[18] Harnad, S. (1989). Minds, machines and Searle. Journal of Experimental and Theoretical Artificial Intelligence, 1(1), 5–25.[19] Fodor, J. A., & Pylyshyn, Z. W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28(1-2), 3–71.[20] Dehaene, S. (2014). Consciousness and the Brain. Viking.[21] Tononi, G. (2008). Consciousness as integrated information: A provisional manifesto. Biological Bulletin, 215(3), 216–242.[22] Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. ACL, 5185–5198.[23] Piantadosi, S. T. (2021). The computational origin of representation. Minds and Machines, 31(1), 1–33.[24] Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind. MIT Press.[25] Kirchhoff, M. D. (2018). Autonomy and emergence in dynamical systems. Synthese, 195(8), 3599–3625.[26] Lake, B. M., & Baroni, M. (2018). Generalization without systematicity: On the compositional skills of sequence-to-sequence recurrent networks. ICML, 2873–2882.[27] Quélou, J. (2025). The hard systematicity challenge. Mind, 134(533), 1–32.[28] d'Avila Garcez, A., Gori, M., Lamb, L. C., Serafini, L., & Tran, S. N. (2019). Neural-symbolic computing: An effective methodology for principled integration of machine learning and reasoning. Journal of Applied Logics, 6(4), 611–640.[29] Mao, J., Gan, C., Kohli, P., Tenenbaum, J. B., & Wu, J. (2019). The neuro-symbolic concept learner: Interpreting scenes, words, and sentences from natural supervision. ICLR.[30] Manhaeve, R., Dumancic, S., Kimmig, A., Demeester, T., & De Raedt, L. (2018). DeepProbLog: Neural probabilistic logic programming. NeurIPS, 3749–3759.[31] Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.[32] Block, N. (1995). On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18(2), 227–247.[33] Newell, A. (1982). The knowledge level. Artificial Intelligence, 18(1), 87–127.[34] Chalmers, D. J. (2011). A computational foundation for the study of cognition. Journal of Cognitive Science, 12(4), 325–359.[35] Evans, R., & Grefenstette, E. (2018). Learning explanatory rules from noisy data. Journal of Artificial Intelligence Research, 61, 1–64.[36] Wittgenstein, L. (1953). Philosophical Investigations. Blackwell.



https://blog.sciencenet.cn/blog-94143-1532215.html

上一篇:本真信息观:基于序位守恒的融智学理论框架——人类认知第二次大飞跃的基础
收藏 IP: 116.31.52.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-4-27 18:04

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部