|

连接学派,又称神经网络学派,其核心思想源于模拟人脑神经元网络的的分布式并行计算与自组织机制。
与符号学派不同,连接学派并不依赖于人工预定义(显式)的逻辑规则,而是通过数据驱动的方式,自动学习深层次的特征和模式规律。
连接学派的优势在于强大的学习与泛化能力,缺点是可解释性差(“黑箱”)、依赖大量数据、训练过程不稳定等。
点击+号关注本账号,可获得更多精彩内容。
连接学派(Connectionism),又称神经网络学派,其核心思想源于模拟人脑神经元网络的的分布式并行计算与自组织机制(如下图所示,以及章节“5.27 【3D智能十八篇之十六】深度学习:像人脑一样深层次地思考”)。人类的大脑并没有一个单一的中央处理器,而是通过每个(慢速运行的)神经元之间的并行连接来完成信息处理。而且大脑经常会出现神经元之间连接的丢失,但这通常不会对大脑的功能产生负面影响,这表明许多细节并不是至关重要的。连接学派认为智能的本质在于大量简单单元(神经元)之间的复杂连接与相互作用,通过调整这些连接的权重,系统能够学习到数据中的模式与规律,从而实现智能行为。
与符号学派不同,连接学派并不依赖于人工预定义(显式)的逻辑规则,而是通过数据驱动的方式自动学习特征和模式。连接学派的代表性技术包括多层感知机、深度学习、卷积神经网络(CNN)、循环神经网络(RNN)、生成对抗网络(GAN)等。深度神经网络(DNN)就是连接学派的典型代表,它利用多层神经网络从数据中自动提取特征,并在图像识别、自然语言处理等领域取得了巨大成功。连接学派的基础算法是反向传播(Back-Propagation),通过计算损失函数的梯度来更新神经网络的权重。
神经网络的层级发展历程是逐渐加深的,从最早的单程神经网络、到两层神经网络,再到突破性的多层神经网络(即深度神经网络),才真正开始变得实用和性能强大,如下图所示。
连接学派的优势在于其强大的学习与泛化能力,利用大规模并行计算处理高维、非线性的复杂数据,能够从海量信息中学习深层次的规律。早期受限于算力与数据规模,后来Transformer架构的突破(如GPT系列)使其在生成任务中占据主导地位。然而,它也面临着模型可解释性差、依赖大量数据、训练过程不稳定等挑战。神经网络的决策过程往往被视为“黑箱”,难以理解其内部运作机制:神经网络内部的复杂结构和权重调整机制往往难以解释,使得理解和调试模型变得困难,这在医疗、金融等关键领域可能带来信任问题。此外,深度学习的训练通常需要庞大的计算资源和标注数据,限制了其在数据稀缺场景的应用。为了克服这些局限,研究者们提出可解释AI(XAI)、小样本学习等技术,并不断探索新的网络结构、优化算法与正则化技术,同时结合符号主义的思想,发展出可解释性神经网络、知识蒸馏等方法,以期在保持性能的同时,提升模型的透明度与可靠性。
更详细内容,请见本书的完整版。如果你有任何感想,请在评论区留言,一起讨论。
“AI哲学一吴怀宇”(中国科学院博士、北大博士后)作者主页:www.OpenDAI.org;邮件:huaiyuwu@sina.com
视频号/公众号:AI哲学一吴怀宇中国科学院(人工智能哲学)
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-3-8 08:00
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社