|
DeepSeek风靡全球,其对算法、模型和系统等进行的系统级协同创新,通过众智和众力相互叠加成就了精彩成果,为迈向通用人工智能(AGI)的技术突破与挑战带来遐想,以开源开放加快了迈向全社会分享的普遍智能的步伐。在日前由浙江大学人工智能科研团队推出的主题为“解码DeepSeek‘破圈’之力,探索人工智能技术明日世界”的线上公开课上,浙江大学本科生院院长、人工智能研究所所长吴飞教授和浙江大学信息技术中心主任、人工智能教育教学研究中心副主任陈文智教授结合人工智能发展演化的历史,系统解析了DeepSeek在技术、应用与伦理交织演进下的革新性探索,揭示了DeepSeek是如何突破算力与泛化天花板的。
符号主义人工智能的利弊
吴飞教授从符号主义、连接主义和行为主义三大主义,即以符号主义为核心的逻辑推理、以连接主义为核心的数据驱动和以行为主义为核心的强化学习着眼,介绍了人工智能算法的发展历史,分析了三大主义的优劣互补,并针对生成式人工智能的热点,介绍了ChatGPT、Sora和DeepSeek之间的联系。
吴飞指出,把一个领域里所有的知识都进行符号化,再把这个领域里所有的推理手段都进行逻辑化,于是一个人工智能系统就可以将人类专家的知识转化为结构化知识,存储进数据库,构造出某个专业领域的知识水晶球,支持该领域的应用,这就是通常所说的“知识工程”和“专家系统”。但是符号主义的人工智能很快走入了死胡同。比如给出一个描述——“所有的鸟都会飞”,如果大家认为它是正确的知识,就把它放到人类透明的水晶球里面去了,又告诉大家鸵鸟是鸟,大家觉得也很正确,也把它放到人类的水晶球里面去了。但这两条知识一放入,人们就从中推理出“鸵鸟会飞”,而这个结论其实是错误的。那么,问题出在哪里呢?原来,“所有的鸟都会飞”这个知识是有问题的,并不是所有的鸟真的都会飞。
“可是你要逐一去罗列描述麻雀会飞、海燕会飞……要把‘形形色色的鸟会飞’这个概念表达清楚,可能需要几个月甚至十几个月的时间,但是为什么人和人进行自然语言交流的时候就没有这么困难?”吴飞教授指出,因为我们所有的语言扎根于它的上下文语境,以及依靠人类强大的知识储备支持,所以,当把单句话剥离出来时,语言离开了它生存的土壤,就会出现上述荒谬的推导结果。因此,妄图把人类所有的知识从它根植的土壤里剥离、放入人类知识水晶球这个举措,遇到了巨大的挑战。
连接主义人工智能的利弊
人类还有很多的知识不可以被符号化和逻辑化。如何把那些很难用自然语言符号化和逻辑化的内容进行描述、让人工智能对其进行模拟并完成它的分类?人工智能“三剑客”之二,就是连接主义人工智能的数据驱动,也即给出足够多的数据让连接主义构造像人脑一样的神经网络,层层递进、逐层抽象,从数据中发现隐藏的模式和规律,然后根据已经学习到的模式和规律对视觉对象进行识别。深度学习的基本动机正是在于通过“端到端学习”这一机制来构建多层神经网络,以学习隐含在数据内部的关系,从而使学习所得的特征拥有更强的表达能力。
但以连接主义为核心的数据驱动也存在问题。2012年时,《纽约时报》发表了一篇文章,题目叫《多少台计算机可以识别一只猫?》,答案是16000台。因为当时谷歌公司的“谷歌大脑”项目为了让无人车上路,需要识别开放物理世界里成千上万的视觉对象,猫是其中的一种。谷歌公司采集了大约百万张猫的图像,再加上百万张不是猫的图像,用一个5层的卷积神经网络进行训练,最后从百万张图像里挖掘出猫的模式来进行猫的视觉对象的识别。那时人工智能的GPU算力还未被广泛使用,谷歌公司的人利用了由16000台以CPU算力为主体的计算机所搭建的计算系统进行模型训练,完成了神经网络识别和学习。
连接主义的人工智能非常依赖于数据,黑箱测试只是以概率最大的方式得到结果,数据有多大,连接主义人工智能才有多强。与这种弊端相关,巴普洛夫的条件反射定律指出,大脑的一切心理活动都是对刺激的反应,包含有意识和无意识。理查德·费曼在《物理学讲义》中曾提及,在生物学、人类学或经济学等复杂系统中,很少有一种简洁的数学理论能与数学物理学理论中的数值精确度相媲美,其原因在于“其过于复杂,而我们的思维有限”。1977年诺贝尔物理学奖获得者、美国物理学家安德森1972年在《科学》杂志上发表了一篇题为“More is different”(多者异也)的文章,深刻指出:还原论假说从来都不意味着建构论假说,将所有事物还原为简单的基本定律的能力并不意味着从那些基本定律出发并重建整个宇宙的能力。
行为主义人工智能的利弊
由此产生了人工智能的第三大主义,也就是在没有知识、没有数据的情况下,让智能体在环境里直接和环境进行接触,让环境教会人工智能算法。比如当人工智能体碰到墙了,它知道无法通过,就明白要折返一下;当人工智能体碰到了一个伤害它的尖锐物体,它知道这个物体是不能进行碰撞的,于是懂得进行有效的避让。这种在环境里面跌跌打打、从环境里面吸取失败的经验、谋定而后动、知止而有得的强化学习,被称为行为主义人工智能。
对此,浙江大学信息技术中心主任、人工智能教育教学研究中心副主任陈文智教授进一步解释,人类需要的不仅是大脑,而是一个助手。因此,有了大模型,人类还需要做智能体。如果将前者比作汽车发动机,后者就相当于汽车。他提出“大模型提供认知底座,智能体实现价值闭环”的双螺旋智能演进的观点,探索两者的协同进化对教育范式变革的推动作用。
行为主义人工智能做出的是一个序贯的决策,也就说,今天的决策可能为下一步的决策带来更大的希望,下一步的决策要为再下一步的决策带来更大的希望。因此,如果没有有效的序贯决策的学习方法,总是“打一枪换一个地方”,那么这种行为主义人工智能就无法解决人类社会面临的真实问题。比如大家可能在网络上看到一些和人类社会的物理规律非常相违背的视频。之所以会出现那样的视频,是因为它们采取概率合成,认为任意两个有意义的单元只要一起出现就可以被合成到一起。好比公鸡打鸣和太阳升起经常一起出现,但实际上,这两者共生的观念是一个虚假观念,因为哪怕把世界上的公鸡都杀死,第二天太阳照样会升起。如果人类把这样的虚假的关联引入人工智能,再按照概率进行合成,就会产生合成谬误。但如果有足够多的眼睛关注,理论上,任何漏洞都无处隐藏。人工智能开源正是要为人工智能模型注入透明度,从而构建更安全、更可信、更合乎伦理道德的人工智能技术。
AI产业化的拐点即将到来
中国工程物理研究院的李武平院士曾经在一次开会时讲过一个故事,说他曾请教我国“两弹一星”元勋、两院院士朱光亚先生,为什么九院称为工程物理研究院,朱先生回答说,物理是深度,工程是规模,没有规模做不成国家大事。由此可见,在算力成本呈指数级增长的人工智能领域,通过算法优化、架构突破和工程创新来降低大语言的模型成本,这本身就是技术实力的体现。在受限资源下探索通用人工智能,Deepseek开辟了新的道路,它的成功在于对算法模型和系统进行的系统级的协同创新,是重质和重力相互叠加的成果。特别是,DeepSeek在多头潜在注意力等关键技术上的表现十分突出,大幅度降低了推理成本,能在市场上以极具竞争力的价格提供服务。
陈文智教授打比方说,过去的训练相当于领导一声令下“加班”,就不管你有没有活干、干不干,全员都要加班。Deepseek-R1不是这样,它类似于认为加班是为了保证某个事情得以实现,所以只要需要的、有用的人到岗就行,其他人可以不到岗,相当于“三个臭皮匠,顶一个诸葛亮”。这样可以大大减少它的成本。它的专家分为两种,一种是共享型专家,也即那些一直会被用到的专家;另一种是路由专家,即被选到的时候才用的专家。这种架构能保证路由专家有比较均衡地被选到、发挥作用的机会。由此可以比较轻量、快速、低成本地训练大模型。Deepseek的开源开放促进了科技创新,唯有通过开源开放,技术创新的门槛才能被有效降低,才能汇聚更多的开发者和人才,推动产业的整体进步。
不过吴飞教授提醒,目前即使是Deepseek,仍然存在AI幻觉、黑箱效应等缺陷,说明人类仍然需要推动机器学习迈向学习机器。
陈文智教授认为,2022年ChatGPT的问世带来了算法创新,2023年出现数据拐点,2024年末至2025年初,随着Deepseek横空出世、号称只需要2000多张卡就能训练6000多亿参数的大模型,算法又迎来了新的创新,算力效率出现了明显的拐点,AI产业化的拐点即将到来。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-3-31 07:47
Powered by ScienceNet.cn
Copyright © 2007-2025 中国科学报社