|
去年过年我找文心一言写了祝福语,顺便让他加了些表情包;今年我让深度求索写了祝福语,顺便让他加了些表情包。然后便是同样熟练的拷贝+粘贴。
人很难免俗,啥人啥人工智能来到中国,都得学会拜年。机器人也一样,你不给我跳段广场舞,穿个大红袄,扭个东北秧歌,甩个手绢,那是无法证明自己有多智能的。
最近两年,大模型+具身智能是看得出来的人工智能两大热点方向。尤其是前者的进步,非常快,人们已经开始惊叹他的智能表达水平,与人类,这一地球上毫无争议的no.1智能体相比,快不相上下了。人类正在面临前所未有的、来自人工智能的全方位的竞争和替代。
那么,人类是否还有翻盘的空间呢?这涉及到一个关键问题,学习。
我记得小朋友曾经分享过一段关于学习的经验。她说,在做题的时候,建议不要一开始就使用求助,求助作业帮、求助人工智能衍生的各种软件、求助同学,而是得自己先思考,直到你想不出答案时,再去求助。但有意思的是,往往在想的过程,自己就找到答案了。只有这样,思考的过程才能够很好地消化吸收,你才能形成自己的判断和思考。
比较有趣的是,成人的世界对人工智能的使用似乎是反的。我们现在越来越习惯,先利用人工智能生成一段粗略的能表达自己想法的文字,再在此基础上进行改进,然后发表。这显然提高了我们的工作效率,但无形中也让我们成为了人工智能的奴隶。
我曾说过,人工智能的现状像脑补的人工智能。大意是,95%的内容、逻辑走向是由人工智能控制的,人类只负责最后的5%点睛之笔,然后说,全部内容是自己写的。显然,这与先自己思考再找人工智能帮助,在策略上是完全不同的。前者才有可能帮助我们形成独特的视角,而这才是创新的基础。
后者虽然好,但它在目前大的框架下来看,是有明显的同质化特点的,不管哪个模型都是如此。原因很简单,一是高质量数据的混用。以前我们会蒸馏国外公司大模型的数据,现在可能是相互在借鉴。二是提示词的使用。首先、其次、第三、总而言之是比较常见的提示词设计框架,随着思维链结构的进一步深化,我们已经能看到更为复杂、也更为啰嗦的思维链表示形式。但不管是哪种情况,它的框架是聪明的人类根据大模型的特点,考虑了与人类思维的一致性进行了大量简化获得的。三是强化学习,这是个好东西。因为它突破了独立同分布的假设,让人工智能能应付与之前数据分布不同的表达。自AlphaGO战胜围棋世界冠军以来,已经越来越能看出他的强悍。
如果说新的一年,大家看到了新的突破口,那必然是小算力也能跑大模型。但从大的发展方向看,我们目前走的路仍然是同一条,即从认知层面形成超越人类的AGI。而具身智能这块,相对来说,要困难一些,因为它与感知、决策,这些难问题更相关。据说,扭秧歌的机器人,也有人偶尔帮忙扶一下。
为啥感知会更难呢?这还是得回到人工智能的“莫拉维克悖论”上。即人类觉得复杂的,机器觉得简单;机器觉得复杂的,人类觉得简单。
现在大模型的发展,实际上在更为宽泛的智能定义上给了我们一个提醒,人类所谓的智能,究竟是不是复杂的。也许,我们需要重新定义真正的智能是什么?另外,自然界进化出的本能,究竟是不是简单的。为什么我们学会了飞行,却至今没有仿制到一只真正的鸟?
好了,今天就写这么多,我得去拜年了,也祝各位新年愉快,万事如意,阖家幸福!
张军平
2025年1月29日
1/1 | 闁诡剚妲掗锟�:4 | 濡絾鐗犻妴锟� | 濞戞挸锕g粩瀛樸亜閿燂拷 | 濞戞挸顑勭粩瀛樸亜閿燂拷 | 闁哄牜鍋婇妴锟� | 閻犲搫鐤囧ù锟� |
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-2-17 08:27
Powered by ScienceNet.cn
Copyright © 2007-2025 中国科学报社