||
ChatGPT:从数据驱动到知识驱动
去年年底的ChatGPT,让OpenAI又火了一把。微软计划投资OpenAI 100亿美元,未来计划将ChatGPT融入其搜索引擎Bing,甚至是 Word、PPT、Excel 等提升其日常软件的智能,还计划接入其云服务Azure OpenAI 。这似乎让Google也感到了一丝冬天的寒意,在1月20日,Google宣布全球裁人1.2万,计划消减部分工程类项目,而加大对AI的押注,也许未来会出现类似ChatGPT的对等软件,比如Sparrow?
ChatGPT使用了结合强化学习的RLHF(Reinforcement Learning from Human Feedback)人机反馈强化机制、Transformer及注意力机制,其本质上还是深度学习(Deep Learning)对海量数据处理的红利。但其中的一个亮点是与RLHF的结合,通过强化学习,融合了人类的反馈,如果能够实现闭环的实时学习,显然可以盘活单纯依赖机器海量存储数据学习的不足。也就是弥补单纯机器(Machine Learning)机械学习的碎片化、非逻辑性、片面性、非关联的错误性等问题。
ChatGPT成功的启示:
1. 深度学习(Deep Learning)的红利,远远未挖尽。
深度神经网络(Deep Neural Network)可以看作是AI研究者的渔具(网),而想获得海量数据挖掘知识(鱼)的应用,只要像筑梦师那样,拿着DL的砖块(block),去创造性地设计与构建DL的大厦(Architecture),就会产生对海量数据新的应用(织网牧鱼)。因此,未来肯定会继续出现新的令人惊艳的类似ChatGPT新软件及新应用。
2. 如何让AI拥有类似人的智能(比如逻辑和推理模式)?也就是如何实现从数据驱动到知识驱动?人机融合的反馈机制是否是一条出路?
大家都知道,深度学习的局限,本质上还是属于数据的驱动。也就是机器自己的学习,仍然在数据层面上的操作与造道场,而缺乏更高层次的bootstrap(你设计了一个学习框架,让机器自己去学习,显然,机器的学习是受限于你设计的学习框架)。尽管目前ChatGPT仍然是数据驱动,虽然其依赖的网上数据,其实主要是人类产生的。但更为重要的,这个框架,由于强化学习(Reinforcement Learning)的加入,RLHF(Reinforcement Learning from Human Feedback)使得这个框架系统是开放的,由于人的实时参与系统互动,从理论上讲,人类使用地越多、越久,通过人类的参与对该系统的互动融合(共融共生),也许未来在自然存在海量数据的基础上,会有更多人类的思维、逻辑、推理模式、观点等实时地融入这个系统,从而让它更符合使用者(人)的期望预期。
那是不是,这样的AI系统已经实质性的开始从单纯的数据驱动,向追求的知识驱动,在进行前进和变化呢?
PS:以上观点,抛砖引玉,欢迎批评与讨论。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-22 14:17
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社