||
下一代人工智能发展的几点思考
人工智能不仅是当前的一个科技前沿,也是一个科普热点,基本做到了家喻户晓。从2016年的击败世界冠军的围棋软件AlphaGO,到人形机器人,再到最近的ChatGPT,热点不断,热度也不断,社会关注度居高不下。
与此同时,大量的资金也快速涌向人工智能科技,推动了人工智能科技的快速发展。不管是深度学习,还是大模型,都要购买大量的芯片,收集大量的数据,进行大量的人工标注,这要耗费大量的人力物力,还会造成较大的能耗。
据统计,每2-3年,人类社会的数据量就要翻倍;每5-6年,AI系统消耗的电能也要翻倍,这是难以可持续发展的。可是,AI的研发人员和投资人员不这么看,只要系统性能提升一点,投入再多人力物力似乎都在所不惜。
尤其,人工智能有很强的渗透性,可以和很多学科结合,似乎没有人工智能不能解决的问题。感觉良好的AI研究人员声称,只要给我足够多的数据,足够多的芯片,足够多的投入,问题都不是问题。但是,果真如此吗? 在人工智能科技狂飙突进的时代,我们尤其需要冷思考,以看清未来发展的方向。
目前AI研发也不是晴空万里,而是有很多朵乌云。比如,围棋软件只能下围棋;人形机器人功能还比较单一;自动驾驶汽车有时失控,又难以找到原因;图像识别系统容易被对抗样本攻克,安全性有漏洞;ChatGPT未经过许可使用了大量的数据,将面临大量的侵权诉讼;AI系统投入太大,能耗太高…。类似的问题还有很多,也不得不让我们思考下一代人工智能路在何方呢?
首先,要考虑人工智能不同学科方向的平衡。西方学者提出的深度学习、大模型等技术,虽然可以很好处理高维大数据,取得了很多很好的成效。但是,这种技术方法不能等价于人工智能的一切,也存在高投入和高能耗等突出问题,还有可解释性差等问题。我们应该相信还有其他解决方法,更好的AI算法。这需要我们增强创新自信,不断地去探索发现新的学科方向,不能孤注一掷,一拥而上搞同质化研发。
其次,要综合考虑精度、投入和可解释性的平衡。一般来说,人工智能系统似乎精度越高越好。只要精度能提高一点,模型复杂几倍,投入增加几倍也在所不惜。其实,精度太高容易产生过拟合现象, 导致投入过大,模型太复杂,可解释性也会随之下降,也许得不偿失。这就需要我们综合考虑,达到精度、可解释性和系统投入的平衡点。
第三,要综合考虑知识驱动和数据驱动的平衡。人工智能技术不仅要帮助人类做事,还应丰富人类知识和认知,能从大数据中要获取经验、知识、甚至智慧,不能只得到一个“知其然不知其所以然” 的黑箱(Black Box )。黑箱虽然可用,但风险难测,鲁棒性较弱。利用黑箱模型的自动驾驶汽车有时会突然失控出事故,而且难以找到其背后的原因,难以确保事故下次不再发生。因此,在安全相关领域要采用可解释性强的人工智能技术,至少是知识驱动和数据驱动的融合,或者是人机混合智能技术。
最后,要综合考虑热门和冷门的平衡。人工智能研究热点经常转换,从早期的专家系统,到后来的符号推理,再到模糊系统、神经网络、决策树、支持向量机等,曾经也有一个百花齐放的时代。现在,神经网络技术似乎要一统江湖了,这是不正常的。图灵奖得主Hinton教授等专家做了约30年的冷板凳,才把神经网络从一个冷门学科方向变成今天的人工智能显学,其专注精神确实值得我们学习。因此,把冷门技术搞成热门才能产生科技大师,跟随科技热点进行改进或应用只能成为普通专家。
因此,人工智能的研究需要考虑以上的四个平衡,以研究出精度高、可解释性强、鲁棒性好、低投入和低能耗的下一代人工智能算法。 有了自主研发的高性能人工智能算法,才能把人工智能技术发展的自主权牢牢把握在自己手中,也是人工智能科技自主自强的关键,也许还可以引领世界人工智能发展的新方向。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-22 09:25
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社