||
自从AlphaGo赢了围棋,就开始有人杞人忧天,“不得了,计算机要统治人类啦!”
不就下个棋么。其实在控制领域计算机控制超过人手动控制的事多了去了,早已司空见惯,比如汽车巡航控制就比司机踩油门精确得多。感觉最近对人工智能的评价说不到点子上,有人开始吹泡泡了。
其实人工智能非常初级,在手写体识别上就常犯错误。最近我给朋友发微信说“你好!”发出去后发现是“你妈!”;又一次要发“好的”,仔细一看又成了“妈的!”。这就是华为手机干的好事!是人工智能还是人工愚蠢?
为什么AlphaGo这么轰动?第一是来之不易,人工智能60多年基本没做出什么成功的应用;第二是输棋的人很有名;这个第三么,就是有人想把自己的股票炒上去。
AlphaGo很快会凉下来的。以后是人与人下围棋,机器跟机器下围棋。
就算有人能造出机器人士兵,能打过真人士兵,机器人士兵也统治不了人类。因为会有人造出更强的机器人士兵把它打败。由此可以推出:
定理1. 如果人工智能系统是人造的,计算机不可能统治人类。
所以不管人工智能发展到多高水平,只要是人造的,它永远统治不了人类。放宽心吧。
那么什么情况下,人工智能可能统治人类?为此我们需要提出一个新概念。
定义1. 超级人工智能– Super AI. 超级人工智能系统是 能够制造人工智能系统的 人工智能系统。
推理1. 只有当超级人工智能系统制造的 人工智能系统的功能 高于人造的人工智能体统,计算机才有可能统治人类。
据我所知,目前还不存在超级人工智能系统,更不用说造出更强的人工智能。所以计算机统治人类的可能性很遥远,很遥远。
阿弥陀佛。
注:一般的AI和超级AI最终都是人造的。区别是:AI是直接人造;超级AI是间接人造。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-20 09:42
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社