||
试着用了几天ChatGPT,以及与它类似的Perplexity。发现那些玩意儿的确功能强大。你问它马上就会有答案出来,而且基本没有错误。可是发现它的回答除了一些胡说八道之外,就是正确的废话。让你感到被欺骗了似得。那回答,四平八稳,正反两面都答得滴水不漏。什么毛病都挑不出来。一看就能发现它不是“人类”。据此,我觉得这并不会对有专业知识的人构成太大威胁。可是我却发现作为一种研究辅助手段还是有用的。尤其是它能帮助你检索出它的答案是根据什么文献而来的。这要比传统的搜索引擎要好很多。如果没什么大问题,网页都是可以打开的。你能能看看哪些文献你漏掉了,也许能从它给出的那些文献中获得自己的灵感以及启发。毕竟是升级版的搜索引擎,还是只能做回归分析。但无法给出所谓的ampliative inference,只能在旧的知识中发掘,但却无法给出新的东西来。所以它不属于那种“发现的推理”,那只能说在过去的知识中找出答案。我管这些回答叫做“正确的废话”。
人工智能确实强大,但只要计算机参与其中,我就对其持怀疑态度。计算机只能做加法,可是人类不止会做加法。我不相信人工智能会有智慧。我还是把intelligence和wisdom视为不同的东西。所以我说,机器有智能,人类有智慧,这才是最大的区别。当年我见到AlphaGo输给李世乭一盘棋后,我就认为结局就是这样了。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-23 11:49
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社