Mystic Horse: An Elegant Being分享 http://blog.sciencenet.cn/u/gl6866 中国社会科学院哲学研究所研究员

博文

正确的废话

已有 2297 次阅读 2023-3-11 22:47 |个人分类:人工智能|系统分类:观点评述

试着用了几天ChatGPT,以及与它类似的Perplexity。发现那些玩意儿的确功能强大。你问它马上就会有答案出来,而且基本没有错误。可是发现它的回答除了一些胡说八道之外,就是正确的废话。让你感到被欺骗了似得。那回答,四平八稳,正反两面都答得滴水不漏。什么毛病都挑不出来。一看就能发现它不是“人类”。据此,我觉得这并不会对有专业知识的人构成太大威胁。可是我却发现作为一种研究辅助手段还是有用的。尤其是它能帮助你检索出它的答案是根据什么文献而来的。这要比传统的搜索引擎要好很多。如果没什么大问题,网页都是可以打开的。你能能看看哪些文献你漏掉了,也许能从它给出的那些文献中获得自己的灵感以及启发。毕竟是升级版的搜索引擎,还是只能做回归分析。但无法给出所谓的ampliative inference,只能在旧的知识中发掘,但却无法给出新的东西来。所以它不属于那种“发现的推理”,那只能说在过去的知识中找出答案。我管这些回答叫做“正确的废话”。

人工智能确实强大,但只要计算机参与其中,我就对其持怀疑态度。计算机只能做加法,可是人类不止会做加法。我不相信人工智能会有智慧。我还是把intelligence和wisdom视为不同的东西。所以我说,机器有智能,人类有智慧,这才是最大的区别。当年我见到AlphaGo输给李世乭一盘棋后,我就认为结局就是这样了。



https://blog.sciencenet.cn/blog-105489-1379973.html

上一篇:绿叶
下一篇:中世纪古城罗腾堡
收藏 IP: 123.123.99.*| 热度|

11 范振英 宁利中 农绍庄 孙颉 杨正瓴 郑永军 尤明庆 郭战胜 汪育才 朱晓刚 许培扬

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-23 11:49

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部