鲁晨光的科学和哲学研究分享 http://blog.sciencenet.cn/u/lcguang 兴趣:色觉, 哲学, 美学, 进化论,广义信息,投资组合

博文

通过实指定义词汇澄清塞尔中文屋悖论

已有 3332 次阅读 2018-3-11 23:57 |个人分类:信息的数学和哲学|系统分类:观点评述| 人工智能, 哲学

塞尔中文屋悖论见附文。 


很多人认为塞尔驳倒了图灵。我以为不然。

假如我么测试中文屋里的人, 提出的问题都能用翻字典查到的词汇来回答,确实有可能, 不懂中文字词含义的人照样能给出正确的英文回答。 但是, 如果我们的问题是这样一些涉及实指定义的问题:


请你告诉我哪那一朵花是红的?

橘黄色和红色更接近还是和蓝色更接近?

请告诉我哪棵树是柳树?

你能不能画一个猫给我看看?

请告诉我今天天上云彩是什么样子?

这位先生是川普吗?

。。。。

如果中文屋里的人能够正确应答这些问题, 他一定要用看图说话的字典,当他熟悉了这些字典, 他就知道了上述中文的语义。


实指定义英文是ostensive definition, 逻辑经验主义者认为, 所有概念的语义最终都可以还原为用实指定义得到的那些词的语义,比如描述各种物性的词的语义。这些词不能通过其他词定义, 必须直接用实物或实物的图像来定义。要理解语言的语义, 必须了了解这些原子词汇或相应原子命题的语义。一个普通命题是若干原子命题的逻辑函数。 在逻辑经验注意看, 物性就是感觉材料,逻辑和经验因此绑在一起。


塞尔之所以说中文屋给出正确答案, 但是里面的人未必理解中文语义。那是因为, 如果提问不涉及这些原子词汇,里面的人是不会理解。 如果大量的提问涉及原子词汇,里面的人通过翻看看图说话字典,就自然会渐渐理解中文的语义。要想和懂中文的同样应答, 他必须熟悉;他要熟悉, 自然就理解了。


我不赞成塞尔的结论, 但是他的塞尔中文屋可以促进我们对自然语言语义的思考。上述分析结果也提示:人工智能要想理解自然语言语义, 必须建立语言和物性世界的关系。从语言到语言是行不通的。


我专门研究过实指定义和“红”“绿”...的语义问题,用逻辑经验主义方法最终得到和逻辑经验主义相反的结论——物性不等于感觉材料。 参看:

http://survivor99.com/lcg/my/007-inverted.html

更多哲学讨论见:http://survivor99.com/lcg/books/color/index.htm




附文: 转自 http://bbs.tianya.cn/post-666-9815-1.shtml


十个著名悖论的最终解答(八)中文房间(The Chinese Room)
  
  引用:
  “中文房间”最早由美国哲学家John Searle于20世纪80年代初提出。这个实验要求你想象一位只说英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸、铅笔和橱柜。写着中文的纸片通过小窗口被送入房间中。根据Searle,房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。
    解读:
    
    Searle创造了“中文房间”思想实验来反驳电脑和其他人工智能能够真正思考的观点。房间里的人不会说中文;他不能够用中文思考。但因为他拥有某些特定的工具,他甚至可以让以中文为母语的人以为他能流利的说中文。根据Searle,电脑就是这样工作的。它们无法真正的理解接收到的信息,但它们可以运行一个程序,处理信息,然后给出一个智能的印象。
  引用完毕。
  “中文房间”问题足够著名,这是塞尔为了反击图灵设计的一个思想实验。
  机器可以有思想吗?这是一个老的不能再老的问题。图灵问:“有思想”是什么意思?我说它有思想,你不承认怎么办?我们怎么判断一台机器是不是有思想?
  于是图灵设计了一个“图灵测试”,图灵认为这是一个可操作的标准——如果机器通过了这个测试,我们就应当承认它有思想。
  图灵测试是这样的:把一个等待测试的计算机和一个思维正常的人分别关在两间屋子里,然后让你提问题,你通过提问,通过分析机器和人对你的问题的回答来想办法区分哪一个是机器,哪一个是人。如果你无法区分,那么,这台机器就通过了测试,就证明这台机器和人一样具有思维,有思想——这是一台会思考的机器。
  
  塞尔用中文房间这个思想试验反击图灵——事实上这确实彻底击溃了图灵。
  中文房间应当这样说才是正确的:一个不懂中文的人(西方人认为中文就像天书一样难以理解,如果他认为你的话难以理解,就会说:你说的简直就是中文!)被关在一间封闭的屋子里,屋里有一个完整的中文对照表——任何一个中文句子都对应一个其他的句子,事实上对应的那个句子是前一个句子的答案。你可以用中文向这个人提问,问题写在一张纸条上传给这个人,这个人只要查找对照表,找到对应的中文句子传出来就行了。那么,这个完全不懂中文的人,确实像一个精通中文的一样回答一切中文问题,但是他丝毫不“知道”任何一句话的意思。
  在此基础上,有人提出了更强烈的反击:把爱因斯坦对任何一个问题的回答汇编成一本书,那么你拿任何一个问题去问爱因斯坦,与翻着本书会得到同样的答案,现在我们能说这本书像爱因斯坦一样会思考吗?
  
  所以转了一大圈,我们还是要回过头来重新审视前面说过的第二个悖论——空地上的奶牛,要重新审视柏拉图的JTB:什么是“知道”?“知道”是什么意思?



https://blog.sciencenet.cn/blog-2056-1103410.html

上一篇:从语义信息论看正则化准则
下一篇:一个新的数学框架用于机器学习——挑战流行的贝叶斯主义推理...
收藏 IP: 99.199.188.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 21:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部