李博闻的个人博客分享 http://blog.sciencenet.cn/u/vhere

博文

ChatGPT知识信念、能力边界和哲学预言(1)

已有 1169 次阅读 2023-7-12 14:58 |系统分类:科研笔记

任何颠覆性创新,都绝非天降之物,ChatGPT也不例外。

就像先有“番茄可食”的知识信念,随后有“番茄有关”知识,最后有风靡的“番茄酱”。在人类观念的和经验的世界里,知识信念一般由哲学家提供;知识是确证后的信念,创新知识是科学家的主要工作;工程师则成就那些对社会生活具有颠覆性影响的新事物。

知其然,更要知其所以然。这个系列将以ChatGPT为例,综合使用1.方法过程结构分析理论和2.情报分析哲学方法,首先,从知识论的角度,在西方哲学的语境中,解析ChatGPT的知识信念,其次,澄清ChatGPT的能力界限,最后,做判断给预言。


1.确定待解析的知识信念

方法结构分析理论,定义了混合研究中不同“方法”之间的八种协作关系,其中,“A/B关系式”为蕴含关系,也称从属关系,表示后件B扮演前件A的附随或配件,配件B旨在改善主件A的性能。

例如在“爬虫技术/滚雪球技术”方法结构中,“滚雪球技术”极大提升“爬虫技术”搜集到的样本量,同样,研究者可以用“二八定律”置换“滚雪球技术”合理地减少样本量,使得研究具有可操作性。方法结构中,配件不可独立于主件存在,并且可以被其他配件替换,因此,方法结构分析“抽象式”仅保留那些不可化约的基本技术,如图1:ChatGPT方法结构示意图(抽象式)。



1689144701175.png

使用ChatGPT的直观经验是:输入日常语言,随后,生成有意义的日常语言。

推理①,有意义指输出结果并非变化的、偶然的、混乱的内容,而是有“逻辑”的,包含两层含义:内容层面,ChatGPT生成了人类独有“理性”才能达到的、谈论的、超越经验世界、能够触及本质的内容;形式层面,内容符合人类日常语言使用习惯。

推理②,若ChatGPT具备在“逻辑”基础上对“日常语言”进行分析推理能力,那么,需要满足两项前提,其一,日常语言在内容层面形式层面都有“逻辑”,其二,基于“逻辑”的分析推理具有真理性。日常语言在内容层面有“逻辑”、逻辑的真理性问题,这两者形成待解释知识信念Ⅰ和Ⅱ。

推理③,ChatGPT将日常语言转换了词向量表达形式,使得日常语言获得形式层面的“逻辑”,可以进行形式计算(分析推理)。这引出待解释问题Ⅲ和Ⅳ。首先,“单词”为何能够转化为一种基于统计逻辑的情境化表示形式(词向量)、“数理逻辑分析”取代“逻辑分析”,它们的知识信念是什么?

推理④,常识经验可知切分词会导致意义变化,例如英语短语动词(例:look after)、中文名词(例:杜鹃),那么,ChatGPT将“日常语言”切分为“单词”,依据是什么?引出待解释知识信念Ⅴ。

推理⑤,ChatGPT使用“日常语言”作训练数据,常识经验可知“日常语言”质量堪忧,那么,“日常语言”可直接作为经验材料的知识信念哪里来?“日常语言”中知识真理性如何保证?这构成待解知识信念Ⅵ和Ⅶ。




(目前正在撰写,这是我毕业论文的第二个实证)




https://blog.sciencenet.cn/blog-3475429-1395087.html

上一篇:领会“存在”-----张桂梅先生经历有感
下一篇:ChatGPT知识信念、能力边界和哲学预言(2)
收藏 IP: 218.2.157.*| 热度|

2 王启云 冯兆东

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-23 20:58

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部