||
[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!
以ChatGPT为代表的无偿式概率式自动生成工具之滥用将给人类社会带来什么后果?
程京德
本文要点:笔者把像ChatGPT一样,利用从互联网上无偿地获取的数据及信息,通过概率方式人工智能技术快速地自动生成文本、图像、声音等数据及信息载体以满足客户需要的应用程序,统称为“无偿式概率式自动生成工具”。笔者认为,如果不对这类工具的使用实施限制并且规范相应法律法规,任其自由泛滥,必将破坏人类社会长期形成的认知逻辑准则,最终结果可能是导致人类的智能退化。
(如果您对本文上述主要观点厌恶,那么就请您不必继续看下文了。)
最近两个月来,人工智能领域最出风头的产品/应用/话题无疑是OpenAI面向全世界推出的“ChatGPT”,一款利用从互联网上无偿地获取的数据及信息,通过概率方式人工智能技术快速地自动生成文本,以回答提问者问题的“聊天机器人”。据报道,ChatGPT的注册用户已经超过一亿,在这么短的时间内能够获得如此众多的用户,其能力和效果应该是毋庸置疑的。
笔者把像ChatGPT一样,利用从互联网上无偿地获取数据及信息,通过概率方式人工智能技术快速地自动生成文本、图像、声音等数据及信息载体以满足客户需要的应用程序,统称为“无偿式概率式自动生成工具”(“无偿”指称其获取资源方式,“概率”指称其工作理论基础,并非所有的AIGC工具都具有这两个特征)。
首先申明,笔者完全无意反对AIGC工具的研发,甚至还期待着某天有某款AIGC工具被发明出来可以用于自动发现逻辑或数学的新定理(笔者本人工作在基于强相关逻辑演算的自动定理发现领域)。但是,笔者在这里关心的关键问题是,类似于ChatGPT这样的无偿式概率式自动生成工具,无论它们自动生成的是什么,如果任其自由发展和使用,将会给人类社会带来什么后果?
让我们先来引入一个概念。我们把从人类社会文化中历史上、现今以及今后产生的一切原生数据及知识通过数字化方法(包括各种标注方法)输入到互联网上的数据统称为“原始数据”;把以原始数据为资源使用无偿式概率式自动生成工具自动生成的数据称为“第一代衍生数据”;把以第n代衍生数据为资源使用无偿式概率式自动生成工具自动生成的数据称为“第n+1代衍生数据”。
毋庸置疑,尽管今后原始数据还会不断地增加,但是伴随着计算机硬件技术的发展,超大规模数据的存储和加工,超大规模的算力,超大模型的研发,无偿式概率式自动生成工具的超大规模使用,迟早有一个时间点(或许眼下的现在已经过了此时间点也未可知,笔者未做调查),互联网上的衍生数据量将超越原始数据量,并且在超越之后两者间的数量差距更会急速增大,直到原始数据量和衍生数据量相比显得微乎其微。笔者的问题是:在彼时,人类社会的认知逻辑准则何在?
笔者认为,人类社会长期形成的认知逻辑准则之一是:“凡物必有其所值”。一般而论,“优秀上乘”将永远保持其质量,如果某人某物被世人评价为“优秀上乘”,那么这个评价(价值)一般会持续下去,并且这个评价(价值)是针对该人或者产出该物的人的特定个人素质及能力的。至少在目前的人类社会,特定个人素质及能力的培养或获得,是需要付出相应代价,并非任何人都可以轻易具备的。这部分代价,也计入在“凡物必有其所值”中。这一认知逻辑准则是人类社会文化中对文学、绘画、音乐等艺术作品,对科学发现、技术发明、学术著作等科技作品,实施著作权或知识产权保护的逻辑基础。尽管对艺术作品或科技作品的模仿、抄袭、剽窃、伪造等行为也与人类社会道德准则有关,但是其根本还是上述认知逻辑准则。
可以试想这样的场景:当看到一幅画作涂了个“乱七八糟”时,不知者可能觉得毫无价值没什么了不起,但是,当获知该画作是抽象派大师毕加索的作品时,认知就应该完全两样了。类似的场景也可能发生在对贝多芬的不太周知的音乐作品的欣赏评价之时。这就是人类社会长期形成的认知逻辑准则在起作用。(蛇足一句,当今中国科技界通常所说的“人才帽子”作用,其背景也应该是认知逻辑准则。)
举个实例。众所周知,对照片的PS技术已经颠覆了人类社会对照片的认知逻辑准则。在没有PS技术的年代,看到一张照片,常人首先想到的是从美学观点或历史观点如何欣赏,摄影工作者/爱好者则可能会从摄影技术角度去欣赏和评价。如今呢,大概几乎所有知道PS技术的人看到一张照片后都首先会想到它是否是P出来的,如何P出来的。如何准确地判定一幅照片的真实程度以确定其是否可以被采用为法律证据,甚至已经成为公检法三方的(由PS技术生出的)难题。但是,现在,对于使用无偿式概率式自动生成工具自动生成的照片,已经无法想象其“原本的照片”了。
对于ChatGPT的横空出世及超速普及,现在世界上许多行业对于ChatGPT的无节制使用所能造成的在本行业内的后果之担心甚至恐惧,应该还仅仅是初步的表面的。
笔者认为,从人类社会将来发展进步(退步也未可知)的角度来思考,我们至少应该考虑下面这些问题:
(1)蒸汽机为人类带来动力,汽车/飞机为人类带来运输,计算机为人类带来计算,ChatGPT等工具们为人类带来的是什么?有人说是“创造”,真的是“创造”吗?
(2)进入计算机/互联网时代之前,人类经历了数千年的进化与发展,积累了相当数量的数据及知识。这些被数字化为“原始数据”的人类原生数据及知识,是ChatGPT等工具们赖以成功的根本。ChatGPT等工具们的无节制使用,是会增加人类原生数据及知识的积累速度,还是会减少人类原生数据及知识的积累速度?
(3)在互联网上的衍生数据量远超原始数据量之时,ChatGPT等工具们所生成的可能是若干代衍生数据。面对这样的数据成分构成,人类社会长期形成的认知逻辑准则是否还能继续维持而不被扬弃,还能起作用?还是人类社会将会形成新的认知逻辑准则?
笔者认为,如果不对无偿式概率式自动生成工具的使用实施限制并且规范相应法律法规,任其自由泛滥,必将破坏人类社会长期形成的认知逻辑准则,最终结果可能是导致人类的智能退化。
微信公众号“数理逻辑与哲学逻辑”
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 18:58
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社