程京德(Jingde Cheng)的博 ...分享 http://blog.sciencenet.cn/u/JingdeCheng 相关逻辑,软件工程,知识工程,信息安全性工程;自强不息,厚德载物。

博文

威胁人类文明生存的不可能是AI而只能是人类自己 精选

已有 6872 次阅读 2023-5-19 07:50 |个人分类:人工智能|系统分类:观点评述

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!

 

威胁人类文明生存的不可能是AI而只能是人类自己 

程京德

 

5月18日,微信公众号“Web3空中之城”发布了报道“《未来简史》作者赫尔利讲演:AI不需要意识就可以毁灭人类文明”[1],本文根据“Web3空中之城”的这篇报道,对赫尔利的部分观点做一些评论。

赫尔利的主要观点是:“令人糟心的是,人工智能并不需要有意识,也不需要有在物理世界中移动的能力,就能威胁到人类文明的生存。”其主要理由为:“最重要的是,新型人工智能工具正逐渐获得与人类建立深入、亲密关系的能力。” “通过掌握语言,AI还能与人建立深入而亲密的关系,利用亲密的力量影响我们的观点和世界观。” “目前还没有迹象表明AI具有意识或自己的感觉,但要与人类建立虚假的亲密关系,AI并不需要自己的感觉,它只需要能激发我们的感觉,让我们依赖它。”[1]

不得不说,与那些声称人工智能对人类文明形成威胁的“胡说八道”相比,赫尔利的确提出了一个非常新颖并且貌似(部分)合理的观点。但是,赫尔利的观点中显然有一个逻辑/哲学空隙:既然人工智能没有意识和移动能力,那么它怎么“就能威胁到人类文明的生存”了?“威胁”(动词)的行为主体是谁?笔者认为,赫尔利的观点应该被修改为,“人工智能并不需要有意识,也不需要有在物理世界中移动的能力,只需要通过其对人类社会的影响就能造成威胁人类文明的效果。” 似乎更合理。这里,“威胁”的行为主体不可能是人工智能而只能是人类自己!

笔者本人也是在最近考查“人工智能究竟能否超越人类智能”这个问题时,才发现无视/忽视行为主体实际上是人工智能领域很长时间以来的一个误区。讨论“计算机系统/人工智能系统”的功能及效果,如果不在与人类做比较的语境下,那么不去刻意认识并且区分计算/智能行为的行为主体,问题并不很大。因为仅从应用及效果来看,到底谁是行为主体并不重要。计算机被发明以来,人类社会绝大多数计算机应用都是如此。但是,当我们要把“计算机系统/人工智能系统”与人类做比较时,如果不清晰地认识并且区分计算/智能行为的行为主体,从逻辑上或者哲学上说,应该是很有问题的。关于计算/智能行为的行为主体以及设定评价标准的行为主体,笔者在文章“人工智能永无可能超越人类智能”[2]已经予以讨论,这里不再赘述。

赫尔利预测道,“在几年内,AI可能会消化掉整个人类文化,消化掉我们几千年来创造的一切,然后开始大量产出新的文化创作,新的文化物品。”“几千年来,先知、诗人和政治家都利用语言和讲故事来操纵和控制人们,改变社会。现在,AI很可能也能做到这一点,一旦能做到这一点,它就不需要派出杀手机器人来射杀我们,如果真的需要,它可以让人类自己扣动扳机。”[1]

笔者认为,赫尔利的预测尽管有些耸人听闻(哗众取宠?),但是也的确有合理的成分。早在ChatGPT开始风靡全世界的今年年初,笔者就曾经发表文章[3]警告过,以ChatGPT为代表的AIGC工具的滥用,一定会造成衍生数据泛滥,对人类社会认知逻辑准则造成冲击,如果不对AIGC工具的使用实施限制并且规范相应法律法规,任其自由泛滥,必将破坏人类社会长期形成的认知逻辑准则,最终结果可能是导致人类的智能退化。伴随着AIGC工具的生成物之数量指数型地增长,衍生数据中真实数据的成分比例越来越低,必将造成人们对从轻易获取的数据进行分析和推理获取有用信息的困难增大,如果自己不主动提高自身的逻辑思维能力和独立自主判断力,势必被误导被诱惑。

“所以总结一下,我们基本上在地球上遇到了一种异种智能。我们对这种异种智能了解甚少,只知道它有可能摧毁我们的文明。因此,我们应该立即停止将这种不负责任的异种智能部署到我们的社会中,并在AI规范我们之前对其进行管理。我们可以提出许多管理措施,但我首先建议的是强制AI披露自己是AI。如果我正在与某人交谈,而无法判断对方是人类还是AI,那么民主的意义就荡然无存,因为这意味着有意义的公共对话的结束。”[1]

笔者认为,且不论赫尔利之所谓“异种智能”,他建议的措施,“强制AI披露自己是AI”,是一个非常正确的方向。如果人类社会合法合理地实施标识每个AI工具(可以包括其所有者使用者)及其生产物的制度,那么就将使得谁是行为主体谁应该为内容正确性负责清晰起来。这显然是可以增强人类社会认知逻辑准则的。

本文结论:作为一种技术工具或者工具性技术,人工智能自身永无可能作为行为主体威胁到人类,但是,人类自身如果不能处理好与人工智能的关系,那么威胁人类文明生存的不是人工智能而将是人类自己。

让我们相信人类应该永远不会让自己走向毁灭吧。笔者认为,在AIGC时代,要想让赫尔利担心的事态不发生,唯有通过教育提高全人类的平均认知水平,让人类真知及人类智能去战胜来自“异种智能”的诱惑以及恶意利用“异种智能”的人类中的败类。

(2023年5月18日记)

 

参考文献

[1] 城主,“《未来简史》作者赫尔利讲演:AI不需要意识就可以毁灭人类文明”, 微信公众号“Web3空中之城”,2023年5月18日。

[2] 程京德,“人工智能永无可能超越人类智能”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年5月1日。

[3] 程京德,“以 ChatGPT 为代表的无偿式概率式自动生成工具之滥用将给人类社会带来什么后果?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年2月6日。

 


微信公众号“数理逻辑与哲学逻辑”




https://blog.sciencenet.cn/blog-2371919-1388570.html

上一篇:相关逻辑的创始者 – 阿克曼
下一篇:“PM及相关系统的形式不可判定命题”(1)- 哥德尔不完全性定理的历史背景与内容
收藏 IP: 121.35.78.*| 热度|

6 曾杰 史仍飞 谢钢 崔锦华 农绍庄 0

该博文允许注册用户评论 请点击登录 评论 (12 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-23 21:29

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部