heitiedan2012的个人博客分享 http://blog.sciencenet.cn/u/heitiedan2012

博文

人工智能对于人类有威胁吗?

已有 2213 次阅读 2017-2-17 08:18 |系统分类:观点评述

上海交通大学李侠教授,针对机器人Master战胜了好几个围棋高手的现象,提出了有关人工智能是不是能战胜人类智能的问题。

当然,囿于一份报纸所能提供的篇幅,李侠教授可能也没有机会展开他的完全论述。不过,他提出的观点,我以为是可以商榷的。

他提出的一个重要观点是关于这次Master战胜了围棋棋手,人类输掉了什么?李侠教授认为,人类输掉了尊严。如果客观地看,人类输掉了东西并不少,尊严倒是最不重要的。当然,有人站在维护人类尊严的角度上来看待人工智能与人类智能的关系,而这一点恰恰是最没有必要去关注的。所谓尊严,在这里的人机关系上,不过是面子问题。而所谓面子,最是无关紧要的事。

在下棋方面,人输给了机器,人就没有尊严了吗?正如两个棋手下棋,一输一赢,难道只是赢者有尊严,而输者就没有尊严了吗?这个逻辑成立吗?似乎让人有些怀疑。胜败乃兵家常事。输赢乃棋手之常事,与有没有尊严似乎没什么关系。

另外一个虽然不是李侠教授提出来的,但却是人们最为关注的观点。那就是,人们最担忧的还是将来人工智能是不是能战胜人类智能,甚至进一步来奴役人类的问题。这类担忧早在八十年代,人们开始考察人工智能的问题的时候,就已经存在了。当时的估计更是悲观,认为无须几年,机器就可能成为世界的主宰,进而统治人类、奴役人类。当时有不少这类的科幻小说,都在谈论这个问题。当然,三十多年过去了,人们发现,人工智能的进展远没有当初想象得那么可怕。

当然,这种情况可能就导致了李侠教授所说的,那种人类倾向于把未来的风险打折扣的现象,即人们对未来的风险总是倾向于估计过低。不过,在实际上,其实过低的估计未来风险和较高地估计未来风险这两种情况都是存在的。20年前,当第一只克隆羊多利诞生的时候,在中国国内的科学界和伦理学界,也有过类似的争论。其中一种观点就认为,这件事的出现是一件很可怕的事。认为人类将面临一场大乱,甚至灾难。现在20年过去了,克隆技术到底达到什么程度,鲜有报道。我们不知道它到底是已经达到了一种所谓极其可怕的程度呢,还是远远没有达到那种令人可怕的程度呢?

或许,这些技术成果的出现,真的有可能达到那种让某些人感到非常恐惧的程度。可是光是担心、光是恐惧能有用吗?于是他们认为,应该讨论如何对其的发展进行限制的措施问题。限制,限制有用吗?限制什么?怎样限制?谁也不知道。在谁也不知道,什么也不知道的情况下,讨论这种问题的具体意义何在?至多是有一些哲学含义上的思考,而在技术上的可行性方面则什么意义都没有。

在自动化控制方面,人们总是在控制系统中加上某些阈限机制,使自动控制系统本身不要造成生产事故或者人身安全事故。那么在对人工智能的使用上,或者开发上,应该完全有可能加上这类阈限机制。所以人工智能会不会对人类造成伤害,这本身应该不成为一个问题。

至于人工智能会不会具有意识,会不会成为一个新的物种这样的问题。李侠教授也说,现在人类对于意识本身的机制都没有搞清楚。至少在对人工智能的开发上,给人工智能赋予人类的意识,至少目前的人类做不到。所以让人工智能自身具有类似于人类的意识,至少在人类揭开意识机制的秘密之前,是没有什么可能性的。

或许。人工智能自己能够赋予自己以机制类似于人类意识的另外一种“意识”。但这种意识是什么?没人知道。它能达到一个什么样的高度,同样没人知道。在什么都不知道的情况下,我们却一定要体现出我们的某种担忧,这事靠谱吗?我们实在也不知道我们到底应该担忧什么?正如我们会预料某个小行星正在向我们地球撞来。或许这个撞击会导致人类的灭绝。可是我们既不知道这个小行星的存在,也不知道它的运动轨迹和速度,我们怎么担忧?我们怎么避免?我们难道就要天天仰望着夜空,盼望着它的来临?或者恐惧着它的来临?那我们能做什么?好像至少在目前的情况下,我们什么也做不了。

其实,我们只能在得到某些蛛丝马迹的情况下,才能对某些事情或者某些灾难做出某种程度的预测。如果我们手边什么信息也没有,什么数据也没有,那我们几乎就是什么也不能做。这就是现实,也可以说是我们人类的局限性。人类毕竟不是上帝。好像就是上帝,在很多方面也是有局限性的。对于史前的大洪水,上帝除了用诺亚方舟拯救少数物种的个体之外,也做不了什么更多的事了。

所以,对于人工智能,我们还是尽可能开发它的功能和用途,让它为人类的幸福提供更多的方便和服务。这是我们现在的正经工作。至少它会带来什么危害,那至少在我们已经看到它确实造成了某种危害之后,我们才有可能着手处理这样的问题。毕竟,任何一种危害,不太可能是以一种突如其来的大规模的灭顶之灾出现的。它总是先露出某些萌芽和迹象,引起我们的警觉,我们就会意识到它的危险,然后再来采取应对措施。如果人工智能真是以突如其来的规模给我们带来灭顶之灾,那么我们做什么也来不及了。




https://blog.sciencenet.cn/blog-678176-1034137.html

上一篇:想移民的年轻人
下一篇:拜财神爷
收藏 IP: 114.241.10.*| 热度|

0

该博文允许实名用户评论 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-26 08:42

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部