||
人工智能(Artificial Intelligence),英文缩写为AI。该领域已成为最近各个学科研究的热点话题,围绕人工智能的课题也层出不穷,各路大神都想和这个词沾点边,在这个热点领域从不同的市场分得一杯羹。
再智能的机器,也只是机器,也还是人工的。因为所有的科学基础都无法摆脱人类对于自然和社会的认知,无法不依赖现有的科学基础和技术发展水平。
当一类人担忧会不会在超人工智能时代到来时,人类是否真的会被机器人代替,甚至被具有超人工智能的机器人奴役,人工智能能否被赋予主体资格,而人类反而可能成为法律客体?在我看来,这简直是杞人忧天。
人类会允许超人工智能的存在吗?不会的。地球文明是人类创造的,人类在地球上存在的时间阶段,是以人类中心主义的价值观来设计文明基础的。对科学的探索(自然规律)和对人类社会(社会规律)的研究,无不以“认识你自己”这个基本的哲学命题为基础。在认识人类自身的同时,也在不断认识和人类有关的客观世界,这就衍生出了自然科学和社会科学。人类为了保持文明进化,不断修正对世界的认知,而为了维持秩序,设计出了各种规则约束自己的行为:道德、伦理、宗教,法律,无不是人类给自己套上的枷锁。目的是为了维系人类的和谐和可持续发展。人工智能无论是算法,程序、数据,还是思维,逻辑,都无不依赖人类对已有知识的应用和积累。而人类无论是对自己还是对世界的认知,总是有限的。正是人类认知的有限性,决定了人工智能只能在现有科学和技术基础上的设计的产品。所以,只要还是“人工的”智能,就永远无法超越现有的认知或当时的认知。
法律不过是当时所处的物质生活条件的反映。绝对不可能制定出超越当时物质生活条件的法律。这既决定了法律的滞后性,也决定了法律要根据物质生活条件的变化及时修订以适应需求的变动性。
现代社会是风险社会。其一的原因就是技术应用带来的风险。风险是不确定的,确定的风险是危险。而对人类社会构成危险的任何行为,都会被法律加以严格的监管和控制。保障人类,动植物微生物和生态环境的安全,已成为人类法律最基本的立法目的,安全价值也是立法的重要价值。如果人工智能未来真的可能超越人类的学习和思维能力,成为可能应用的技术,那么在该技术研发和应用之前,人类一定会评估风险,将危险的可能性降低或者消灭在该技术研发及应用之前。
目前人类对科学的探索仍在继续,对人类社会的研究也在进行中,已经取得的知识虽然有了很大的发展和进步,但离真正的完全的认识了这个世界和认识了自己还有很遥远的距离。人工智能技术的发展还在弱人工智能时代,要实现强人工智能还早得很。所以恐惧未来,甚至恐惧有可能不存在的事物,并以此为限制或控制某项技术发展和研究进行立法,是脱离了人类物质生活条件的超前行为,其正当性和法理基础不存在。
归根结底,人工智能也只是辅助人类的工具,其客体属性在目前法理基础下不可能改变。
后记:5月11日在重庆参加了西南政法大学举办的“人工智能:科学与法学的对话”有感。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-20 06:25
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社