武夷山分享 http://blog.sciencenet.cn/u/Wuyishan 中国科学技术发展战略研究院研究员;南京大学信息管理系博导

博文

人工智能需要“懂规矩”

已有 749 次阅读 2018-10-7 07:18 |个人分类:换一个角度|系统分类:观点评述

 

人工智能需要“懂规矩”

武夷山

 

    2018年9月11日,加拿大多伦多大学法学和战略管理教授Gillian Hadfield在TechCrunch网站发表文章,Safe artificial intelligence requires cultural intelligence(安全的人工智能需要文化智能)。文章说:

 

    按照英国记者Miles Kington的说法,所谓知识,就是知道西红柿属于水果;所谓智慧,就是知道在制作水果色拉时千万不要把西红柿放进去。

    任何人工智能(AI)显然都需要掌握许多知识,但我们若想在全社会普遍应用AI,则必须要求机器既聪明,又有智慧。

    建造能完成任何一种认知任务的智能机器,就意味着AI不仅能学会关于西红柿的生物学知识,还了解有关拿西红柿做什么的多变的规范体系。

    人类生活遵循着各种规范,从如何吃,如何穿,如何说话,到如何分享信息,如何相互对待,如何追求目标。

    AI要想真正地强大,智能机器就得理解:不同群体的规范有非常大的差异,差异大到似乎不存在什么规范了,但是,在一个具体社区中不遵守规范是万万不行的。

     对于英国人,水果色拉里放西红柿很荒唐,但对于韩国人或是烹饪先锋派却无不可。同样,上菜的方式似乎无关紧要,但对于特定的客人,上菜方式错了也许会引起这位客人的困惑、厌恶甚至愤怒。

     规范不仅涉及食物怎么搭配,还涉及社区觉得非常重要的其他事项:谁能娶谁,该怎么对待孩子,谁该拥有权力,企业如何提供产品和服务,如何定价,什么时候(及如何)可以当众批评人,等等。

    成功的、安全的AI不仅需要理解物质系统的行为,还需要理解人类规范体系的行为。规范并非环境的固定特征,而是动态的、响应性的结构,我们每天都在生产和再生产这种结构,比如,当我们决定是否告诉某人以及何时告诉某人“我们做事的方式就是这个样子的”时候。

    我们依赖这些规范体系来应对挑战,以确保我们的社区、单位和社会环境中的人们的行为方式符合我们的要求。只有对身边人的行为方式心中有数,我们才愿意相互信任、相互投资、友好相处。

     那么,确保AI的行为方式符合我们的期望,这一点也并非过分的要求。正如我们培养自己的孩子成为我们的规范体系中的胜任参与者一样,我们也需要将智能机器训练得同等胜任。只是充分把握自然界中的事实是不够的,胜任力强的AI还需要有足够的智慧,知道在这个群体(而不是那个群体)里就有这样的规矩。如果无视这个规矩,不仅会使这个群体不高兴,而且他们也许因此而恐惧以至抵制AI。

    归根结底,生命3.0的成功取决于能否理解生命1.0。这就是AI研究面临的最大挑战。

 

博主:

    关于生命3.0的概念,可参见汪婕舒的译著《生命3.0》(浙江教育出版社,2018年6月出版)。   

    2016年,Gillian Hadfield教授在牛津大学出版了专著,Rules for a Flat World: Why Humans Invented Law and How to Reinvent It for a Complex Global Economy(扁平世界的规则:人类为什么发明了法律,如何再造法律以应对复杂的全球经济)。可见,这位法学教授很重视规则、规矩、规范,所以他才提出,智能机器要想获得大规模应用,就得提高其“文化智商”,使其“懂规矩”。

 

 




http://blog.sciencenet.cn/blog-1557-1139288.html

上一篇:《最后的对话 2》摘抄
下一篇:美国国家科学院出版社出版《人们如何学习II》报告

7 范振英 杨正瓴 罗帆 强涛 李剑超 周可真 章成志

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备14006957 )

GMT+8, 2018-10-17 17:27

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部