||
人工智能需要“懂规矩”
武夷山
2018年9月11日,加拿大多伦多大学法学和战略管理教授Gillian Hadfield在TechCrunch网站发表文章,Safe artificial intelligence requires cultural intelligence(安全的人工智能需要文化智能)。文章说:
按照英国记者Miles Kington的说法,所谓知识,就是知道西红柿属于水果;所谓智慧,就是知道在制作水果色拉时千万不要把西红柿放进去。
任何人工智能(AI)显然都需要掌握许多知识,但我们若想在全社会普遍应用AI,则必须要求机器既聪明,又有智慧。
建造能完成任何一种认知任务的智能机器,就意味着AI不仅能学会关于西红柿的生物学知识,还了解有关拿西红柿做什么的多变的规范体系。
人类生活遵循着各种规范,从如何吃,如何穿,如何说话,到如何分享信息,如何相互对待,如何追求目标。
AI要想真正地强大,智能机器就得理解:不同群体的规范有非常大的差异,差异大到似乎不存在什么规范了,但是,在一个具体社区中不遵守规范是万万不行的。
对于英国人,水果色拉里放西红柿很荒唐,但对于韩国人或是烹饪先锋派却无不可。同样,上菜的方式似乎无关紧要,但对于特定的客人,上菜方式错了也许会引起这位客人的困惑、厌恶甚至愤怒。
规范不仅涉及食物怎么搭配,还涉及社区觉得非常重要的其他事项:谁能娶谁,该怎么对待孩子,谁该拥有权力,企业如何提供产品和服务,如何定价,什么时候(及如何)可以当众批评人,等等。
成功的、安全的AI不仅需要理解物质系统的行为,还需要理解人类规范体系的行为。规范并非环境的固定特征,而是动态的、响应性的结构,我们每天都在生产和再生产这种结构,比如,当我们决定是否告诉某人以及何时告诉某人“我们做事的方式就是这个样子的”时候。
我们依赖这些规范体系来应对挑战,以确保我们的社区、单位和社会环境中的人们的行为方式符合我们的要求。只有对身边人的行为方式心中有数,我们才愿意相互信任、相互投资、友好相处。
那么,确保AI的行为方式符合我们的期望,这一点也并非过分的要求。正如我们培养自己的孩子成为我们的规范体系中的胜任参与者一样,我们也需要将智能机器训练得同等胜任。只是充分把握自然界中的事实是不够的,胜任力强的AI还需要有足够的智慧,知道在这个群体(而不是那个群体)里就有这样的规矩。如果无视这个规矩,不仅会使这个群体不高兴,而且他们也许因此而恐惧以至抵制AI。
归根结底,生命3.0的成功取决于能否理解生命1.0。这就是AI研究面临的最大挑战。
博主:
关于生命3.0的概念,可参见汪婕舒的译著《生命3.0》(浙江教育出版社,2018年6月出版)。
2016年,Gillian Hadfield教授在牛津大学出版了专著,Rules for a Flat World: Why Humans Invented Law and How to Reinvent It for a Complex Global Economy(扁平世界的规则:人类为什么发明了法律,如何再造法律以应对复杂的全球经济)。可见,这位法学教授很重视规则、规矩、规范,所以他才提出,智能机器要想获得大规模应用,就得提高其“文化智商”,使其“懂规矩”。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 06:55
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社