twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

智能的危险与人机功能分配

已有 2118 次阅读 2020-12-27 10:40 |个人分类:2021|系统分类:科研笔记

    古有《孙子兵法》之谋略,近有《战争论》之战术,未来的可能为《人机环境系统融合》之思想。人有道,机有器。智能讲看得见的得失(机“器”过程)、多少(事实大小),智慧讲看不见的有无(人“道”方向)、是非(价值比较)。正可谓:未来的博弈态势中除了天时、地利、人和之外,还应有“机辅”。


一、智能的危险


1、过度依赖AI易造成失去人性中的自信、果敢和勇气等,就像攀岩者对绳索的依赖。有时不借助绳索,会增强人的信心,有时相反,有了绳索可以克服恐惧感,做出没有绳索不敢做的动作。如何在开发、使用AI方面平衡两种情形情形要因人而异,因机而异,因环境而异。南安普顿大学风险管理副教授 Yaniv Hanoch 领导团队的新研究表明,与没有任何影响因素的行为相比,机器人会鼓励人们在模拟赌博场景中承担更大的风险,AI呢?

2、人类群体智能时,常常会产生心理上的从众或其它现象,机器群体智能也许不会,人机融合的群体智能也涉及上面问题,如何实现“三个臭皮匠顶个诸葛亮”的问题,尤其是这三个臭皮匠里还有机器皮匠。

3、人们使用机器智能的动态程度大小会造成某种不确定性,不同的人对同一机器智能的协同辅助感受是不一样的,同时,机器智能进化、变化、演化情况也是不同的,还有,人机融合中人对机器智能的难易感受也是变化的。这些变化常常会导致人机之间失调、失配、失互程度加剧,这与日常使用手机的效果是不同的。

4、人的智慧可以通过直觉绕弯变向跨域超界交叉处理各种简单的复杂,而机器智能却很难通过上面的技巧方法非逻辑手段非奇异性工具解决各样复杂的简单,原因是机器智能的基础是数学相等/包含原则,而人类智慧的源泉是复杂等价/类比常识。当然,这并不意味着人的智慧不会有错误、失误存在,但人的智慧里更有反思纠正修补完善功能作用,而且还是自主性的,比如伦理、道德、契约、法律等的形成和演化。所以,尽管智能化可能、可以提高战场感知能力,但“战争迷雾”依然存在,人工智能也将增加军事系统体系的复杂性,在复杂的政治偏好和道德价值观等方面,人工智能将不会发挥重要作用,人工智能可以为人类提供事实性决策支持,让人类对价值和行为做出最终判断。

5、过去,大家强调“天时地利人和”;当前,人们更需要的是能够纠错的辅助决策系统,以及有限制的人机融合智能系统,而不是通用的、想象的、大包大揽的、无处不在的、无所不能的“上帝”—机器智能;未来,人机环境系统的“天时地利人和机辅”或许将更受青睐,以免聪明反被聪明误。


    人工智能军事应用的脆弱性和不确定性主要就体现在人工智能的机制机理上。人工智能大概分三大门派,一是以模仿大脑皮层神经网络及神经网络间的连接机制与学习算法的联结主义(Connectionism),主要表现为深度学习方法,即用多隐层的处理结构处理各种大数据;二是以模仿人或生物个体、群体控制行为功能及感知-动作型控制系统的行为主义(Actionism),主要表现为具有奖惩控制机制的强化学习方法,即通过行为增强或减弱的反馈来实现输出规划的表征。三是以物理符号系统(即符号操作系统)具有产生智能行为的充分必要条件假设(Newell and Simon,1976)和有限理性原理为代表的符号主义(Symbolicism),主要表现为知识图谱应用体系,即用模拟大脑的逻辑结构来加工处理各种信息和知识。正是由于这三种人工智能派别的取长补短,再结合蒙特卡洛算法(两种随机算法中的一种,如果问题要求在有限采样内,必须给出一个解,但不要求是最优解,那就要用蒙特卡罗算法。反之,如果问题要求必须给出最优解,但对采样没有限制,那就要用拉斯维加斯算法)使得特定领域的人工智能系统超过人类的智能成为了可能,如IBM的Waston问答系统和Deep mind的AlphaGo围棋系统等。尽管这些人工智能系统取得了骄人的绩效,但仍有不少缺陷和不足之处,而且还有可能产生很大的隐患和危险。

    首先分析一下让人工智能在当下火热烫手的联结主义。当前的人工智能之所以高烧不退,其主要的力量源泉是2006年Hinton提出的深度学习方法大大提高了图像识别、语音识别等方面的效率,并在无人驾驶、“智慧+”某些产业中切实体现出助力作用。然而,任何一种算法都有其不完备性,深度学习算法也不例外。该方法的局限性和不足是最好使用在具有可微分(函数连续)、强监督(样本数据标定很好、样本类别/属性/评价目标恒定)学习、封闭静态系统(干扰少、鲁棒性好、不复杂)任务下,而对于不可微分、弱监督学习(样本分布偏移大、新类别多、属性退化严重、目标多样)、开放动态环境下该方法效果较差,计算收敛性不好。另外,相对于其他机器学习方法,使用深度学习生成的模型非常难以解释。这些模型可能有许多层和上千个节点;单独解释每一个是不可能的。数据科学家通过度量它们的预测结果来评估深度学习模型,但模型架构本身是个“黑盒”。它有可能会让你在不知不觉间,失去“发现错误”的机会。再者,如今的深度学习技术还有另一个问题,它需要大量的数据作为训练基础,而训练所得的结果却难以应用到其他问题上。如何在各种现实情境任务中恰如其分地解决这些问题,就需要结合其他的方法取长补短、协调配合。

    其次,对于行为主义中的增强学习,它的优点是能够根据交互作用中的得失进行学习绩效的累积,与人类真实的学习机制相似。该方法最主要的缺点是把人的行为过程看的太过简单,实验中往往只是测量简单的奖惩反馈过程,有些结论不能迁移到现实生活中,所以往往外部效度不高。还有,行为主义锐意研究可以观察的行为,但是由于它的主张过于极端,不研究心理的内部结构和过程,否定意识的重要性,进而将意识与行为对立起来,进而限制了人工智能的纵深发展。

    最后是符号主义及其知识图谱,符号主义属于现代人工智能范畴,基于逻辑推理的智能模拟方法模拟人的智能行为。该方法的实质就是模拟人的大脑抽象逻辑思维,通过研究人类认知系统的功能机理,用某种符号来描述人类的认知过程,并把这种符号输入到能处理符号的计算机中,就可以模拟人类的认知过程,从而实现人工智能。可以把符号主义的思想简单的归结为“认知即计算”。从符号主义的观点来看,知识是信息的一种形式,是构成智能的基础。知识表示、知识推理、知识运用是人工智能的核心,知识可用符号表示,认知就是符号的处理过程,推理就是采用启发式知识及启发式搜索对问题求解的过程,而推理过程又可以用某种形式化的语言来描述,因而有可能建立起基于知识的人类智能和机器智能的同一理论体系。目前知识图谱领域面临的主要挑战问题包括:a.知识的自动获取;b.多源知识的自动融合;c.面向知识的表示学习;d.知识推理与应用。符号主义主张用逻辑方法来建立人工智能的统一理论体系,但却遇到了“常识”问题的障碍,以及不确知事物的知识表示和问题求解等难题,因此,受到其他学派的批评与否定。

    对于人工智能军事应用而言,智能化作战要素可简单概括为“人”“武器”和“谋略”,三者之间的统筹结合是影响战争胜负的关键。历史上每一次变革都促使“人”与“武器”结合得越来越紧密。然而,人工智能的内涵与核心是使机器具有近似于人的思维和能力,即让“武器”具备“人”的“谋略”能力。因此,智能化作战的突出特征就是智能自主,其脆弱性和不确定性也就表现在这些方面:

    1.自主感知战场态势还较弱。好的军事感知系统可以多维度空间的探测、侦察、扫描、感知等智能化新型技术手段为基础,自动分析获取敌方、我方和友方兵力部署、武器装备、兵力运用和战场环境等信息,自主形成战场态势分析图。但是理想很丰满,现实却很骨感,包括最先进的美军在这方面差距也很大。

    2.自主交互作战规划不完备。根据作战指挥员的意图,以战场情报信息为基础,自行设计并提供多套作战方案或行动计划,供作战指挥员灵活选择,同时,进行战场态势判断,提出作战方案并验证方案的可行性。而实际上,这方面的技术应用对于指控人员而言,常常是“只有苦劳,没有功劳”的抱怨,原因是人机往往失配。

    3.自主规划作战任务不可解释。理想的无人作战系统能够围绕筹划阶段的决心方案,自主研究生成作战行动总体计划和分支计划,并围绕实施阶段的动态决心,自主完善原有作战计划或进一步生成更为可行的作战计划。其具有根据全程动态,自主设计生成作战计划,并有自主循环验证作战计划的能力。但是当算法复杂到一定程度时,这些理想状态就会生成许多矛盾,变得无法说明。

    4.自主实施作战行动违规。无人作战系统在联合作战体系的支撑下,自主进行目标侦测和信息识别,并根据目标的性质、位置、作用、大小、状态等信息,自主按计划实施精确攻防行动,实现作战效能精准释放。同时,自动分析、处理作战任务与目标需求、自主深度计算与精确匹配作战要素、统筹高效运用体系作战效能。实际上,不要说这些系统的技术还远远没有成熟,即使成熟了也不能使用,因为违反《特定常规武器公约》(CCW)要求。

    5.自主评估作战效果还得不到保障。目前,各国在战场毁坏评估方面还存在一些问题,较难获得高精度、实时性毁伤评估信息。有人-无人作战单元完成打击任务后,自主对打击效果信息进行采集整理、分级分类,同时基于大数据分析比对,评估毁伤效果,并依据效果规划制定下一轮打击决策。这将从根本上解决目前主要靠抵近侦察进行毁伤效果评估的困难局面,但是对此还没有好的解决办法。

    现在的自主为什么说是“伪自主”?原因是其底层的技术架构:机器学习和大数据处理机制局限所致。无论行为主义的强化学习、联结主义的深度学习,还是符号主义的专家系统都不能如实准确地反映人类的认知能力,比如直觉、情感、责任、价值、荣誉等。

    目前国内外的军事智能化本质上都还是自动化或高级自动化(加了统计概率的自动化)的基本框架(即大数据、智能、移动、云计算的混合),没有充分挖掘实时开放、强对抗性和不确定性战场环境下人、机、环境之间相互作用的本质特征、机理及其对未来作战方式、战略战术的影响。在真实环境中往往不能充分发挥人和机器智能各自的优势,在人机混合系统的输入端割裂了数据/信息/知识整合输入,处理过程中阻断了公理/非公理混合推理、输出方式离散了直觉/逻辑联合决策。简单地说,就是没有形成一套完整的以深度态势感知(包括事实与价值)为决策中心的指控系统和人、机、环境关联耦合的人机融合智能基础科学理论体系。单纯的人工智能军事应用未来的前景具有上述的脆弱性和不确定性,所以前景不容乐观,如何克服这些弱点和缺点,目前世界各国都在抢占这个技术制高点,我们也不能束以待毙,形成良好的人在环的军事人机环境融合智能化将是一个大趋势。

  古有《孙子兵法》之谋略,近有《战争论》之战术,未来的可能为《人机环境系统融合》之思想。人有道,机有器。智能讲看得见的得失(机“器”过程)、多少(事实大小),智慧讲看不见的有无(人“道”方向)、是非(价值比较)。正可谓:未来的博弈态势中除了天时、地利、人和之外,还应有“机辅”。


二、、人机功能分配


    亚当.斯密很有意思,第一部书《道德情操论》首先提出了“利他”和“同情”问题,第二部书《国富论》就反其道而行之,提出了“利己”和“分工”问题。更有意思的是,他只提出这两个问题,并没有解决两者如何平衡的问题,美其名曰:自有后人评说!而人机能力/功能分配恰恰包含“利他”、“利己”、“同情”、“分工”等问题。


    严格地说,人机功能分配是人的能力与机器的功能分配,人具有主动性的能力使然(使能),机体现被动试的功能赋予(赋能),是人的动态算计与机器的准动态计算之间的分配。算计里面有过去/现在/未来的估计、规划和“阴”谋,计算里面有过去的规则、统计和阳谋,而没有当前和未来的规则、统计和阳谋,计算是基于已知条件的运算功能,是一种不基于价值导向的封闭性运算,算计则是基于部分已知和部分未知条件的开放性筹划能力,是一种价值导向的筹划。如何破解事实功能导向与价值能力导向的过程划分,如何区别已知/未知条件的“计算计(计算+算计)”,已成为人机能力/功能分配的关键问题之一。


    另外,人机能力/功能分配是一个不准确的概念,因为人具有的是一种超出功能作用的能力,所以准确的说,人机关系应该是人的能力与机器的功能如何有效协调的问题,再深入一下,人机关系更是一种人机环境系统交互的关系,人的能力与机器的功能再加上系统提供的使能条件,已然成为构成军事智能体系的三要素,人的能力是会随着人机环境系统的变化而变化的(人的情境意识与态势感知会因时因法因环境而发生变化的),而机器的功能则不会恰如其分地随人随环境而应变。如此看来,人机环境之间经常失配、失互是正常的,人机环境之间的有效配合反而是不正常的。个性化使能推荐系统+富弹性知识库的研发已成为解决此问题的两种可能的办法,反人工智能就是要加速、加强我方人机环境系统的协同能力,同时破坏对手的人机环境系统的协调融合能力,自主是有价值的主动使能形式,而不是被动赋能形式。


    仔细想想,Pearl《为什么》的因果只是多种因果关系中的一种事实性因果!人常常是先经过价值算计,再进行事实计算的,属于价值性因果。机器不然,它没有价值,只有事实性计算。人可以“举一反三”,机器有时可以“举一反三”,但更多时候是“举三反一”。


    人机动态功能分配的核心问题也许在于:对现有数学方法不完备性的挑战——人,讲究等价类比,机,倚重相等蕴含。


21eba7b19534290f7a68b9b997ee3bc2.jpg



https://blog.sciencenet.cn/blog-40841-1264372.html

上一篇:智能的关键在于等价而不是相等
下一篇:人机交互界面的定位
收藏 IP: 124.64.120.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-26 18:05

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部