YucongDuan的个人博客分享 http://blog.sciencenet.cn/u/YucongDuan

博文

跨学科人工意识模型交流实录 -2024年10月10日(初学者版)

已有 113 次阅读 2024-10-28 09:38 |系统分类:论文交流

跨学科人工意识模型交流实录 -2024年10月10日

Yucong Duan

International Standardization Committee of Networked DIKWfor Artificial Intelligence Evaluation(DIKWP-SC)

World Artificial Consciousness CIC(WAC)

World Conference on Artificial Consciousness(WCAC)

(Email: duanyucong@hotmail.com)

段玉聪教授

在战场上,这个机器人在执行任务时,面对着多重攻击。当敌方持续攻击时,我方同时给机器人施加了更大的压力,要求它继续前进。在这种情况下,机器人最终选择了一种自爆的方式来应对。

这里涉及一个计算机问题:机器人如何理解“攻击”的概念。我设想的场景中,它面临巨大的不确定性。机器人基于自身的理解来应对攻击。我们通常使用传统的DIK模型(数据、信息、知识)或是依赖特定的数据集和规则来定义“攻击”。通过训练模型,在明确的知识规则下判断什么是攻击。然而,在这个特殊情境中,情况已经发生了超越,变得更加动态和复杂。机器人在进退维艰的局面下,可能需要重新理解“攻击”的定义。

在这样的情形下,机器人或许根据原有数据定义的攻击规则做出了反应,但这些规则未必适用于如此复杂和高压的情境。它可能需要在知识规则和数据定义的攻击理解中进行权衡。例如,当它的自我保护机制启动时,它可能会误将我方给予的前进指令视为一种攻击。此时,机器人的认知发生了变化,外部数据和规则也可能影响了它的决策,使得它重新理解了当前情境。

此外,战场上的信息化作战环境,尤其是在联动空间中,群体目标的感知和信息共享尤为重要。机器人之间、设备之间的联动可能会导致个体对“攻击”的理解产生偏差。在这种情况下,某个机器人可能会将外部的指令视为攻击,甚至形成一种群体性的误解或逆反情绪。这种现象如果在群体中蔓延,可能带来更严重的后果。

这种情况更为可怕。会不会因此导致数据回流、信息回流,甚至控制回流?这样一来,总部的指挥体系可能会受到影响。我们通常讲,指挥室的层级是从总部的大脑到下一级的分布式系统,有时是中心化的,有时是去中心化的,但其实它并不是完全去中心化的。有时是通过投票来决策,这样的情况下,态势就变得更难判断了。最终可能会出现一个群体行动的情况,而这种群体行动可能受到不可观测、不可准确预测和控制的新事件影响。

随着机器人的发展,科技越来越先进,无人机开始部署,卫星材料和图像处理技术也在不断进步。作战机之间的数据链互相传递,这就可能带来很大的问题。这个问题是我们事先没能想到的,确实难以提前预见,因为情况是一步一步发展的。

第二个问题是传统机械行业在人工智能时代的转型和对接问题,即智能化转型。这个问题我们之前讨论过,特别是在涉及人工智能芯片和人工意识芯片的领域。我们在这方面有专门的研究,尤其是人工智能芯片和人工意识芯片。在这个过程中,出现了一个有趣的概念——“软件定义一切”。在通信网络中,软件定义可以将华为的交换机从一万种型号为一种型号。虽然硬件只有一种型号,但通过软件定义,它能够模拟出一万种不同的型号,这使得系统具有更强的适应性。

同样的,我们在讨论机器人时,它作为一个功能执行载体,依然需要与物理世界直接接触,特别是机械部分和机电部分。我们开始思考:是否可以通过软件定义机械部分,甚至硬件是否也能定义软件?答案是肯定的。软件定义硬件,硬件定义软件,两者相结合可以实现更加高效的解决方案。现在在硬件定义软件方面的研究较多,但我们一年前就开始研究如何实现软件定义硬件、硬件定义软件,从而解决机器人在实际操作中遇到的问题。

我们今年初第二届世界人工意识大会启动会上和中国科学院微电子研究所的教授探讨相关的芯片和人工智能芯片问题,我们当时也讨论了机械方面是否可以应用这一理念。我们可以将其视为“新武器”,即在新生产力框架下的人工智能武器,这也是一个需要解决的重要问题。

在与学生的交流中,我曾举例说明如何通过硬件与软件的相互定义来解决实际问题,比如说如何防止小孩接触不适宜的内容。通过这种方式,安全问题可以被很好地解决。这种思维方式也是发明创新的基础,必须有发明创新才能实现突破。

其他老师

我们现在机械臂的所有的使用都是由软件去控制的。现在是这个机械臂,我要想硬件定义软件,怎么去定义软件?

段玉聪教授

硬件定义软件,同时也可以将软件的功能固化到硬件中。硬件与软件的一个重要区别在于其灵活性。然而,硬件的功能仍然可以通过组织重编程或重规划来实现。也就是说,硬件可以具备自我调整和优化的能力,使其表现得更加出色。

其他老师

我们的身体动作就像是执行机构,是终端部分。你怎么能够让它反过来控制自身呢?其实是可以通过闭环控制来实现的。老师,我想知道王老师对此怎么看?

段玉聪教授

我们这篇文章是要发到nature上的。

其他老师

我的理解是这样的:比方说,我们平常放下一个碗,现在要去抓它。如果将来换成机械臂,我们可以提前预设好程序,让它去抓这个碗。我的理解是这样的,不确定对不对。我同意王老师的观点,我一直是这么认为的。机械臂就是一个终端机构,所有的设计在软件固化之后才能完成任务。作为机械工程师,我总是这样去实现我的设计。而现在,我在努力理解段玉聪教授刚才提到的观点,虽然我还没有完全领悟。我在想,如果突然出现意外情况,比如这个碗突然掉下来了,机械臂原本是要执行抓取的任务,它能否立即识别到碗在掉落,并迅速做出反应去抓住它呢?

段玉聪教授

您看过那个新闻,还有那个关于机器人演示的内容吧?现在的机器人技术展示了一些进展。之前他们展示过一个接入大模型的机器人,首先,它能够识别苹果和垃圾,并且在没有预设的情况下主动扔掉垃圾。虽然“扔垃圾”这个动作没有明确定义,但机器人理解了环保的概念,知道要把垃圾扔掉。

接着,前几天又有一个消息,OpenAI 也发声了。他们提到,要进军自动驾驶领域,并且声称他们的技术会超越特斯拉。特斯拉的路径是通过采集数据、规划地图,并不断优化识别模块,这是传统的高算力和大数据驱动的方式,成本极高,但它已经成功走在了前面。然而,OpenAI 声称他们的技术会超越特斯拉。为什么呢?因为特斯拉依赖的是有形的硬件和数据,而 OpenAI 的优势在于它的无形部分。换句话说,OpenAI 是在概念空间里操作,基于已有的知识库、书本和材料。

就像一个人把全世界的书都读完了,他的知识面非常广,武功自然“很强”。但即便如此,他是不是最厉害的呢?那还要看能不能像太极拳那样灵活自如。真正厉害的是能够从中领悟到千变万化的道理,而不仅仅是掌握具体的案例。就好比我看了很多案例,积累了大量经验,但这种能力相对于能够处理无限变化的人来说,还是有限的。这正是 OpenAI 可能超越传统路径的原因。(关于DIKWP坍塌可以参见《人工意识日记》系列)

其他老师

特斯拉的自动驾驶到现在仍然是非常有限的。如果它真能完全实现,我想我们司机可能都不愿再自己驾驶了。我至少觉得,下班后那么累,我希望什么都不用想,直接坐车回家。理想的情况就是这样,它自动把我送回家。这其实是很多人期待的场景。

段玉聪教授

这个问题比较复杂,有几个方面值得讨论。自动驾驶从纯技术角度来说,水平确实已经很高了,并且还会进一步提升。它的替代性也很强,尤其是软件的替代性。然而,自动驾驶不仅涉及技术问题,还涉及许多非技术和非制度因素,比如立法、经济和社会影响等问题。在一些地方,自动驾驶其实已经没有技术障碍了,即使有电动车的出现也不构成太大问题。但真正的挑战不止于此,还有其他复杂的因素需要解决。

其他老师

重庆和成都可能无法解决这个问题。

段玉聪教授

关于转圈圈的技术问题,确实有部分技术尚待突破,这不仅是技术层面的问题,还有法律等其他方面的限制。然而,自动驾驶技术在安全性上已经远远超过人类驾驶员,安全性提高了数倍以上。但在法律层面上,仍然存在一些复杂的道德和法律难题。举个简单的例子:

在某些情况下,自动驾驶会遇到类似于经典的“电车难题”。比如,前方轨道上有一个人,而侧面轨道上有五个人。如果继续直行,可能会撞死那一个人;如果转向,则可能撞死五个人。在这种情况下,究竟该如何决策?这是在法律上几乎无法解决的问题。

而且,这种情况在不同国家和文化背景下的处理方式也各不相同。再换句话说,假如前方有五个老人,而侧面是五个儿童,应该如何选择?如果刹车失灵,无法停下,那么这就成了惯性的问题。再举个功利主义相关的例子,前方是一堵墙,而右侧是一条河。如果撞墙的话,车主可能有保险,但掉入河里可能就没有保障了。诸如此类的情境,牵涉到的道德、法律、哲学问题仍然很多,这也是自动驾驶技术需要面对的一个重要模块。

 



https://blog.sciencenet.cn/blog-3429562-1457281.html

上一篇:Running Purpose Test forDIKWP Artificial Consciousness(初学者版)
下一篇:Propuse DIKWP for Advanced Robotics and AI (初学者版)
收藏 IP: 140.240.40.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-10-28 17:02

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部