shaopenghan的个人博客分享 http://blog.sciencenet.cn/u/shaopenghan

博文

智能驾驶难以解决的问题是自主决策

已有 828 次阅读 2024-10-18 13:28 |系统分类:博客资讯

自动与自主

如果一个信息系统的信息活动仅仅是本空间层级以及以上尺度的因果链条,那么它只会是自动的,也即半自主。

自主的源头是偶发、突发事件。

如果一个信息系统是自主的,必然要有偶发能力,需要本空间尺度以下的因果链,偶发就是不稳定的因果放大机制。每一个独立决策背后其实是微观层面偶发的放大。

两次因果放大,跨越三个空间层级——自主信息系统的特点

DNA通过RNA读取信息,表现在蛋白质等生物大分子上,维持细胞运转,这是一次因果放大,更微观层面的扰动引起DNA的突变,也是一次因果放大,所以以DNA为主信息系统实现了两次因果放大,跨越了三个空间层级。

同样,大脑思考学习表现在身体行为上,是一次因果放大,自主意识、偶发灵感亦源于更微观层面的扰动,也是一次因果放大,所以说大脑-神经系统也做到了两次因果放大,跨越了三个空间层级。

而且这两级因果放大,后一级是非常稳定的,前一级是不稳定的。如果两级放大都非常稳定,就会融合成一级了,若两级都不稳定,那跟自然界一直都有发生的蝴蝶效应没什么区别了。对于前一级放大稳定,后一级不稳定,这其实就是普遍存在的主体行为变化产生的外界影响。

现在的计算机只做到了一次因果放大,跨越两个空间层级,所以只是自动信息系统。

未来实现通用人工智能,还需要再下探一个空间层级,寻找新的芯片和计算机架构。

智能驾驶中的决策

车辆行驶是复杂的,其中有些低层次行为可以用自动策略实现,比如障碍止停、拐弯、泊车等等。再往上的复杂行为,很多都需要决策,比如经典的电车难题,是选择撞五个人还是选择换另外一条线撞一个人,这里就需要做选择,更需要为选择担负责任。未来如果真做到智能驾驶,面对突发车祸,人工智能是选择侧重保护车内乘客,还是选择减少行人或者对方车辆的伤害。人做司机的时候需要对驾驶行为负责,而人工智能做的选择需要由谁来对后果负责,厂家、服务商、保险公司?

当前的大模型虽然还不是通用人工智能,但是也能做出一些决策,只是还比较混乱、不可控、难以解释。未来如果做到了自主决策,这就成了独立自主的行为个体,是需要为后果负责的,社会更需要在交通规则和法律法规上作出许多改变。

即便智能驾驶依然免不了车祸伤人

对于自动驾驶,偶发和不确定性是个难题,另外要人们接受人工智能、自动驾驶可能给人类带来伤害将会是个漫长的过程。

现在的计算机只是半自主,未来如果做到偶发,实现了真正的智能,就需要面对它会拥有自己的意识,会像小猫小狗乃至小孩子那样不听话甚至反叛。而且对于自主个体,机器人三定律这样的软约束是无法保证其不会伤害人类,这时候监督、惩罚、筛选等措施将会是十分必要的。同时人机共存的社会人们恐怕要接受机器人会伤害人的事实,这个过程将会是曲折而漫长的,这在自动驾驶上就已经开始应验了。



https://blog.sciencenet.cn/blog-3408518-1455910.html

上一篇:二十一世纪大的科学突破?
下一篇:人类未来的设想
收藏 IP: 183.9.84.*| 热度|

3 王涛 许培扬 xtn

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-21 22:39

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部