|||
红色的Y是最新的迷你型SUV,大众版的X
马斯克财产超过马云以后,据报道今天也超过了股神巴菲特。
总觉得他的财富有我们帮他免费义务做marketing的份儿,他欠了粉丝们和观察家们一大票广告费。特斯拉的广告支出一直保持零记录,省的钱都进了大股东的腰包了吧。
最近特斯拉又出事故了:《特斯拉和比亚迪撞上了!自动驾驶失控?特斯拉回应……》。这显然是软件问题,却说:“根据后台调取的数据,在事故发生时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。判定为车主当时操作不当,而非车辆的FSD硬件问题。” 废话,当然不是硬件问题,一台超级电脑本身会有啥故障?这套说法只是规避法律责任风险。即便司机手在盘上,但不做操作,也会说这一样是司机的责任,FSD 使用条款上早就写得明明白白,这是 beta(永远的 beta),后果自负。
车横插过来,以为 FSD 会自动让车,避免相撞,这是合理的,也是用户使用过程中迟早必然形成的预设。特斯拉 FSD 用户慢慢学会了或习惯了遇到有车加塞,不必去管它,因为 FSD 的基本功能就是要应对这种的。现在情况是,特斯拉是愚公移山,却宣称山已经移走。特斯拉的这套软硬件体系和算法对策一定会发生事故。它对长尾的办法,基本上是靠事故 trigger bug reports,然后收集数据,对于 bugs 各个击破。特斯拉不可能应对真正长尾。最后的成功,都是咱们这些小白兔们牺牲、受损的结果。特斯拉对付长尾靠的是大海捞针一样去收集长尾数据,然后做针对性特别训练,然后希望这特别训练的部分可以自然融合到自动驾驶的整体决策中。这个过程有与生俱来的缺乏透明性、不能确保定点纠错的黑箱模型的短板在。今天撞到大白货车上,就试图收集大白货车的各种图片视频,人工标注完然后教给机器,说这不是蓝天白云,而是货车。这部分训练是 CV(计算机视觉),并不直接训练自动驾驶决策(速度和方向的调整)。CV 在这一点提高了就被融入系统,希望它增强。但系统本身巨大无比,到底在具体场景达到多大效应依然是难以解释和追踪的。这才有同一种事故,会一而再发生的问题在,小白鼠牺牲一次是不够的。(第一起广为人知的最严重的致命事故是一位从事IT高管的特斯拉粉丝,它一头撞上一个横穿马路的白色大货车,同类的事故不久前在台湾也发生了,这次是横躺在路上白色货车,所幸无人伤亡)。而且适度泛化也不能确保。白车识别问题解决了,也许某种黄车又是问题了。软件方法论的短板,加上硬件跛脚没有激光雷达,不出事故才怪。如果配备激光雷达,上面提到的几个事故可以杜绝。马斯克夸张说凡是FSD用激光雷达,都是作死。说对于自动驾驶场景不 make sense。这完全是造价量产上的考量,却包装成 CV 软件技术上对于激光雷达的可替代性。纯属于误导。根本性解决方案是激光雷达技术进步,造价降低到可以普及量产。马斯克不过是打了个时间差,在硬件造价无法承受量产普及自动驾驶的时间,用软件瞎凑合,鼓吹 AI CV 无所不能。是 AI 泡沫成就了敢于冒险的马斯克。老友说得有道理:“小马同学的特点是用人类不敢干得事却把它干成了。利用CV合成3D图像,一旦做成就形成了entry barrier, 把google, apple, amazon etc. 甩在脑后了。” 然而很难说谁先到来,到底是激光雷达价格下来可以承受先来,还是cv几乎完美取代硬件先来?所以特斯拉也是在和时间赛跑。
回头看小白鼠们,我们都是傻瓜吗?不是,安全性上,特斯拉用户实际上是做了笔交易,牺牲了习惯性相信 FSD 而必然导致的麻痹性长尾危险,换取了 FSD 反应快过人类在其他场景带来的安全增强。每一个长尾事故的另一面,是 FSD 比人类快得多的自动规避风险案例。可是好事不出门,恶行传千里,媒体只报前者,后者媒体很少报道。但如果你去 google “tesla saved lives“,“Tesla saved animals” 、“Tesla avoided collisions”,你会发现很多案例和视频。人类其实很可怜,趋利避害也只能做到两害相权取其轻。当小白鼠不是不知道特斯拉忽悠自己的全自动是误导,而是貌似好过其他选项。
一年前的世界人工智能大会,马云与马斯克对谈AI,话不投机,基本是驴头不对马嘴。这几天咱中国又开世界人工智能大会了。马斯克远程现身,少不了鼓吹他的全自动(FSD)。回答会议提问L5这最高级别自动驾驶,会不会到来?马斯克拍着胸脯说:眼看就到了,就在今年。
先给一点背景信息。自动驾驶界对自动驾驶能力一般分为从低级到高级的五个 levels,大体如下:
美国汽车工程师学会(Society of Automotive Engineers)给出的评定标准,其主要内容是:
0级:无自动驾驶,由人类驾驶员全权操控汽车,可以得到警告或干预系统的辅助;
1级:驾驶支援,通过驾驶环境对方向盘和加减速中的一项操作提供驾驶支持,其他的驾驶动作都由人类驾驶员进行操作;
2级:部分自动化,通过驾驶环境对方向盘和加减速中的多项操作提供驾驶支持,其他的驾驶动作都由人类驾驶员进行操作。
3级:有条件自动化,由自动驾驶系统完成所有的驾驶操作。根据系统要求,人类驾驶者需要在适当的时候提供应答。
4级:高度自动化,由自动驾驶系统完成所有的驾驶操作。根据系统要求,人类驾驶者不一定需要对所有的系统请求做出应答,包括限定道路和环境条件等。
5级:完全自动化,在所有人类驾驶者可以应付的道路和环境条件下,均可以由自动驾驶系统自主完成所有的驾驶操作。
(http://www.zhiding.cn/wiki-Autonomous_Car_Grade)
按照上述标准,业内人士一直评定特斯拉刚到 L3水平。他就大嘴说 L5 指日可待。这是在偷换概念。业界的 L5 标准是业务 specs,马斯克的定义是工程 specs,前者到后者的转换,是工程实施的前提。但这个转变也可能有很多猫腻,夹进去私货。普罗大众哪里搞得清二者的分别,大多选择相信名人,偏听偏信,似是而非。
马斯克的工程specs是把自主驾驶或全自动驾驶分解为子任务:(1)召唤(summon):特斯拉听从主人召唤,从停车场自动开到路口接主人上车;(2)市区驾驶(city-driving):这又进一步分为一系列子任务,包括识别红绿灯过路口,路口自动转弯,等;(3)穿行高速(Navigate on Autopilot):从接壤市区的匝道上高速一直到从匝道下高速,接上市区驾驶,子子任务包括自动换线,自动从一条高速进入另一条高速等。 每个子任务一旦完成上线工程第一版,他就宣称已经实现,虽然质量不高、bugs 不断。按照他自己的这个全自动实现的标准,特斯拉的确已经完成四分之三的功能组件了。努把力,年底做到所谓全自动功能齐全(FSD feature complete)不是不可能。马斯克有一句话泄漏了天机:所谓 feature complete 的全自动,就是以非零的概率完成从家到办公室的点到点全程自动驾驶过程,人不需要参与。
这个标准也忒不讲理了,低到不能再低了,他好意思说出来,还敢声称 L5. 但从工程角度,他自有自己的道理 :全过程人不参与,哪怕只实现一次,也说明每个环节、每个 feature 都有 FSD 的应对。所以说 features 是 complete 了。能力、潜力或可行性算是证明了。这是从0到1的转变。其余的一切失误、bugs,都属于渐变提升的过程,那是从1 到 n,乃至无穷大,是无止境的。假以时间,就一定越来越好。
对比业务需求的L5定义,应该明白什么叫忽悠了吧。忽悠的化境,不过如此。并且还可以振振有词,貌似能自圆其说。这里面的 catch 就在,任何一个真正反映了业务需求的工程定义,都必然对 features 的质量规定了可量度的指标,这个指标绝对不是“非零概率”这样的地板门槛。
马斯克玩这套忽悠已经好多年了(四五年前就声称i已经有能力点到点从加州全自动驾驶到纽约,还定下了日子要给世界做演示,最后当然是天大的泡沫)。他吹过的牛皮、吹过的一个一个泡沫破灭,自定的死期一个一个错过,他居然不倒,反而以此获得荣耀。发现一个顶级的企业家,总是善于用短板和缺陷赢得生意和发展机会的。马斯克就是如此。他利用了硬件的短板(缺乏激光雷达)和软件的内伤(以场景枚举的再训练对付无限长尾)收获了自动驾驶领域最大的红利。这样下去,不用太久,世界首富非他莫属了。
特斯拉全自动驾驶无论硬件软件都不是第一流,也不是最安全,但它做到了工程量产和大众推广,这是其他一流自动水平的玩家都做不到的。这主要是工程改变世界,而不是仅靠科学。
前面说过,特斯拉玩的是蚕食策略,长尾现象一个一个做,最终希望逼近到这样一个程度,可以用数据说明,自动驾驶比人驾驶的安全性高了一个量级,事故减少了一个量级。这时候,没有道理不让自动驾驶接管,因为它更加 saves lives,这个思路本身无可非议。FSD 不能应对千变万化。但是,人也不能应对千变万化。我们上出租、火车、飞机,都是把性命交给他人或机器,明知道司机和机器不是100%安全的。特斯拉不需要达到 100% 安全,它只需要达到大幅超过出租司机的安全性,原则上就可以得到批准上路。何况,这个过程中,V2X 那边也在发展。社会也在进化,随着招之即来挥之即去的无人出租上路,越来越多的人最终会放弃买私家车,路上的机器驾驶比人驾驶越来越多。到了某个时候,除非特别批准,人类驾驶不准上路了,这时候安全性的问题基本消失了。
【相关】
https://ts.la/wei29218 :用这个推荐订购特斯拉,你我都可得到1000英里免费超冲。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-21 17:06
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社