对不起,自动驾驶做不到零事故

AI资讯1年前 (2023)发布 AI工具箱
408 0 0

因为自动驾驶技术等级相关的历史遗留问题一日不明,行业野蛮生长、劣币驱逐良币的现状就会始终得不到改变。

所谓的自动驾驶技术等级,核心就是这张图:

其中的level(水平等级),就是L几的“行业技术黑话”。

L2,就是level 2,也就是第二等级水平。

L3,就是level 3,也就是第三等级水平。

这套“等级”标准,跟一家名叫Society of Automotive Engineers的组织有关,简称SAE,中文叫美国工程师学会

在2014年全球自动驾驶研发,开始第一次欣欣向荣之际,SAE牵头制定了一套自动驾驶技术等级标准。

目标是希望通过划定不同的等级,可以指引行业针对性发展。

整个等级标准的制定,参考了很多影响因素。

但最核心的可以归纳为一个:

AI系统在汽车驾驶中的参与程度。

整个标准,被分为了6个级别。

0、1、2、3、4、5。

L0,AI参与程度最低,基本就是应急情况下辅助一下。

L5,AI参与程度最高,高到整个驾驶行为完全不需要人类的地步,也被叫做完全无人驾驶

比如现在常听到的RoboTaxi无人驾驶出租车,或者是不再搭载刹车油门脚踏板和方向盘的智能车,就是朝着L5方向上的努力。

在这6个等级中,有一个关键分水岭——L4

L4以下,人类驾驶员都是驾驶行为的最终责任人。

L4及以上,AI系统就是最终责任人。

L4是权责界限的分水岭。

换而言之,L4以下,无论是L2还是L3,都是人机共驾模式,AI系统提供的都是辅助能力。

区别在于,L2是你操作什么,AI就执行什么,比如车道居中保持、自适应巡航控制,以及你命令变道然后AI来伺机变道……都是L2。L2情况下,AI完全不“思考”,也不主动做决策。

而L3,最大的不同就是AI开始能帮司机做决策了。最简单的例子就是,什么时候变道,人类司机不用再给指令。

在驾驶过程中,AI会根据你的行程和路况来进行决策,甚至能在高速和环路等非开放路况的场景下,帮助完成绝大部分的驾驶行为。

只是这个阶段,人类依然是驾驶行为的核心决策者,所以特殊情况、紧急决策,依然需要人类驾驶员来执行。

所以现阶段,各家产品有叫法上的不同。

NOA、NOP、NGP……但基本都是指在高速、环路等路况相对可控的场景的AI驾驶辅助。

援引SAE制定的术语和翻译用语,他们确实可以被叫作“L2自动驾驶”、“L3自动驾驶”,甚至还有“L2.5自动驾驶”……

但归根结底,又都是辅助驾驶,都是AI提供辅助能力,最终驾驶的决定权,依然在于车主。

这也意味着,如果发生事故,提供这种“AI辅助”能力的提供方,有“最终驾驶决定权归车主”的空子可用。

问题是,自动驾驶本身已是新事物,技术等级标准更是“行业黑话”,普通车主和用户,都缺乏完备认知……加之利益相关的技术提供方,还可能在售前只谈“自动驾驶”,利用认知偏差造成误导。

这是为什么会出现“买前自动驾驶,出事辅助驾驶”,以及“车主未能正确使用”之类的神调侃、神回复。

所以现在出了事故,这套SAE技术等级标准和翻译问题,确实难辞其咎。

这也是为什么到了行业需要统一用语的时候——用户的信任和监管信心,经不起类似事故挑战了。

但客观来说,锅也不全在SAE。

因为就在2014年制定等级标准时,他们看到了RoboTaxi的终极目标,却难以预料,围绕自动驾驶技术发展,会走出不同主张的两条路线

特斯拉路线Waymo路线

最初SAE制定标准时,这两大路线,只是推进自动驾驶的不同主张。

还没到开花结果,产生实际影响的阶段。

而这两大路线,本质就是以L4作为分水岭来实践的。

刚才也说了,L4是一个——人类是否在驾驶行为中起决定性作用——的分界线。

其中,以特斯拉为代表,希望从L4以下迭代到L4以上,后来被称为量产自动驾驶

以谷歌集团中的Waymo为代表,则认定只有直接从L4开始,才是符合“安全初心”的做法,后来进一步作为区分被称为完全无人驾驶

两大主张和路线之间,也时常你攻我伐,口水仗一直未间断。

而且这两大路线的开创者和最早实践者,其实都是谷歌

但后来,谷歌认定不能走后来被称为“特斯拉路线”的方案。

因为特斯拉路线,认为自动驾驶可以在人机共驾的状态下、在驾驶数据迭代下,不断向上升级,最终从L2一直升级到L5。

特斯拉所谓的“影子模式”,就是在这种人机共驾的状态下,让AI学习人类的驾驶行为。

比如处于AI驾驶状态时,忽然遭遇了困难,由人类接管完成了挑战,就会被系统标记,其后由AI模型训练和学习类似的问题,然后得到模型提升。

实际上,特斯拉路线也不断展现其可能性和可行性。

从这几年来看,特斯拉的自动驾驶能力,进步确实有目共睹。

而且特斯拉路线的优势,集中体现在成本和规模化数据迭代上。

车卖到的地方,就是它开启自动驾驶“路测”的地方。核心要求是能卖更多车,并且“自动驾驶”方案的软硬件成本,在用户可承受范围内。

另外,特斯拉路线也存在明显的悖论

一方面,量产自动驾驶可以替代人类车主在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。

这就要求一个长时间放松的人,必须还要时刻专注在车程中。

换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。

很多车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。

于是当“老师点名提问”来临,他们往往措手不及。

然而,开车上路,事关生命安全,代价有时是极其惨重的。

之前马斯克说,车主用了自动驾驶就回不去了。

被吐槽说,有些车主确实“回不去了”。

而且这个悖论下,特斯拉不是个例。

只要是人机共驾状态下,你不能要求所有司机,一边状态放松,另一边还能随时接管。

人,一直是驾驶行为中最不确定的因素。

也正是出于人性和“悖论”的洞察,谷歌(Waymo)主动改弦更张,决定挑战更难的完全无人驾驶路线。

作为全球这一波自动驾驶商用浪潮的开创者,谷歌最初也是希望打造一套人机共驾的系统,逐步实现RoboTaxi的L5终极目标。

但后来研发和测试阶段,就发现驾驶决策中只要有最大不可控因素——人类——存在,就没有真正的安全保障可言。

当时随着研发的系统越来越完善,测试车上路后被接管的次数越来越少,导致有些工程师干脆跑到后座去……

于是谷歌开始重新思考自动驾驶的推进路线。

因为从初心来讲,谷歌决定重金砸向自动驾驶,就是为了用稳定娴熟的AI驾驶,提高人类整体驾驶水平,有效减少大量的交通事故。

安全既是出发点,也是最终归宿。

但如果无法100%控制全局,比如即便相对成熟的AI驾驶系统给了一个不太负责任的人类司机,最后由于司机过度信任,在遭遇极端场景时无法有效接管,就会造成安全事故。

当然,也有一种说法,“事故”也是AI系统debug的过程。

但用这样的方式来推进自动驾驶,一将功成万骨枯,是不是太过冷酷无情?

所以谷歌之所以是谷歌,并非没有原因,他们决定选择更难的一条路:

直接L4。

直接把代表不确定因素的人类,从驾驶位上赶下来。最终产品形态,就是RoboTaxi。

于是这条直接L4的路线,也就被叫做Waymo路线。

这是一条先路测,在一个足够安全有保障的成熟系统之后,再开启量产和商用的路线。

这条路线优点显而易见,安全至上,成本优先级不算高,可以用最冗余的传感器方案来保障安全——毕竟车不面向C端销售。

但缺点也很明显,推进起来没那么快,商业化和规模化的速度,也严格受限。

在Waymo路线上,所有的研发、落地成本,都需要自己承担,规模化盈利,更是遥遥无期。

所以这2年来,特斯拉和Waymo在资本市场遭遇了两极待遇。

特斯拉市值股价节节高升,Waymo的估值被一而再下调。

而也是这种此消彼长之间,还长出第三种路线:

Cruise路线

直白讲就是“融合路线”,把Waymo的“L4级自动驾驶技术”,兼顾成本之后,落在量产车上使用。

总之,一方面是看到了特斯拉路线的“数据迭代”之力,另一方面又希望通过Waymo路线来增强安全保障。

但即便如此,只要没有摆脱“人机共驾”模式,人性悖论权责归属的问题,就始终没有消除。

安全隐患,也就无法根治。

所以问题也就来了,既然现阶段的自动驾驶无法根治安全问题,为什么还要发展?

还是烧那么多钱、给那么多有利政策来支持发展?

是的,确实有理想化观点这样认为:

发展自动驾驶,让天下没有交通事故。

也对,但也不对。

对,是因为如果果真达到了理想化情况,路上皆自动驾驶车辆,或许就不会有“加塞”、“不文明驾驶”、“违规违掌”的行为了,车车都文明,车车都上路稳妥又认怂,交通秩序跟自动化流水线一样井然有序。

但之所以也不对,是因为这种理想化观点,不符合数学和技术规律。

于本质来看,自动驾驶,机器开车,是一个计算机问题,更是一个数学问题,在这道题中,始终存在一些细微的变量,让事故概率不可能完全为0。

更何况,自动驾驶面对的复杂长尾场景和状况,事故概率,也不可能为0。

所以自动驾驶=无事故,并不成立,也没有谁能打包票。

然而即便如此,自动驾驶依然有着更高的安全性,也是目前消解人类交通事故最接近本质的方法。

人类驾驶为主的交通安全,有着怎样的现状?

援引去年12月“第九个全球交通安全日”的数据,在机动车保有量超过3.6亿、机动车驾驶人达到4.5亿的中国,每年就有数万人丧生于交通事故。

更直观的换算,平均每8分钟就有1人因车祸死亡。

全球范围内,按照WHO在2018年披露的数据,全球每年因道路交通死亡人数高达135万人,意味着每25秒就有一人在交通中丧生。

其中,发生交通事故的主要原因,是最大的不确定性因素——人类司机

无论中外,按照数据统计,肇事突出的10大交通违法行为分别为:未按规定让行、超速行驶、无证驾驶、醉酒驾驶、未与前车保持安全距离、逆行、违反交通信号、酒后驾驶、违法超车、违法会车。

同时,还有酒驾醉驾、“三超一疲劳”、闯红灯等交通违法违规行为。

但如果替换成AI司机,这些隐患行为和因素,就会从根本上被杜绝。

AI司机不仅不会有人类司机的疲劳驾驶、醉驾酒驾、情绪化,以及各种危险驾驶和不文明驾驶行为。

而且还拥有人类无法“规模化复制”的优势,一个AI老司机养成,即意味着成千上百“AI老司机”ready——相对应的是,人类从新手上路到老司机养成,绕不开线性时间和路上的磨砺。

所以大道直白,虽然自动驾驶无法保证天下再无事故,但有自动驾驶,替代了交通中最大的不确定因素,一定能让交通更安全。

此外,还有一组数据也可对比。

量产自动驾驶路线中,事故曝光率最高的特斯拉,凡有事故几乎无处隐藏。

所以也有好事者,统计了特斯拉及AutoPilot造成的事故和伤亡情况。

统计显示,从特斯拉2013年第一起曝光的事故至今,全球因特斯拉事故造成的死亡人数达201人,其中9人与AutoPilot相关。

Waymo路线上,全球唯一一起无人车致死车祸,由Uber测试时造成。

而对比起来,全球每年有135万人在道路交通中丧生。

虽然这几年中,自动驾驶依然是一个新业态,方兴未艾,还远未达到数量上的普及,但上述两组数据和频率,依然能见微知著。

所以即便自动驾驶≠无事故,但只有自动驾驶才能根本上减少事故。

更何况,现如今正在有越来越多冗余来加强安全。

比如车端的传感器冗余、安全冗余,运营过程中的冗余,以及中国正在高速推进的路端基建——车路协同带来的更高维度的冗余。

在这些多重冗余保障之下,如果真正来到“全部自动驾驶”状态,事故中的不确定性,还将进一步趋近于0。

有设想是,这些基础设施完善后,可以保障所有上路的车辆都由自动驾驶,不再有人机共驾,也不再有人类驾驶的车辆和自动驾驶车辆混行。

人类司机,这个道路交通上最大的不确定性因素,也就没有了。

甚至跟汽车替代马车一样,人类驾驶行为就跟骑马行为一样,变成了一种娱乐活动,甚至如果不是特许的道路,人类驾驶行为还会违规违法。

自动驾驶将完全接管城市出行网络。

这个网络中,电动车(新能源)、共享出行、车联网,以及智能化都实现了串联。

车随用随叫,可以不再需要停车,没电了自动规划去充电。

真正实现了高效、绿色、安全和低碳环保可持续,车真正变成了“使用载体”,而不是“拥有主体”,私家车从此退出历史舞台。

这个网络之下,自动驾驶车辆可以一体化运营、调度,就像现在的通信运营模式一样。

所以这也是为什么,业内还有另一个隐而未宣的观点,认为自动驾驶背后,也有5G一样的“标准”之争。

因为自动驾驶不是单一的一项技术,是一个从无到有、从个例到规模化落地的系统生态

而且这不是一个地区、一个国家才需要的系统,是全球各地都需要的系统。

对于这个系统,谁最先拥有完备的方案和技术能力,就能成为标准的制定者,就能主导整个落地生态的发展。

也正是如此,在美国“奇货可居”的先进技术限制出口中,自动驾驶地位很高。

但自动驾驶的技术发展和迭代,离不开大规模的数据和丰富的场景。

这也是中国在自动驾驶落地上,越来越展现出优势的关键原因。

原本就跟全球处于同一起跑线,现在还有丰富和最具挑战的路况数据、场景。

所以这也是为何自动驾驶的发展,更加不能因噎废食。

因噎废食不仅无法根本上解决问题,而且还误国误民,流弊千秋。

根本上,自动驾驶不仅是一项先进技术,还事关智慧交通、智慧城市等面向未来的全球标准和话语权,甚至是经济发展和GDP的新动力引擎之一。

不过,现阶段自动驾驶发展,也不是没有安全路径上的可完善之处。

既然问题已经出现,就是时候在热议中推动形成共识。

实际上,在监管和政策层面,中国可能已经是全球最谨慎的国家。

特别是在之前自动驾驶和RoboTaxi测试的资质和牌照发放中,从程序到过程,比美国加州DMV,严格太多。

根据中国目前官方唯一的自动驾驶路测报告:《北京市自动驾驶车辆道路测试报告》披露,考核标准相当严苛。

无论从公开道路的长度、还是标准制定程度上来看,都堪称细致。

还专门设置了64827公里的无人化测试验证,确认了测试技术的可行性、及测试方法和参数的可靠性。

而更早之前,有安全员的自动驾驶路测,也从牌照发放和运营等多重维度作出明确要求。

也是这种监管之下,国内路测里程最多的百度Apollo,完成多个城市RoboTaxi落地运营,有1400万公里的实路路测后,能够做到零事故。

国外,Waymo再次开行业风气之先,在去年发布了“事故报告”

披露了从2019年初到2020年9月,RoboTaxi落地期间的事故情况。

显示在Waymo的610万英里(982万公里)路程中,包含没有安全员的完全无人驾驶的测试里程也有65000英里(10万公里),总共出现过18次事故,另外还有29次被安全员干涉得以避免的潜在事故。

但这些事故有两大共同特点:

第一,没有一起严重到危及生命。

第二,无一起主动事故,都是其他人类驾驶车辆造成的被动事故。

所以对于RoboTaxi方向上的自动驾驶,从监管到测试,一直有数据支撑的安全可信印象。

但量产自动驾驶——或者更准确来说,需要人机共驾的辅助驾驶,之前有灰色地带可走,处于野蛮生长。

一度只有道德标准,没有严格的监管法规。

但这种日子也正在成为过去时。

国内,8月12日,工信部印发了《关于加强智能网联汽车生产企业及产品准入管理的意见》,对智能车在数据和安全方面,作出了明确规定。

其中最引人注目的,就是针对涉及自动驾驶功能的产品管理,按照使用前后做了不同层级的要求明确,强化车企在安全方面的责任。

并且明确规定,自动驾驶相关的功能OTA要先过审批。

国外,特斯拉AutoPilot相关的事故,也开始被美国管理机构立案调查。

所以即便是擦边球路径上的“量产自动驾驶”,野蛮生长期也到头了。

只不过蔚来事故之前,“完全无人驾驶”和“量产自动驾驶”两大路线之间,有争论有口水仗,双方以为可以各自为战。

然而谁能想到,在事故后的不信任危机里,舆论不分“路线”,所有人都被同一条船视之

一荣俱荣,一损俱损。没有谁能独善其身。

不管是L几的技术,不管是量产自动驾驶路线,还是完全自动驾驶路线。

不管是车厂、供应商,还是系统技术玩家。

所以一切是时候了。

是时候以这次事故为鉴,直面一直存在的认知信任危机。

而且只有所有玩家团结一致,达成公约,才能让发展更安全、可持续。

至少是时候改变,且有三件事可以从我做起:

第一,规范使用行业用语,统一表达,明确权责归属。

但凡人机共驾,需要司机、车主紧急接管的,一律都叫辅助驾驶

否则出现事故,无论是不是“车主未能及时接管”,都应由能力提供方承担责任。

无需司机、车主紧急接管,或者责任明确就是技术服务提供方,才能以自动驾驶作为宣传。

第二,辅助驾驶的上车,还要有多重安全冗余配合。

不仅需要在使用前,明确向车主表明辅助驾驶系统的利弊,加强功能使用端的准入考核和监管。

还需要防止不靠谱车主,轻而易举就可以绕过“辅助驾驶”开启的必要规则,以及双手离开方向盘、注意力不集中等危险驾驶行为。

此外,DMS等驾驶行为监测,应该成为辅助驾驶的标配,不仅是保护车主安全,也是保障其他路上交通参与者的安全。

私自加装“作弊器”等行为,应该要与危险驾驶行为一样被对待。还有必要主动呼吁打击销售“作弊器”的行为,呼吁立法监管,由各大零售平台打击,不能让如此等同谋财害命的行为,大行其道。

第三,定期主动披露安全机制和数据。

安全机制可以增进行业信任,“安全事故报告”能够让一切更公开透明,唯有摆脱“谈事故色变”“讳莫如深”的心态,行业才能真正健康良性发展。

这也是不断科普,帮助公众更加准确了解自动驾驶能力、状态和阶段的必要手段。

总之,事故当前,信任危机当前,警钟为所有自动驾驶玩家而鸣。

如果此时此地,还不能用更具公约的方式,发展和推动自动驾驶安全和信任,等到更大危机到来,没有人能置身事外。

如果依然要在“辅助驾驶”、“自动驾驶”等行业话语上争论不休,如果让每一次“自动驾驶事故”成为舆论焦点,如果行业玩家都不得不“夸张宣传”才能不显得落后……

雪崩到来,没有一片雪花无辜。

一切是时候了。

(注:作者为量子位主编,专栏仅代表个人观点)

参考:

特斯拉事故统计:
https://www.tesladeaths.com/

Waymo自动驾驶报告:平均21万公里一次事故,严重事故都是人类司机的锅
https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Public-Road-Safety-Performance-Data.pdf

WHO道路交通死亡人数报告
https://news.un.org/zh/story/2018/12/1024371

© 版权声明

相关文章

暂无评论

暂无评论...