特斯拉的自动驾驶进阶:一面天使,一面魔鬼
特斯拉的自动驾驶 Autopilot 是把双刃剑:一面天使,一面魔鬼。10 月 26 日,特斯拉在北美地区推送了 Navigate on Autopilot。这个在高速场景下解锁更多技能的 Autopilot,着实让大家眼前一亮。
这篇文章我们就来聊一下新推的 Autopilot 更新。
主要从三个层面入手:
Autopilot 更新了什么?
这些功能背后的逻辑是什么?
如何看待这次更新?
Autopilot 到底更新了什么?
在 10 月 5 日面向欧美推送的 V9.0 软件中,特斯拉简单介绍了一下即将上线的 Navigate on Autopilot 的一些情况:
借助 V9.0,特斯拉将会在未来几个月通过 OTA 升级来扩展现有 Autopilot 功能。
Navigate on Autopilot 是一项主动引导功能,在驾驶员的监督下,可以引导车子自动上下高速匝道,可以实现换道建议、高速出口交汇处和出口导航,同时为用户在高速上规划最适合最高效到达目的地的路径。
输入导航目的地之后,驾驶员可以选择为该行程开启「Navigate on Autopilot」,然后通过方向盘右侧的档杆启动 Autopilot 激活该功能;在进行自动换道操作时,需要驾驶员拨杆操作确认后才能进行变道操作;在不开启「Navigate on Autopilot」的情况下,Autopilot 功能也可以正常使用。
Navigate on Autopilot 功能首先会以 影子模式运作,特斯拉会根据数百万公里的真实驾驶来验证其性能,验证收尾后,将把 Navigate on Autopilot 作为测试功能向美国用户推送,未来将会向其他地区推送相关更新(各地监管批准后)。
10 月 26 日,Navigate on Autopilot 功能正式上线。在这里有个很有意思的信息点:
Since introducing Software Version 9.0, Tesla owners with Enhanced Autopilot have driven tens of millions of miles to support the validation of Navigate on Autopilot, allowing us to collect performance and safety data at scale, based on real-world driving.
从推出 V9.0 开始,装配有「增强版自动辅助驾驶」的特斯拉车主已经驾驶数千万英里来支持 Navigate on Autopilot 的验证工作,使我们能够根据实际驾驶情况来收集相关数据。
短短二十几天时间特斯拉就完成了数千万英里的路测验证,不得不说,这是特斯拉的优势所在,这也是为什么谷歌要花大价钱买 6.2 万台克莱斯勒 Pacifica+2 万台捷豹 I-PACE 作为无人车的原因。
好了,回到 Navigate on Autopilot。
特斯拉专门在官网发了一篇博文来介绍这个功能,基本与 V9.0 预告版中提到的功能类似,同时更新了两个信息点:
在最开始,使用这项功能自动变道的时候驾驶员必须拨杆进行确认,但是在未来车子可以实现真正的自动变道。
Navigate on Autopilot 提供两种不同的车道变换模式,一种基于行驶路线,另一种则是基于车速,给车子提供更高效的出行效率。
对于责任主体的划分,特斯拉分的很明确:
In both of these scenarios, until truly driverless cars are validated and approved by regulators, drivers are responsible for and must remain in control of their car at all times.
在上述这两种(变道)情况下, 虽然车子可以实现不同程度的自动变道,但是责任主体依然是人。 除非真正的无人驾驶车辆被监管机构认为合法有效。
也就是说,在高速场景下,Autopilot 获得很大的权限,从最初的只是在符合条件路况下的开启,到现在可以自行进行路径规划,可见特斯拉 Autopilot 在特定场景的自动驾驶能力有所提升。
这些功能背后的逻辑是什么?
我们都知道自动驾驶分为:感知(定位)、决策、控制三个板块。
感知
首先了解特斯拉 Autopilot 的硬件:AP1.0 硬件无法实现最新的 Navigate on Autopilot,这里就不说了,AP2.0 和 AP2.5 硬件方面除了处理器之外差别不是很大,都是 8 个摄像头、12 个超声波传感器、1 个 77GHz 毫米波雷达。
摄像头作为大头,可以通过图像匹配实现一定程度的定位,进行物体检测,识别行人、路牌、交通灯等,实现对周围环境的建模,特斯拉 8 个摄像头全开意味着可以获取更多的数据,同时对于算力也提出了更高的要求(可以看到为什么特斯拉选择自研车载 AI 芯片);
超声波雷达负责探测周边近距离障碍物,主要用于低速场景下的倒车和自动泊车;
毫米波雷达可以实现对多种复杂目标的准确识别,探测距离可以达到 160 米,可以提供更精准的测距测速;
定位
智能驾驶和我们人工驾驶不同,需要更加精准的导航地图。
特斯拉利用高精度 GPS+IMU(惯导)来进行定位,采用 MapBox(一种用于定制设计地图的开源映射平台)和 Valhalla(一种开源导航引擎)+在跑的这几十万辆车子的各类传感器获得的路况信息来搭建自己的地图和导航系统。
这还不是最关键的,马斯克说特斯拉的车辆与车辆之间已经形成了一个庞大的「车队学习网络」,所有车都为数据共享做贡献。
「When one car learns something, they all learn it. 」
「当一辆车获悉某些信息时,其他车辆也可以很快得到更新」。
这种学习能力让特斯拉 Autopilot 得以更快的进化。
美国是特斯拉的大本营,所获取的地图信息自然更完备,这也是 Navigate on Autopilot 首先在美国进行测试的原因。
决策+控制
到这里应该很明了了,8 路摄像头全开+大数据喂养+算法优化+自家导航的完善使 Autopilot 更加智能。
从之前的单车道 ACC+LKA 到之后的半自动变道(驾驶员打转向车子自动变道),再到现在的自动上下匝道,同时可以根据车速和行驶路径的变道,特斯拉给 Autopilot 赋予了更大的权限。
如何看待这次更新?
在特斯拉推送 Navigate on Autopilot 之后,有特斯拉车主也在 Youtube 上传了自己的体验视频。
从视频中不难发现,Autopilot 在平顺性以及视觉识别方面有很大提升。但是,有一个问题依然值得思考:在 Autopilot 下放的权限越高的情况下,在驾驶过程中 Autopilot 担责的风险也就越高。尤其是在高速场景下,车子以极快的速度运作,驾驶员是否能够做出足够及时的反应?
2018 年 1 月,美国加利福尼亚州,一辆开启辅助驾驶系统的特斯拉 Model S 以 65 英里/小时的速度行驶,撞到了一辆停放的消防车,所幸驾驶员只是受了点轻伤。
今年 3 月,同样在加利福尼亚州,一辆 Model X 在 101 高速撞上路边护栏后电池起火,车主不幸死亡。官方给出的声明是当时车主开启 Autopilot 辅助驾驶系统,且司机的双手离开了方向盘同时系统已经发出警告,但是在碰撞前的 6 秒内驾驶员并未采取相应措施。
像这样的事情不在少数。
最近,弗罗里达州的 Shawn Hudson 向法院提起诉讼称特斯拉在 Autopilot 上做了虚假宣传。
在与律师的新闻发布会上,Hudson 说,特斯拉让车主有一种虚假的安全感,在开启 Autopilot 之后车子可以自己运作,但是一旦路上遇到危险的时候,驾驶员没有时间做出反应。
10 月 12 日,Hudson 的车子以大约 80 英里/小时的速度向南行驶,没有任何预警,车子撞到了车道外的一辆福特嘉年华,同时造成 Hudson 椎骨骨折并且产生一些认知问题。
Hudson 说「Tesla oversold Autopilot’s capabilities(特斯拉过度宣传 Autopilot 的能力了)」
而在这位车主的演示视频中,我注意到一点:在 0:58 秒的时候,车子无法分辨走哪条道路,车主很迅速的进行了接管。
像这种高速场景下出现的识别问题,对系统和驾驶员都是一种考验,这种情况下更容易酿成事故。
其实说白了,还是责任主体的事,随着权限的下放,车子所承担的责任也会越来越重,发生事故的概率以及引发的争议也就越大。
以目前的软硬件实力能否做到规避这些问题的发生还要画一个问号。
而且特斯拉在用户手册中也给出提示:
Autopilot 可以在速度不超 50 英里/小时的情况下很好运行,当速度超过 50 英里/小时,Autopilot 很难识别静止的物体然后停车。
我想没几个用户会真的认真去读用户手册,大多都沉浸在这种新奇体验中了。
除此之外,智能驾驶最关键的一点就是要实现冗余,Model S/X 没有配备更多的冗余机制,对于一辆在高速场景拥有更多权限的自动驾驶车辆来说其实很危险。
这是从车子的角度来看。
从驾驶者的角度来看,很明显,随着不断更新,Autopilot 的驾驶体验会更好。这种「纵享丝滑」的体验会让使用者慢慢放下警惕,这个时候就最容易发生事故。
此外还有一个更严重的问题——技术被滥用。
这已经不是一次两次了,此前有用户使用橘子甚至挂瓶水来「骗过」Autopilot,只为了更久的使用 Autopilot,甚至有一家公司专门研发可以避过特斯拉驾驶员检测的设备……无疑,这些做法在不同程度上增加了出事故的风险。
英国的一位老哥更厉害,开启了 Autopilot 直接坐到副驾的位置(英国的方向盘在右边),来看一下:
事件发生在 2017 年 5 月,在社交媒体上分享图片后,这位老哥被警方逮捕,最后被吊销驾照。
这些都是特斯拉接下来会面临的问题,在 Navigate on Autopilot 可以完全实现自主变道之后,问题会更加复杂。
从这一点来看,特斯拉很激进。
现在的 Autopilot 到底属于 L2 还是 L3?
还有一个问题,推送更新后的 Autopilot 到底属于 L2 还是 L3?
虽然加入了这么多的更新,但是可以很明显的看出来, Navigate on Autopilot 的使用场景还是被限制在高速公路上,也就是说,这种自动驾驶依然属于从 L2 往 L3 过渡的自动驾驶。
在开启 Autopilot 以及 Navigate on Autopilot 功能之后,用户的手还是不能离开方向盘,官网对这一点也说的也很明白——事故的责任主体还是驾驶者。
「感觉」Autopilot 的驾驶体验越来越好,这种情况下人的注意力也更松懈,但是你必须时刻盯着前方,这也是李想为什么吐糟 L3 是反人类设计的原因。
但是我想不管是 L2、L3、还是 L4,「驾驶员注意力保持」这件事不可避免,从 L2、L3 的迭代路线其实是把这项「工作」交由用户,直接切入 L4 则是把这些工作转接到了研发验证阶段,两种路线并没有优劣之分,一个加快智能驾驶的商业化落地,一个实现真正无人驾驶的愿景。
这套系统的推出也说明 Autopilot 的使用已经呈现场景化,不同场景展现的 Level 不一样。
李想给出的评价很到位:
特斯拉用 NAV 和 HDMAP 的方式,来解决高级辅助驾驶和以后的全自动驾驶的场景适配问题。用户不需要非常专业的区分场景,只需区分人类指令控制(辅助驾驶)和机器驾驶(全自动驾驶)就可以了,大的判断交给地图。用户产品、商业落地、数据成长、技术效率的完整架构力。
总的来说,Autopilot 是把双刃剑,如果滥用自然会引发事故,如果使用得当,将很大程度上减少事故的发生。在逐渐赋予 Autopilot 更大权限的同时,特斯拉要把握好技术与安全之间的平衡。
相比于这次更新的 Navigate on Autopilot,我更期待的是明年搭载特斯拉自研 AI 芯片的 Autopilot。
2898站长资源平台网站资讯:http://www.2898.com/news/