在大多数人的概念当中,自动驾驶汽车这件事距离现实世界似乎还很遥远,它们要么还停留在设计师面前的屏幕上,要么因为各种外挂设备外形惊奇到根本不能称其为汽车。但实际上,真正意义上的自动驾驶汽车不仅距离我们并不遥远,甚至可以说已经来到了我们的身边——真正字面意义上的身边。
在刚刚过去的CESAisa上,Audi将两辆全新的中国版A7ConceptPilotedDriving带到了上海,这两辆搭载了最新zFAS(中央驾驶辅助控制系统)的自动驾驶版A7不仅完全基于量产版改造而成,而且还在正常通勤时间的上海市区道路上完成了现实状态的复杂路况测试。普通形态的自动驾驶汽车真正上路,在这个初夏已经不再是遥远的梦想了。
正在上海市区进行路试的中国版A7ConceptPilotedDriving
随着这两辆中国版A7ConceptPilotedDriving的到来,许多新的问题渐渐浮出了水面——新版zFAS与过去的版本有何不同?它究竟克服了那些新的技术难题?NVIDIA的Tegra芯片在Audi的自动驾驶系统当中究竟充当着怎样的角色?两者的互动又会对NVIDIA以及看似不相干的PC图形领域造成怎样的影响呢?在今天的文字当中,就让我们一起直面并剖析这些问题来寻找答案吧。
新zFAS,“新”在哪里
与先前在拉斯维加斯以及圣何塞等其他展会上出现的ConceptPilotedDriving不同,中国版A7ConceptPilotedDriving为了适应国内的道路及环境特点而让做出了许多改动,它基于完全量产版的标准A7,由Audi从国内经销商处直接提货并加以简单改进获得,取消了自动超车功能以及与之相关联的车尾激光雷达,针对中国道路的各种交通标示和道路辅助线进行了对应的调整,车内布局及相关按钮操作与量产版保持了高度一致,驾驶者只需一键即可完成自动驾驶过程的启动和相关操作。
中国版A7ConceptPilotedDriving前置传感器阵列
中国版A7ConceptPilotedDriving搭载了最新版的zFAS。新版zFAS所基于的平台解决方案完善于NVIDIA的桌面GPU架构Kepler,拥有相当接近桌面PC的基本结构以及强大的可编程特性,能够透过CUDA环境运行各种基于ARM甚至X86平台(通过CUDA-X86编译器)的程序。它的体积小巧,同时具备一台完整PC所具备的绝大部分特性,可以对传感器收集到的图像数据进行处理,在图像比对过程中完成环境事态的分析,并从中得出可以改变驾驶操作的条件依据。
与之前在CES或者GTC等各大展会上展出版本相比,中国版A7ConceptPilotedDriving采用的这套zFAS系统尺寸进一步瘦身,NVIDIA重新优化了车用TegraK1芯片,在降低功耗的同时减少了对元器件和接口的需求,新设计的PCB尺寸从最初JETSONTK1的miniPC大小进一步削减了近一半,这令新的zFAS可以轻松置于量产版普通A7后备箱左侧的狭小设备舱当中,全部设备主体均可实现隐藏,只要利用设备舱原本的凹槽空间令散热片外露即可满足全部运行要求。
最新版zFAS系统
除此之外,有介于中国版的“特殊”需求,新平台对传感器设备的需求进一步简化,zFAS的安装过程也更趋简便,现有的量产版A7可以十分简便的完成改装过程,这便是Audi能够实现“从供应商处直接拿来普通成品车接着加以改装就能使其成为中国版A7ConceptPilotedDriving”的重要原因。除了A7之外,A8、R8e-tron以及TT也都将会配置该版本的zFAS。由此可见,在经历了近5年的发展之后,车载Tegra平台已经走向成熟,正式进入汽车最核心的应用领域了。
那么Tegra在这一领域当中又起到了什么作用呢?为什么上海市区的路试会显得如此重要呢?
唯快不破?其实慢才难做
司机其实是很可怜的群体,只要坐进驾驶舱,他们就开始了一段段恐怖甚至命悬一线的经历,各种偶发或者突发事件无时无刻不在考验着司机的神经,如果稍有不慎,也许几秒之后就是司机生命的终点。而导致这些问题的关键,是事件信息的及时有效传递和接收。人的反应以及感知能力都是有限的,在汽车这类高速行驶同时视野受限的机械中更是明显,很多信息无法第一时间的被驾驶员接收到,或者无法在驾驶员的生理极限范围内以合适的时间窗口出现,而错过重要信息的结果通常都很惨痛,轻者损失金钱,重则可能在下一个弯角拥抱上帝那无边的爱。
面对如此多需要照顾的信息,司机其实是相当可怜的……
机器反应速度比人快,在很多特定环境下的能力也比人强得多。黑夜里看不到的鹿或者哈队长可以被夜视传感器看到,突然蹦出来的熊孩子可以被前视雷达及时发现,一闪而过的限速标志可以被摄像机捕捉。如果有机器从旁辅助来完成周边信息的收集,处理和反馈呈现,并及时提醒甚至直接帮助司机完成驾驶动作,开车应该就不再是那么危险的一件事了。
尚未得到精简化的奥迪自动驾驶支持系统,没错,塞满了整整一后备箱还不够装
在CUDA的帮助下,TegraK1GPU可以像PC平台那样用通用计算能力来执行各种多样化的任务或者实现丰富的基于计算的功能,这其中就包括了车辆自动驾驶及驾驶员辅助系统所需要的图像比对及处理能力。所以在基于TegraK1的zFAS当中,系统可以将绝大部分传感器收集到的信息图形化,然后交给TegraK1来完成图像的比对及分析处理,用画面中透露的信息去跟预设好的规则进行对比,然后再根据对比的结果作出决策。
无人驾驶的RS7ConceptPilotedDriving
在年初的CES展会上,Audi曾经与NVIDIA合作让一辆处于原型车状态的A7ConceptPilotedDriving在zFAS的控制下以无人驾驶状态完成了从旧金山到拉斯维加斯的行程,其最高时速甚至一度达到了140公里每小时,这段长达900公里的高速公路驾驶过程很好地检验了zFAS系统以及TegraK1的处理能力。但相对而言,美国高速公路的通勤情况要简单许多,不仅车辆密度以及道路标示密度相对较低,而且车辆行驶状态也更加单一,这种路况对自动驾驶系统的考验相对简单,只要让传感器的识别帧率达到高速行驶所需的要求,TegraK1的处理负担并不会很重。
空旷的道路环境不会产生过大的性能需求
与高速公路相比,拥挤且低速的城市路段所面临的考验明显要大得多。单位时间内城市路段当中所发生的并线过程不仅数量庞大而且还可能会同时出现多次(比如说你同时遇到了两个疯子跟你抢道,或者别人将你挤出车道导致你不得不并线时旁边又冒出来了一辆挡住你去路的车等等),前后车距的变化更为频繁,道路及交通标示的数量也远远大于空旷单一的高速公路,这些情况会让车速并不快的城区行驶过程产生远比高速公路大得多的信息量和数据量,而且这些数据和信息往往会在很短的时间内同时且大量的涌现。庞大的信息数据处理需求不仅要求车辆的自动驾驶系统能够准确且快速的掌握周边事态,具备更强大的总处理能力,同时还必须能够应对复数突发事件并作出正确判断。所以以难度而言,城区的实际通勤状态道路对于自动驾驶系统而言会是更加困难的考验。
复杂道路环境需要更高的运算能力来支撑
得益于改进自KeplerGPU架构这一要素,TegraK1天生就具备了强大的并行处理能力,这种源自GPU通用计算的并行处理能力给了TegraK1同时处理多个复杂任务的并行度和总处理能力。通过不断深入的优化,基于TegraK1的zFAS从最初的高速赛道行驶到高速公路长途转场,再进化到今天的通过实际城市道路通勤时段,其强大的并行处理能力已经让车辆自动驾驶技术发展到了接近成熟量产的关键节点,zFAS系统能够走到今天,来自桌面GPU架构的设计可以说是功不可没的。
中国版A7ConceptPilotedDriving在上海的路试和路演意味着许多事,它不仅代表Audi的zFAS以及相关自动驾驶技术的发展成熟,同时也让NVIDIA未来在GPU以及SoC领域的发展方向变得更加清晰。至于自动驾驶汽车以及NVIDIA的明天,就让我们拭目以待吧。