Teddy 写于2022/8/4
目录
一、自动驾驶介绍
二、产业链概况
三、核心要素介绍
四、总结与展望
一、自动驾驶介绍
1)人类驾车很危险
中国 2020 年有 6.2 万人死于交通事故,平均每 8 分钟就有 1 人死于车祸。根据密歇根大学交通研究所的最新报告显示,2014 年交通事故死亡率最高的地区为非洲与拉丁美洲,其中纳米比亚交通事故死亡率居全球之首,每 10 万人中有 45 人死亡。著名旅游目的地泰国,排在第二,交通死亡率为中国的两倍。
从交通事故死亡占总死亡人数比例来看,许多中东国家领先。阿联酋以 15.9%,位居首位。而中国的数值为 3%,高于全球平均水平的 2.1%, 美国的数据为 1.8%。
2)自动驾驶分级
国家标准 GB/40429-2021 和 SAEJ3016 明确定义了汽车自动驾驶分级,将驾驶自动化分为 0 级至 5 级。其中定义等级的原则是 1)自动化驾驶系统能够执行动态驾驶任务的程度。2)驾驶员的角色分配。3)有无允许规范限制。国标规定 L1 和L2 级自动化系统命名为“驾驶辅助系统”、L3-L5 命名为“自动驾驶系统”。
L0 驾驶自动化—应急辅助(Emergency Assistance):该级别的辅助驾驶系统,可以感知环境、并提供信息或者短暂介入车辆运动控制,但是不能持续执行车辆控制。
L1 驾驶自动化—部分驾驶辅助(Partial driver assistance):该级别的辅助驾驶系统可以持续提供横向或纵向运动控制。但驾驶员仍要对道路状况和车辆驾驶情况保持监管。
L2 驾驶自动化—组合驾驶辅助(Combined Driver Assistance):该级别的辅助驾驶系统可以持续提供横向和纵向运动控制。在该级别驾驶系统运行过程中,驾驶员和自动驾驶系统沟通执行全部驾驶任务,允许用户短暂地将双手脱离方向盘,也叫 Hands off。
L3 驾驶自动化—有条件自动驾驶(Conditionally automated driving):该系统在设计条件下持续执行全部驾驶任务。在正常运行过程中,车辆控制、目标探测与事件响应由自动驾驶系统负责;若出现即将不满足运行范围时请求驾驶员接管。在运行过程中,允许用户短暂地将视线移到驾驶之外,也叫 Eyes off。
L4 驾驶自动化—高度自动驾驶(Highly Automated Driving):该系统可以持续地执行全部动态驾驶任务并自动执行最小风险策略。当系统脱离运行范围时向驾驶员发出介入请求,驾驶员可不响应请求。驾驶过程中用户注意力可以完全不在驾驶中,被称为 Mind off。
L5 驾驶自动化—完全自动驾驶(Fully Automated Driving):该系统可在任何可行驶条件下持续地执行全部动态驾驶任务并执行最小化风险策略。
低阶辅助驾驶和高阶自动驾驶的本质区别是出现事故之后的责任划分。根据 SAE的定义我们可以发现出现事故以后 L2 责任在于乘客,L3 责任在于车辆。由于目前国内自动驾驶的立法尚未健全,整车厂对于自动驾驶的宣传只能停留在 L2.5 或者 L2+。2021 年日本政府率先完善法规,为全球第一款法律意义上的 L3 级别自动驾驶汽车本田 Legend Hybrid EX 的诞生铺平道路。
二、产业链概况
自动驾驶领域拥有两个关于路线的争论,一个就是车路协同与单车智能之争,另一个就是视觉算法与雷达之争。自动驾驶路线之争的本质是各个国家优势产业不同,中国的优势在于通讯行业,美国优势在于半导体行业。因此中国选择单车智能为主车路协同为辅的路线,美国选择单车智能的路线。而传感器的争端则集中在技术与成本的优劣上。
三、核心要素介绍
1)车路协同
在新基建的背景中,现有的车路协同项目多为 To G 业务,政府支持自动驾驶企业在示范区内开展业务,缺乏终端消费者为车路协同业务付费的环节。同时车路协同在国内尚缺乏通用标准,企业仍需各自摸索,因此车路协同若要进入良性发展循环,平衡政府、车厂、公路运营单位等多方的利益诉求必不可少。
车路协同的核心技术是通讯,C- V2X 是当前车路协同的主要发展方向。由我国主导设立的 C-V2X 标准是世界智能驾驶发展的主流,目前正处于商业落地阶段。
2)传感器
视觉方案
纯视觉方案推动方主要为特斯拉,方案中摄像头起主导作用,需要将多摄像头捕捉的 2D 图像映射到 3D 空间中,因此对算法与算力的要求高。2021 年北美地区上市的 Model 3 和 Model Y 取消了雷达,仅仅搭载了 8 个摄像头。
摄像头的作用:主要用于车道线、交通标示牌、红绿灯以及车辆、行人检测,有检测信息全面、价格便宜的特征,但会受到雨雪天气和光照的影响。现代摄像头由镜头、镜头模组、滤光片、CMOS/CCD、ISP、数据传输部分组成。光线经过光学镜头和滤光片后聚焦到传感器上,通过 CMOS 或 CCD 集成电路将光信号转换成电信号,再经过图像处理器(ISP)转换成标准的 RAW,RGB 或 YUV 等格式的数字图像信号,通过数据传输接口传到计算机端。摄像头可以提供丰富的信息。但是摄像头依赖自然光源,目前视觉传感器的动态做得不是特别宽,在光照不足或者光照剧烈变化的时候视觉画面可能会出现短暂的丢失,并且在雨污状况下功能会受到严重的限制,行业内通常通过计算机视觉的方式克服摄像头的各种缺点。
车载摄像头成本构成
雷达方案
未来我们将主要聚焦雷达进行分析报告,本期将聚焦对于整体的逻辑分析
3)计算平台
计算平台也叫做自动驾驶域控制器。随着 L3 以上自动驾驶渗透率的提升,对算力的要求也提升,虽然当前 L3 的法规和算法都暂未出台,但整车企业均采用算力冗余方案,为后续的软件迭代预留空间。
采用并行计算架构 AI 芯片,并使用多核 CPU 配置 AI 芯片和必要处理器。目前 AI 芯片主要用于多传感器数据高效融合与处理,输出用于执行层执行的关键信息。AI 单元是异构架构中算力需求最大的一部分,需要突破成本功耗和性能的瓶颈以达到产业化要求。AI 芯片可选用 GPU、FPGA、ASIC(专用集成电路)等。
芯片决定了自动驾驶计算平台的算力,设计制造难度大,容易成为卡脖子环节。高端市场均由国际半导体巨头英伟达、Mobileye、德州仪器、恩智浦等把持;在 L2及以下的市场以地平线为代表的国内企业也逐渐获得客户的认可。中国的域控制器厂商一般都会与一家芯片厂家深度合作,采购芯片,配合自身硬件制造、软件集成能力交付给整车厂。与芯片企业的合作一般具有排他性质。
4)数据与算法
用户数据对于改造自动驾驶系统极其重要。自动驾驶的过程中有一类发生概率不高的罕见场景,这类场景被叫做 corner case。若感知系统遇到了 corner case 则会带来严重的安全隐患。例如前几年发生的特斯拉的 Autopilot 没有识别出正在横穿的白色大卡车,直接从侧面撞上去,导致车主死亡;2022 年 4 月小鹏在开启自动驾驶的过程中撞上了侧翻在路中间的车辆。
此类问题的解决办法只有一个,便是由车企牵头收集真实数据,同时在自动驾驶计算平台上模拟出更多相似的环境,让系统学习以便下次更好地处理。一个典型的例子便是特斯拉的影子模式:通过与人类驾驶员行为进行比对,找出潜在的cornercases。而后对这些场景进行标注,并加入至训练集中。
a)判断自动驾驶车辆是否遇到 corner case,并上传
b)针对上传的数据进行标注
c)使用模拟软件模拟并创建额外的训练数据
d)用数据迭代更新神经网络模型
e)通过 OTA 的方式将模型部署至真实车辆
四、总结与展望
1)自动驾驶未来前景极为广阔,线路之争充满荆棘,我们站位A+H,可布局的产业有限。
2)我们认为摄像头无法拔高,现阶段L2-L3.5可以覆盖,特斯拉的几次重大安全事故频繁发生在白色大型货车相关的场景中,主要原因在于单目或三目摄像头无法像双目摄像头一样通过视觉差判断距离,纯靠 AI 算法穷举会在新场景上遇到 Corner case,很有可能对距离判断失误。
3)我们认为自动驾驶安全性提高与激光雷达的使用密不可分,L3及之后是视觉无法达到的高度,单从特斯拉最远看到250米,蔚来新车的激光雷达最远达到500米,安全性孰高孰低自然不必多说。
4)造车新势力等新款新能源汽车皆搭载数枚雷达,市场认为2022年为激光雷达元年,我们认为激光雷达门槛在于成本,待规模扩展与熟练度提高,成本将得到控制,技术与成本逻辑都过关,激光雷达将成为自动驾驶中从0-1的行业,下一期我们将聚焦激光雷达的研究。
5)未来我们将以激光雷达为主线,域控制器、车载芯片、数据中心、软件算法为辅助进行研究
文章信息均来自公开信息与上市公司公告,内容不构成投资意见