汽车芯片行业深度报告

2019-01-31 22:39:02·  来源:智车科技  
 
智能驾驶涉及人机交互、视觉处理、智能决策等,AI算法和芯片是核心。
据恩智浦统计,目前一辆高端汽车已经搭载超过1亿行代码,远超飞机、手机、互联网软件等,未来伴随自动驾驶的渗透率及级别提升,汽车搭载的代码行数将呈现指数级增长。
 
自动驾驶软件计算量已经达到10个TOPS(TeraOperationsPerSecond,万亿次操作每秒)量级。
传统汽车MCU的算力难以满足自动驾驶汽车的计算要求,GPU、FPGA、ASIC等AI芯片进入汽车市场。
全球无人驾驶领导者包括谷歌、百度、特斯拉、奥迪等,从这些厂商的自动驾驶主控模块的SoC芯片架构或可一窥汽车芯片发展方向。
谷歌Waymo:采用英特尔CPU+AlteraFPGA方案,英飞凌MCU作为通信接口。
谷歌Waymo的计算平台采用英特尔Xeon12核以上CPU,搭配Altera的Arria系列FPGA,并采用英飞凌的Aurix系列MCU作为CAN或FlexRay网络的通信接口。
百度Apollo:恩智浦/英飞凌/瑞萨MCU+赛灵思FPGA/英伟达GPU。
百度无人驾驶样车采用IPC(IndustrialPersonalComputer,工控机)方案,但工控机的体积和功耗难以满足量产化要求,因而百度也推出了适合于量产的域控制器嵌入式方案。
将各个传感器的原始数据接入到SensorBox中,在SensorBox中完成数据的融合,再将融合后的数据传输到计算平台上进行自动驾驶算法处理。
百度自动驾驶专用计算平台ACU(ApolloComputingUnit)定义了三个系列产品:MLOC(高精定位,MCU)、MLOP(高精定位+环境感知,MCU+FPGA)、MLOP2(高精定位+环境感知+决策规划,MCU+GPU)。
特斯拉:从MobileyeASIC到英伟达GPU。
2014年特斯拉发布Autopilot1.0,搭载1个前置摄像头、1个后置倒车摄像头(不参与辅助驾驶)、1个前置雷达、12个超声波传感器,视觉芯片采用MobileyeEyeQ3,主控芯片采用NVIDIATegra3。
2016年底特斯拉发布Autopilot2.0,搭载3个前置摄像头(不同视角广角、长焦、中等)、4个侧边摄像头(左前、右前、左后、右后)、1个后置摄像头、1个前置雷达(增强版)、12个超声波传感器(传感距离增加一倍),主控芯片采用NVIDIADrivePX2,处理速度为Autopilot1.0的40倍。
奥迪:MobileyeASIC+英伟达GPU+AlteraFPGA+英飞凌MCU的多芯片集成方案。
全新奥迪A8公开了自己的zFAS控制器方案。zFAS共有四块高性能的处理器:
1) Mobileye的EyeQ3负责视觉信息处理,包括交通标志识别、行人识别、碰撞提醒、车道线检测等;
2) 英伟达的TegraK1SoC负责360°环视影像;3)Altera的Cyclone5FPGA负责传感器融合、地图融合、辅助泊车等;4)英飞凌的Aurix系列MCU用于交通拥堵控制、辅助驾驶等。
我们判断,在汽车主控芯片领域,GPU仍将保持通用汽车主控芯片的主流地位,FPGA作为有效补充,ASIC将成终极方向。
当前人工智能及智能驾驶算法尚未定型,GPU作为通用加速器,预计仍将在相当长一段时间内保持其汽车主控芯片的主流地位;FPGA作为硬件加速器,料将成为GPU的有效补充;
分享到:
 
反对 0 举报 0 收藏 0 评论 0
沪ICP备11026917号-25