2025-12-10

蔚来十二全栈技术 -「芯片和车载智能硬件」篇

当一辆车在暴雨中自动避开路面塌陷,在浓雾中精准识别百米外的抛锚车辆,这背后不仅是算法的胜利,更是一场由芯片与智能硬件主导的感知、计算与执行的革命。

通过自研芯片、超感系统以及中央计算平台的垂直整合,蔚来构建了从“神经末梢”到“超级大脑”的全链路技术闭环。这种全栈能力不仅打破了传统车企对供应链的依赖,更将智能硬件标准推向了新高度……

感知革命:AQUILA 天鹰座超感系统

在蔚来,每一辆车的顶部都有一座瞭望塔式传感器阵列。这种瞭望塔式布局与天鹰座的形状遥相呼应,且与“全天候做到看得清、看得远、看得全”的寓意完美契合——AQUILA 天鹰座超感系统(下文简称“AQUILA”)的命名灵感来源于此。

2021年ET7发布,AQUILA 天鹰座超感系统正式上车。对智能驾驶系统而言,车辆感知的准确性是影响其安全、效率和舒适的关键因素之一,而感知的准确性十分考验硬件能力与软件算法。作为全车的“眼睛”,AQUILA在硬件配置、软件算法两方面都卯足了劲,全方位捍卫用户利益。

首先,在硬件配置上,AQUILA拥有33个高精度传感器。其中,最引人注目的是全球首个量产的 1,550nm 激光雷达,相比主流 905nm 方案,探测距离从 200 米提升至 500 米,大幅提升了感知范围,更好实现驾驶安全。

其次,通过全栈自研算法,AQUILA可以为车辆提供以下四类信息:

· 告知车辆可行驶范围:给出地面标线、物理障碍物大小,生成可行驶范围,车辆可判断横/纵向可行驶区域

· 告知车辆行驶法规内容:给出交通标准、标线的类型,车辆按交通规则行驶

· 告知车辆障碍距离和运动状态:输出障碍物的距离、是静止还是运动中,以便车辆判断什么时候对其做出什么响应更安全、更合理

· 告知车辆障碍物的类型:输出障碍物类型,供车辆判断需如何响应,如识别到行人,则需要礼让行人

🚘AQUILA超感系统可以告诉智能驾驶系统周围有什么,车在哪儿以及道路结构是什么样的,并基于上述结果,让智能驾驶系统更好地决策出下一步该做什么,帮助用户实现更优质的智能驾驶体验。

【 从2022年ET7车型上市开始,AQUILA 天鹰座超感系统已实现全系标配。】

⚽️ 感知范围超40万m²≈60个足球场  

伴随ET9的发布,全面升级的Cedar AQUILA 天鹰座超感系统,最大可感知范围超过40万平米,相当于60个足球场大小,是全球量产车中搭载的最强感知系统

· 前向实现了视觉、激光雷达和4D成像雷达的三重感知冗余

· 侧后向实现了视觉和激光雷达的双重环视感知冗余,大幅提高了主动安全和智能驾驶的可靠性

· 极大提升了智能驾驶的表现,也是主动安全能力的坚实基础

在 AQUILA “看得清”的背后,不得不提到另外一位功臣——蔚来首款自研芯片“杨戬”,凭借运算快、功耗低等特性,“杨戬”芯片助力AQUILA激光雷达看得清、算得快,二者功能协同,为系统提供数据闭环迭代。

神经末梢:激光雷达主控芯片「杨戬」NX6031

当行业还在用通用芯片处理激光雷达数据时,蔚来已推出首颗自研激光雷达主控芯片「杨戬」。

杨戬芯片配备了8个9bit的AD模数采样,每通道采样频率高达1GHz,可高效捕获激光回波信号。

🚘在强大的计算能力加持下,“杨戬”芯片对点云处理延迟优化30%,每秒处理点云能力高达8百万点,并可同时接收原始数据和点云数据,为整个系统提供更好的数据闭环迭代,同时降低50%的功耗。

计算中枢:蔚来中央计算平台「ADAM」

在 ADAM 平台内部,四颗 NVIDIA Orin 芯片组成的异构计算阵列,正在创造行业最高算力的新范式。但这不仅是算力的堆砌,更是一场电子架构的革命。

蔚来中央计算平台ADAM可以将过去在不同域(如智舱、智驾)的功能转移到集中的计算平台,大幅减少控制器的数量,结构更精简,体积减小40%;同时省去大量通信线束和支持电路,操作顺滑。而且整体的E/E架构也更加扁平,更容易实现整车OTA的灵活部署和功能升级。可满足高性能计算、高功能安全等多层级需求。

伴随ET9的发布,全面升级的「Cedar ADAM」蔚来中央计算平台再次刷新行业最高车端计算性能,融合智能座舱最强芯片与自研高性能智驾芯片,2颗「神玑」芯片可实现行业8颗旗舰芯片的算力;同时实现了六域融合,实现了行业最高集成度。

🚘ADAM 突破了传统分布式架构的算力孤岛,跨域贯通,智能管理全车任务,能让芯片根据任务需求动态分配算力。例如,在城区道路自动分配更多算力给图像处理,高速场景则向激光雷达数据倾斜资源。

智驾大脑:高性能车规智驾芯片「神玑」NX9031

神玑是蔚来首颗自研的智能驾驶芯片,其核心部件由“CPU+NPU+ISP”组成:

· 自研32核超强CPU是行业首个32核超级并行,可以支持多任务并行计算,可以处理智驾过程中的各种复杂场景

· 自研推理加速单元NPU(俗称“AI芯片”),可以与蔚来的智能驾驶算法强强联手,让用户的智能驾驶体验更优

· 自研图像信号处理器ISP,具备业界最高每秒65亿像素处理能力

具体来看,三大件之间相互配合实现了“一颗更比四颗强”的效果:

ISP:感知看得清

在摄像头中,拍到的百万或千万个像素点,要转化成人眼看起来美观的照片,全靠ISP。

而在智能驾驶中,车载摄像头时时刻刻都在拍摄图像,再传递给车辆进行融合、识别和后续的规划。对神玑的ISP而言,相当于同时用135个iPhone 15主摄像头开摄像模式,且每个摄像头的处理延时不超过5ms(行业平均水平20ms)。还可以有效应对各种明暗光线挑战,如高速行驶明暗变化的隧道、夜间头顶闪烁红绿灯俯视昏暗车道线等(业界最高26bit处理位宽,支持HDR)。

值得骄傲的是,神玑ISP是首个运用行业最前沿「AI调效」的,从全人工优化升级到全AI自动调节参数,通过“机器学习”训练出对“机器眼”最友好的参数,大幅提升感知精度。

NPU:规划算得快

神玑的推理加速单元NPU——俗称“AI芯片”——采用蔚来独创的众核异构资源池架构,配以专用的硬件调度单元和Transformer加速单元,支持BEV模型、占用网络、端到端识别等模型。

同时凭借全栈自研的体系化能力,蔚来的硬件设计与蔚来的智能驾驶算法强强联手,默契配合。

CPU:任务想得全

车辆在智驾运行中要处理的任务是不计其数的,处理的场景更加复杂,并且与车辆安全息息相关。感知、控制乃至于数据闭环、座舱计算等等业务,都需要要并行运作;海量的数据和指令,都要以极低的延迟进行传输和调用。

因此,在神玑上,蔚来采用了:

· 业界最大的32核架构;

· 远超业界同级芯片的指令处理速度;

· 支持感知、计算、规控、数据闭环、群体智能等超多实时任务,并行计算。

在行业发展的“变革期”,如何减少核心技术依赖、避免卡脖子难题,是每一位技术从业者都要时刻思考的课题:

蔚来通过AQUILA超感系统、激光雷达主控芯片「杨戬」、中央计算平台「ADAM」以及高性能车规智驾芯片「神玑」的技术布局,构建了“感知-决策-执行”的数据闭环。并通过这些硬核技术给出了不同于行业“软件定义汽车”的新答案——软件算法的持续创新往往需要以硬件技术的底层突破为基础支撑。