您的当前位置:首页 > 休闲 > 油车时代的三大件是长津湖,智驾时代的芯片就是上甘岭 正文

油车时代的三大件是长津湖,智驾时代的芯片就是上甘岭

时间:2024-11-24 05:32:22 来源:网络整理 编辑:休闲

核心提示

世上无难事,只要肯登攀,很多人喜欢登山,追求的是登顶和翻越高山之后的成就感。自芯片荒以来,本土车企这几年时间也爱上了登山,他们登的那座山叫芯片。在东邪西毒里,借着欧阳锋的口,王家卫说,年轻的时候看着大


世上无难事,油车只要肯登攀,时代时代很多人喜欢登山,大的芯岳阳市某某软件开发厂追求的长津湖是登顶和翻越高山之后的成就感。

自芯片荒以来,智驾本土车企这几年时间也爱上了登山,片上他们登的甘岭那座山叫芯片。

在东邪西毒里,油车借着欧阳锋的时代时代口,王家卫说,大的芯年轻的长津湖时候看着大山,就想知道山后面是智驾什么,年纪大了,片上就不想知道了。甘岭

芯片是油车中国的老大难,也是一座很难翻越的关山,在这座大山的岳阳市某某软件开发厂背后,是一个又一个异构计算单元。


我们以黑芝麻(参数丨图片)A1000的异构计算架构图为例,展开介绍一下以智能驾驶和智能座舱为主要应用场景的汽车大算力芯片内部的各类异构计算单元。

这类大算力芯片一般会包含CPU、GPU、NPU、DSP、ISP、安全MCU、视频输入输出、计算机视觉引擎、各类通信接口。


CPU可以针对不同应用的实时性和安全要求选择运行不同的操作系统,管理内存、存储、文件系统、系统外设等各类资源,进行逻辑计算,提供安全支持。

GPU主打图像处理,负责管理多个高分辨率显示器的图形渲染和纹理处理,支持优先处理仪表屏之类的实时应用。

DSP进行滤波、降噪等数字信号处理,既可以提供定点计算能力,也可以进行复杂的浮点计算;ISP既可以用于图像的感知,也可以用于图像的合成。

NPU是大家目前最看重的神经网络处理器,有时也被称为BPU或AI引擎,主要用于神经网络的推理工作。

当然了,鉴于AI已经发展了六七十年,CPU和GPU也具备一定的AI能力,CPU可以进行轻量级单次推理的低延迟AI任务,GPU的并行特性和大吞吐量使其可用于处理媒体、3D和渲染中的AI任务。


芯片设计的主要工作是对各种各样的计算单元进行灵活的组合,选择合理且有效的算力类型和算力规格,满足应用场景的多样性需求,并达到算力、功耗、成本的最佳平衡。

不过,在目前这个时代,大算力芯片设计最主要的任务是聚焦最新的神经网络架构,使其NPU或AI引擎的设计可以做到与现代神经网络协同优化。

早起的鸟儿有虫吃,早起的虫子被鸟吃。

有的领域存在先发优势,有的行业存在后发优势。对于算法不断变化的智驾来说,自动驾驶芯片做得越晚,就越是能够适应技术路线的不断演变。

在2021年的GTC大会上,英伟达推出了Orin X的下一代芯片Atlan,到了2022年的GTC大会上,豪横的黄教主砍掉了已经花了好几亿美金的Atlan,直接推出了新的芯片-雷神Thor。

这次改变的核心原因并不在于Atlan的芯片算力有点低,要知道,虽然Atlan的芯片算力为1000T,Thor的芯片算力曾经一度提高到2000T。

但是,到了2024年的GTC大会上,出于一些不可言说、难以琢磨的原因,这颗芯片的算力又被阉割成了1000T。


事实上,跟Atlan相比,Thor最核心的转变在于加入了Transformer引擎。

之所以几亿美金说打水漂就打水漂了,黄教主连眼睛都不眨一下,是因为在2021年的AI Day上,特斯拉推出基于Transformer的BEV,一下子打开了整个自动驾驶行业的视野:CNN的时代结束了,Transformer的时代到来了。


华为曾经在2022年推算过,到2027年,自动驾驶系统中的CNN和Transformer的计算比例将从2022的七三开进化成届时的三七开。

为了支持占据更大比例的Transformer计算,芯片层面必须引入原生的Transformer引擎,做好底层支持,才能保证上层自动驾驶算法的精度、时延。


这个几亿美金的教训揭示了一个深刻的道理,要做出一颗成功的自动驾驶芯片,必须非常了解自动驾驶算法。

在NOA市场屈居英伟达之下、在一体机市场独占鳌头的地平线将自己标榜为披着芯片厂商外衣的算法厂商的核心原因就在这里。


自动驾驶系统内部有成千上万个小模型,这些模型会用到哪些具体的算法,需要芯片在硬件层面提供什么样的支持,特别考验自动驾驶芯片厂商在算法上的实力。

男女搭配,干活不累,软硬协同,才能得到力大砖飞的系统。

对智能系统而言,芯片只是基础,如何与软件深度协同并将协同效应最大化才是制胜的关键。

厂商若不提供可以释放硬件性能的底层软件,对开发者而言,芯片就是一块板砖。


接下来,先摆事实再讲道理,谈一谈为何芯片厂商需要实现软硬协同。

摆事实,自2016年起,特斯拉采用英伟达的Drive PX 2开启了自动驾驶的自研之路,版本号为HW 2.0,物理算力是24TOPS,后来升级为HW 2.5,物理算力提高到80TOPS。

2019年,特斯拉推出第一颗自研的自动驾驶芯片,算力为72TOPS。


算力下降了,但在以FPS为度量指标的真实性能上,HW3.0相较于HW2.5提升了足足21倍!

这个比较不只说明了特斯拉的超级强悍,还告诉了我们一个铁一般的事实:只有深谙自家芯片的硬件特性和技术秘密,才有可能设计合适的算法压榨硬件算力,将软件性能发挥到极致。


再讲道理,系统的性能=计算算力x计算带宽x计算算法。

这里的计算算力是硬件处理器可以释放的峰值计算效能,大家津津乐道的芯片算力多少个TOPS指的就是这个指标。计算带宽指的是对峰值计算能力的有效利用率,取决于芯片架构、编译器的优化程度。


计算算法指的是算法效率,可以理解为软件在硬件上的驻留时间或者资源占用情况,停留时间越长,对硬件潜力或者说性能的挖掘就越大,这个指标取决于芯片厂商提供的算子的效率和上层算法开发商的算法实力。

看到了吧,芯片从来不只是芯片,而是芯片+底软的整体解决方案,如果做芯片只是拿着各种IP核搭积木那么简单,国家何至于每年要进口四五千亿美金的芯片?

做芯片到底有多难,三天三夜也讲不完,隔壁的手机厂商最了解这一点。

君不见,已经过去了10年的时间,小米至今还没有拿出第1颗真正自研的手机芯片?

责任编辑:张新颖_NAB7458