42号车库
2026-05-13
2019 年,特斯拉 HW 3.0 上车,拉开车企自研智驾芯片的序幕。在大洋彼岸的中国,当蔚小理三家新势力迈过生死线之后,在 2021 年左右,全部开启自研芯片项目。
此后,辅助驾驶成为了车企之间竞争的核心,高速辅助驾驶、城区辅助驾驶、车位到车位等功能陆续落地。经过数年的研发,各家车企的自研芯片也终于端上了桌。
2026 年,理想 L9 Livis 亮相,理想自研芯片马赫 M100 随之面世。
马赫 M100 单颗有效算力 1,280 TOPS,而因其采用数据流架构给算法软件更大的优化空间,单颗马赫 M100 的有效算力达到英伟达 Thor U 的 3 倍。全新 L9 的双马赫 M100 芯片,有效算力可以达到 Thor U 的 5-6 倍。
根据理想汽车 CTO 谢炎的透露,单颗马赫 M100 的成本也比外购芯片更低。
不过,自研芯片潜在的坑点非常多:
一方面芯片算力、成本的平衡,如果自研芯片成本比供应商更高,性能比供应商更弱,显然不会被市场接受。
另一方面是能否给用户带来实际的差异化价值。如果运行辅助驾驶算法延迟更高、或者不太稳定,体验上还不如供应商方案,那同样也不会被市场接受。
同时,自研芯片是相当大的投入。一家公司如果没有足够体量的营收,没有足够的研发投入,自研芯片是无法完成的。
也就是说,车企自研智驾芯片的目标其实就是超越英伟达,并且这件事只有头部公司能做。
或许在大多数人看来,车企自研芯片想要超越英伟达是天方夜谭。但实际上,类似的「超越」已经发生了很多次。在手机行业,以苹果、华为为代表的厂商,自研芯片能够超越供应商方案,给用户在性能、摄影等多方面的差异化体验。在汽车行业,特斯拉 AI4+FSD 给用户带来的,则是类人、丝滑的辅助驾驶能力。某些观点认为,特斯拉 FSD 实现了「断代式领先」。
在自研芯片这件事上,理想汽车的目标是成为苹果一样的企业,不单独售卖处理器,但是芯片与操作系统结合,提供远超同行的能力。长期来看,这就是理想汽车的核心竞争力,以及更多车企无法企及的技术壁垒。
就在不久前,42 号车库和业内多家媒体与理想汽车 CTO 谢炎进行了一次深入对话。在这次对话中,谢炎揭秘了马赫 M100 研发历史,深入解读了芯片设计思路、团队构成,并发表了对行业竞争和未来技术发展的看法。
只有头部企业才会自研
回顾马赫 M100 的研发历史,谢炎回忆,2021 年国内大部分企业都在学特斯拉做芯片,但是大多数只看到了特斯拉的表面动作,没有触及背后的本质。
而理想汽车自研芯片源于这样几点思考:
高算力一定会带来好的辅助驾驶体验,但是依赖外部厂商提升算力速度会比较慢。
区别于传统 CPU、GPU,这颗芯片需要是原生的 AI 计算架构,这方面有创新机会。
成本因素,供应商方案的芯片更贵,算力和成本无法达到平衡。
供应商模式很难提供差异化价值,迭代速度不够快。
长期看,这将是理想汽车保持核心竞争力和壁垒的问题。
非常重要的是第四点。谢炎引用了艾伦·凯(Alan Kay)的一句话:“真正认真对待软件的人,应该自己制造硬件。”这句话于上世纪 70 年代提出。2007 年,乔布斯在发布初代 iPhone 的时候,就引用了这句话。
谢炎谈到,苹果的操作系统团队会告诉芯片团队应该如何设计、解决哪些问题;反过来,苹果的芯片会给其操作系统提供差异化的能力,这些能力是外购芯片无法提供的,这种垂直整合能力是供应商模式无法提供的差异化价值。
而理想汽车的目标,就是要像苹果一样,不仅仅拥有自己的产品,还有强大的系统层(包括操作系统、推理、runtime),有自己的硬件,最终目标是有自己的芯片,垂直整合优势一步步被建立起来。
既然自研芯片这么好,为什么不是每家车企都在做呢?
谢炎有一个这样的判断:一种是头部公司,只有这几家才会做芯片自研,类似现在的苹果和华为。而其他公司因为负担不起研发成本,更多靠采购通用方案。当然,采用通用方案的厂商利润相对较低,但同时对创新、投入的要求都更小。
「理想想做第一种。」谢炎说道,「对我们来说,不是什么芯片都做,而是做 AI 芯片。如果是有志于以 AI 为核心的公司,做 AI 芯片是必须做的事。想成为头部公司,肯定要做这件事。」
2022 年 11 月,理想自研芯片项目立项,开始进行芯片设计。
谢炎指出,设计芯片最重要的反而不在「设计」,而是对需求的理解与分析。
因此,理想芯片团队与模型团队、自动驾驶团队一起设计芯片。芯片团队理解模型、自动驾驶团队究竟有怎样的需求后,再决定如何与产品结合得更紧、效率更高、成本更低地实现出来。
谢炎分享:「我有朋友在苹果的芯片团队,他讲他们的内部设计就是跟 iOS 团队协作,他们提出的很多想法是业界没有的,这些想法不来自于其他方面,就是来自于内部团队最直接的需求。」
理想选择了与传统 CPU、GPU 不同的路线——数据流架构。这意味着,数据可以直接推动计算发生,而不像传统 CPU、GPU 那样,由指令推动计算。这就意味着,完成相同的计算,数据流架构可以有更高的效率、更低的延迟,以及更高的能效比,非常适合辅助驾驶场景。
在谢炎看来,传统 GPU 本质上仍然是为「通用计算」设计的架构。
传统 GPU 最大的优势是通用性强,但问题在于,自动驾驶与大模型推理的大部分任务,本质上都是规则明确、数据流向固定的张量计算。为了兼顾各种不同场景,GPU 内部存在大量缓存、调度与通用计算单元,而这些设计并不一定适合 AI 推理。
马赫 M100 采用的数据流架构,数据流动到下一阶段时,计算也随之发生。相比传统 GPU 依赖指令调度、缓存命中去驱动计算,数据流架构能够减少大量无效的数据搬运与等待时间。
在一篇以谢炎为第一作者的论文《M100: An Orchestrated Dataflow Architecture Powering General AI Computing》中,提到了马赫 M100 的设计理念:并不依赖传统 GPU 那种复杂的多级缓存体系,转而通过编译器与 DMA 显式管理数据流动,让计算与数据传输能够高度并行。这种设计的目标,是在自动驾驶这种对实时性、延迟与能效极度敏感的场景里,获得更高的硬件利用率。
此外,软件团队、操作系统团队同样与芯片团队高密度协同,让理想马赫 M100 芯片在立项后两年时间(即 2024 年)成功流片。
全新 L9 将减少一个核心控制器
根据谢炎的介绍,理想芯片团队目前大概有 200 人,做最核心的 AI 计算架构设计。同时,也有供应商,做集成、外围、后端的工作。
根据芯片框架图,马赫 M100 包含 CPU、NPU、ISP、VPU 等核心,还包括了安全岛以及 I/O 接口的设计。其中,M100 NPU 占有最大的面积,论文中对 M100 NPU 的内部架构、内部通信的方式,以及 NPU 与其他核心的通信方式进行了详细介绍。
M100 NPU 与马赫 M100 其他核心通信主要通过三种方式:
2 个高带宽 AXI 主接口(每个 128 GB/s),让 NPU 直接访问 DDR 和 SoC 资源,而不像传统芯片还要让 CPU 喂数据。
NPU 计算完成后,可以通知 CPU。
CPU 通过低带宽 AXI 与 NPU 通信,主要是下发任务、查询状态以及管理资源。
在 NPU 内部,拥有一个中央控制器(Central Control Block,CCB),以及 14 个张量计算(Tensor Processing Block,TPB)集群。每个集群中包含 4 个 TPB,因此整个 NPU 中有 56 个 TPB。
为了满足 AI 推理中的数据传输需求,CCB 与 TPB 之间通过两套结构连接,分别是二维 Mesh 总线(2D Mesh Bus)以及数据环总线(Data Ring Bus,DRB)。
其中,二维 Mesh 总线为 TPB 集群、CCB、CPU、DMA 以及 SRAM 之间提供了可扩展、高带宽的点对点通信能力。在低拥堵的状态下,任意节点之间带宽最高 256 GB/s,还具备良好的扩展性。同时,DRB 提供了一条确定且高效的广播路径,总聚合带宽最高也是 256 GB/s,非常适合在多个 TPB 之间进行数据广播。具体是用 Mesh 还是 DRB,由软件决定。
另外还有指令链总线(Instruction Chain Bus,ICB)以菊花链的方式,将 CCB 与 TPB 集群连接起来,CCB 内部的 RISC-V 核心会通过 ICB 向单个或多个 TPB 下发指令。
除了最主要的 NPU 核心之外,马赫 M100 芯片还有以下主要模块:
8 路 LPDDR5X 内存通道,共 64GB 容量,可实现最高 273 GB/s 带宽。
CPU:24 核心 ARM Cortex-A78AE。
影像与感知:MIPI-CSI 是一个摄像头串行接口,支持 11 路视频输入;ISP 负责原始图像处理。
功能安全:功能安全岛(FSI:Functional Safety Island)和安全引擎(Security Engine)确保系统符合功能安全标准。
丰富的接口:集成了 UFS、USB 3.1 接口,以及 2 个 10Gb 以太网接口,还有多种低速接口。
从 2025 - 2026 年,理想针对马赫 M100 芯片进行了大量的测试验证。根据规划,马赫 M100 将首发搭载于全新 L9 车型上,并且一辆车就有两颗马赫 M100。
根据谢炎的介绍,得益于马赫 M100,全新 L9 的核心域控制器减少了一个。在此之前,理想的车内有三个控制器,分别是座舱控制器、中央域控制器 XCU,以及辅助驾驶控制器。全新 L9 上,XCU 和辅助驾驶控制器实现了合二为一。
更重要的是,仅比较单颗芯片的成本,理想马赫 M100 对比供应商方案会更低,这还是在有效算力达到 Thor-U 三倍的基础之上实现的。
但实际上,单颗芯片的成本,并不包含隐藏在背后的巨大研发投入。谢炎并不公开理想研发芯片究竟花了多少钱,但是说理想的效率非常高,并且他还当场与我们深入拆解了马赫 M100 究竟怎么能省下成本的。
一方面,芯片真正的成本是出货量 x 单颗芯片的面积,很多时候,出货量的颗数掩盖了芯片面积的差异。
可能会有人认为,汽车的产量远低于手机。手机动辄出货上亿部,而一家新势力车企一年就几十万辆的销量,是无法摊薄研发成本的。但实际上,汽车芯片算力更强,面积远超手机。当达到一定量级时,汽车行业所需的 AI 计算硅片面积会超越手机。
另一方面,在成本因素之外,供应商芯片的价格包含了研发成本和利润,这就导致芯片并不便宜。而理想汽车自研之后,能够实现比较可观的成本节省。
此外,谢炎提出了有效算力。标准算力的芯片,结合软件、模型之后,实现的效果完全不同,而自研芯片的「有效算力」能够以更低成本获得。
当然,所有的低成本都建立在一定的销量基础之上。谢炎说道:「若仅 5 万、10 万台,难以摊薄高额成本;当销量达到几十万台甚至更高时,自研芯片会非常划算。」
虽然谢炎没有向我们正式确认,但从这句话能看出来,马赫 M100 不会仅搭载于全新 L9 一款车上,未来一定会有更多理想车型将用上自研芯片。可以确认的是,马赫 M100 仅有一个版本,不会有高、低算力的区分。
在芯片对于汽车业务的影响上,谢炎希望达到类似苹果手机的效果:「苹果不单独售卖处理器,但芯片与操作系统结合,能提供远超同行的能力。我们的出发点是,必须具备超出他人的能力,即差异化。我们能提供更高算力,结合自身模型,实现更好性能与体验。我们希望芯片推出后,能帮我们建立这种竞争优势,最终为用户带来更好体验。」
这个差异化体验到底是什么?总结来说就是让车开起来更像一个人。具体指标包括看得更远更准、控制车辆更加丝滑、响应要更快,以及处理的频率要高。
汽车是最先落地的 AI 代理
在谢炎看来,AI 对汽车行业的影响,并不只是辅助驾驶能力的提升,而是正在把汽车推向一个全新的产品形态——具身智能。
谢炎引用了黄仁勋的表达,在数字世界里,AI 是移动电子;而在物理世界里,AI 下一步要做的是移动原子。
所谓的Agent,如果只存在于手机、电脑中,本质上仍然停留在信息处理层面。但一旦进入物理世界,它就必须具备行动能力,能够在三维空间中完成任务。而汽车,恰恰是当前最成熟、最具规模的具身智能载体。
一辆车,天然拥有传感器、算力、执行机构和移动能力——摄像头负责感知,芯片负责决策,底盘与动力系统负责执行。相比从零开始打造机器人,汽车几乎已经具备了成为机器人的全部基础条件,缺的只是把这些能力真正打通。
也正因为此,理想并没有把 AI 简单理解为一个应用。
过去二三十年,软件以 App 的形式存在,每一个应用解决一个明确的问题。但在 AI 时代,这种模式正在发生变化。理想更倾向于用角色来定义未来产品——不是一个个工具,而是一个可以持续成长、不断扩展能力的智能体。
在车上,司机这个角色可以完成驾驶任务,秘书的角色帮你完成日程安排,同样车也可以有管家的角色,帮你执行更多复杂的任务。
而汽车之所以会成为这一轮 AI 的重要入口,本质上还是规模。
谢炎提到,汽车产业拥有数千亿级别的市场规模,这意味着它可以持续投入、快速迭代,把传感器、算力、控制系统不断做到更成熟。当这些基础能力被打磨到足够极致之后,再迁移到机器人等其他形态上,成本会更低、路径也更清晰。
这有点类似 PC 之于智能手机——不是从零开始,而是在上一代成熟技术的基础上完成跃迁。
从这个角度看,汽车不仅是 AI 落地的场景,还是下一代具身智能产业的基础设施。
附:对话实录
1. 自研芯片从 2021 年开始
Q:理想从什么时间开始考虑做自研芯片?是在什么条件和环境下,认为当前的算力平台和算法配合不适用于当今的发展?当时是怎么思考的?
A: 我 2022 年加入理想汽车,想做芯片的想法其实更早,是在 2021 年。当时国内大部分企业都在仿照特斯拉做芯片,但大多只看到了特斯拉的表面动作,没触及背后的本质,比如特斯拉最初用英伟达芯片,后来却选择自研,这背后的原因其实很少被人深入讨论。
我们选择自研芯片,主要基于以下几点考虑:
第一,我们当时认为大算力给了算法更大的设计空间,2022 年还没有 Scaling Law ,虽然 Scaling Law 已被 OpenAI 认知,但大众尚未广泛认知。但我们隐约感觉,更大的算力会带来更高的性能,更高的性能带来更好的体验,这条路是通的。再回顾更早的计算机发展历史,对算力、内存的需求,没有哪一天是够的。七八十年代,只有几 K 内存、几百 K 频率,最早的计算机几十 K、几百 K 内存就很高了,1 兆赫兹频率就是高性能计算机。如果 AI 的能力不断增长,离自动驾驶 L4 完全替代人类还有很长的路,需要更高的算力。而技术在快速发展,越来越高的算力需求,我们认为,依赖外部厂商速度会比较慢。
第二,AI 发展到 2020 年,在之前六七十年,计算机的模型主要是冯·诺依曼架构。往后 AI 的应用中,冯·诺依曼架构是一个限制因素。按技术分类,CPU、GPU 是在冯·诺依曼架构上做优化,我们认为再往后可以 Native for AI 设计出一种完整的计算机架构,从软件到硬件,存在大量创新机会。回顾人类和计算机的发展历史,计算机体系结构的跃升是某种需求不被上一代技术满足而催生的新一代技术架构。下一代技术架构,为这种新应用场景提供更 Native、更原生的支持,效率更高。以 CPU 为例,英特尔主导了 CPU 发展。80 年代末 90 年代初,图形计算机开始出现,这时有两类人。一类是英伟达的黄仁勋、AMD,他们认为图像计算未来是爆发式增长,而图像计算需要更好的专用架构,也就是 GPU,专门对图形做计算。另外一类,英特尔很长一段时间的理念是图形计算不需要专门的架构,用 CPU 就够了。这是很长时间的一个发展分歧,虽然后来英特尔也做了 GPU,但是没有认真做。英特尔在巅峰时期 2009 年,市值是英伟达的 20 倍,今天反过来了,英伟达是英特尔的 20 倍。
当时英特尔的思路是 CPU 也可以做图形计算,只不过是效率不高。我认为 GPU、GPGPU(通用图形处理器)做 AI 计算肯定也可以,但我们认为可以有更好的机构专门围绕 AI 做计算架构,这个计算架构可以是完全为未来大部分的计算做服务,前提条件是 AI 计算在快速增长。今天这个世界未来增长最快的计算形式就是 AI 计算,传统的 GPU 和图形计算,以计算量来说,每年全球的量增长不会很快了。这是从技术上来讲,有创新的机会。当然还有成本考虑,供应商的芯片还是挺贵的,我们自己设计会更便宜,当然我认为这是第三要素。前面的要素是快速发展时,需要有自己的能力。
我做过编译器,更早些年做计算机体系架构相关工作,先从底层做起,本科学电子工程,研究生学计算机架构,之后做编译器,再往上走是操作系统。做了这么多年,再往回看,有机会在软件工作中掌握硬件与底层联合设计时,就能做超越性设计,而非依赖供应商。艾伦·凯说:“真正认真对待软件的人,应该自己制造硬件。”我非常同意这句话,这话出自上世纪 70 年代。若理想汽车要投入,应该像苹果那样,不仅有自己的产品,也有强大的系统层(包括操作系统、推理、runtime),再往下有自己的硬件,最终目标是有自己的芯片。在这个技术链条上,自己会催生垂直整合的优势。
苹果和安卓的区别在于,苹果的操作系统会告诉芯片该如何设计、解决哪些问题。反过来,苹果的芯片会给其操作系统提供差异化能力,这些能力不是仅靠安卓或外购高通芯片能提供的。这种垂直整合的能力是供应商模式提供不了的差异化价值。汽车后续竞争会越来越呈现这种状态:头部公司会像苹果、华为一样,其他一些公司因负担不起研发成本,更多靠采购通用方案(即货架方案),将其组合并在基础上优化,形成这种方式,但利润低,对创新要求小、投入也小。两种方式都存在,当然理想想做第一种。对我们来说,不是什么芯片都做,而是做 AI 芯片。如果是有志于以 AI 为核心的公司,做 AI 芯片是必须做的事。想成为头部公司,肯定要做这件事。
Q:从 2021 年决定自研芯片,到现在马赫 M100 芯片要搭载于全新一代理想 L9,研发的节奏是不是符合预期?
A: 基本符合预期,因为这是个长期的事情,我们一开始规划得非常精细。2021 年决定开始做芯片,2022 年 11 月立项,2023 年开始大规模实现,2024 年流片,2025 年回片、验证测试,2026 年上车。这款芯片实际上花了 3 年半时间,因为前期还有准备工作,比如组建团队等。如果规划清晰的话,这件事就像瀑布流水一样往前走。
2. 数据流架构的创新
问:自研芯片是因为在实际场景中遇到了什么问题?如何解决的。
A: 首先你需要更大的算力,几千 TOPS、上万 TOPS,算力的成本挺高的。在需要更大算力的同时,也需要负担得起成本。如果供应商的芯片有一半的价格,3 倍的性能,那我们也没必要自己做。因为供应商要满足所有的客户,不可能只给一个客户提供,所以它很难做非常极致的定制化需求。为什么苹果会自己做硬件,而有些公司要购买高通?因为苹果有极致的需求,而这些极致的需求,它的供应商很难提供。它的供应商高通说,我有其他客户也有需求,我无法给你定制化。就有点像定制化服务,比如定制化服装。如果你定制一款芯片的话,就很难卖给所有公司。
背后还有一个更大的原因,因为当时没有着力在 AI 上做差异化,但我们已经看到了远期。现在手机的竞争,一开始是百花齐放,都是安卓、都是供应商的芯片,就是在深圳。我看到当时最小的手机公司只有 20 人,它在深圳也出货上千万。因为行业初期是需求爆发式增长,只要你能做出东西就有人买,但到了行业后期,同质化越来越严重,聚集度越来越高。这时你要比别人做得更有差异化,你就不能在上层,就是上层的空间能做的很小了,基本上能填的坑都填完了。这时你要做出更大的差异化,就要往底层走了,就是你的系统、芯片、模型。
从短期来讲,成本是一个原因,还有自己的适配速度。因为你和供应商合作的时候,适配速度会慢一些。如果有研发团队,迭代速度就会非常快。
从长期来讲,就是核心竞争力和壁垒的问题。就像今天的 PC 都用 Windows 系统、英特尔和 AMD 芯片时,就觉得苹果(电脑)很特殊,愿意为它付出溢价。这时每一家 PC 的笔记本没有什么差别,你这时候就没有差异化。今天汽车行业卷,一定程度上也是这个原因。这时要做差异化,这个差异化来自哪呢?上层的东西容易被复制,而你越往底层、越垂直整合,壁垒越高。这是我们很早时的战略布局,就是要往底层走,要往更难、更核心的方面走。
当然不是所有的底层,我们都会走。这里有一个误解,就是车企要自研就代表所有方面都自研。并不是,我们只自研那些对长期竞争有影响,可以继续发展的技术。如果这项技术已经没有发展了,做自研也得不到差异化的优势。只有这项技术还在高速发展,天天在变化,那这个投资是有价值的。如果实施得好,迭代速度和进步速度会比行业高1个数量级,这会让你获得更进一步的竞争优势。这是我们当时考虑的短期和长期的因素。
Q:我们自研芯片用了 2 年时间成功流片,这个业绩在业界比较快,咱们取得这个成绩做对了什么,以及在这个期间遇到了什么挑战,是怎么解决这个挑战呢?
A: 我们和其他类似条件的公司相比,我们确实是比较快的,我们启动最晚,但完成时间并没有晚多少。
第一,我认为最重要的是联合设计。设计芯片最重要的不是设计,而是对需求的理解与分析。分析对需求、理解透需求,再转换成对设计的要求,这是最重要的过程。而后面的过程,更多是清楚需求以后,怎么把它实现出来。所以我们前期花了比较大的工夫,就是磨刀不误砍柴工。我们内部团队一开始就在一起协同做分析。我跟芯片团队说,大家非常认同这一点,这个芯片不是芯片团队设计的,而是跟模型团队、自动驾驶团队一起设计的。没有他们的输入与认知,没有大家一起坐下来分析,就会做偏,而做偏就会带来时间的浪费。
第二,选择什么样的架构也很重要。选对架构,也不是说会让速度变快,就是可以把从软件到硬件做到更好的平衡,让设计复杂度更清晰更可视。
第三,在整个过程中,大家一直在配合,并不只是芯片团队在做。软件团队、操作系统团队跟芯片团队协同非常高。这种类似的协同度,我在其他公司没有看到过,我以前工作的任何一家公司没有看到过这种高密度、跨部门的协同。
Q:如果自研芯片的优势如此之多,部分企业跟我们的想法一样也在做,那什么样的企业才有这种能力去做?您提到的壁垒是什么?是不是任何车企都能做这件事?
A: 这是个好问题,大家都有梦想要成为世界第一的公司,但现实很骨感,不是每个人都能做到。我认为有以下条件:
第一,体量。要有一定的体量,如果体量太小,没法做自研。回到行业来讲,汽车是大 GDP 产业,每家公司的研发投入都不小。研发芯片这件事,产业要具备一定规模——如果是玩具产业,为玩具做芯片,研发规模不足以支撑高资金投入,也没法长期坚持。所以很少有玩具公司投入资金做芯片,即便利润率很高,但产业规模小,不行。
第二,能力。不是行业里每家公司都有能力做。有没有能力取决于两部分,其中一部分是体量——行业里有体量排序,营收到了一定规模,才有钱投入。
第三,认知。有人选择做,有人选择不做;有人选择重投入,有人选择轻投入。如果前两个条件都一样,接下来取决于认知。比如你认为自研芯片不会带来长期价值,就可以选择不做或小投入,也有公司选择做一颗试试看,是投石问路的方式。如果你非常坚定,相信AI是能带来差异化的技术,这事就必须做——当然,必须做也是一步步来的,所以认知很重要,它决定了你做不做。
第四,团队。我认为前几个条件是刚性的。因为认知到了、体量够了、有资金,即使没有团队,也可以构建团队、匹配合适的人。团队虽然重要,但跟前三个条件相比,没那么重要;数据流是更不重要的要素。
我个人认为,肯定有一种新的 Native for AI 架构,比 GPU 做 AI 的效率更高。当然,GPU 做图形计算效率已经很高了。但这不算新架构——如果讲架构的话,从上世纪 70 年代开始,MIT 两位教授就提出了相关理论,我读博时的导师也在提。这个架构过去几十年没发展起来,原因是计算规模、数据规模不够大。当计算规模、数据规模大到一定程度时,你会发现冯·诺依曼架构是控制流、集中式的,不是不能扩展,但扩展的额外代价更高、效率更低。所以你可以设计专门针对单一形态的、全新的计算架构,我们一直在坚持走这条路。
Q:对于一颗推理芯片来说,内存带宽很重要。马赫 M100 芯片现在的内存方案是在外面,还是放在片上?
A: DDR 的话是外面,在片上是 SRAM,片上 SRAM 会更大。这决定了我们并不需要去 DDR 大量搬运数据,因为一旦走 DDR,性能就下降了。
我稍微讲讲跟处理器体系架构相关的事,因为我们用了数据流架构,更有优势,不需要去 DDR 走一圈,可以把数据放在 on chip 的 memory 里面,它速度会更快,这也是数据流架构带来的优势。
Q:所以它的 SRAM 的尺寸相当大,是一个大的数量级?
A: 应该说不小,而且我们是分布式 SRAM,跟其他架构不太一样,有的 SRAM 就是一整块,我们是分布式。
问:这个 SRAM 是 NPU 专用,还是 SOC 共用的?
A: 不太一样。这个结构的话,我们其实还没有完整的展示过。在芯片里面处理器的话主要分两部分,一部分是会有些 CPU 核,大的 CPU 核用来跑控制命令,比如说像 Linux 控制,控制逻辑基本上在 CPU 上。然后有一大半的面积,超过一半的面积是完全做 AI 计算,这个 AI 计算的部分是一个数据流架构。然后我刚才讲的那个 SRAM,其实大部分都在 NPU 的这部分面积里面,在里面它是一个分布式,比较大。
Q:刚刚看到了模型的应用效率。做大芯片算力,是不是为了提升模型的上限呢?
A: 是的。模型上限跟提供的算力和计算规模有一定的正比关系,会长期保持正比关系。虽然有人说,可以用更小的规模达到同样的效率。但从大的规律来讲,效率和规模并不矛盾的关系,永远可以追求更高的规模,在同等规模下,不断提高效率,这两个是成分,并不是对立的。更不要说这辆车,除了能做自动驾驶外,还希望做更多的事情,所以算力是基础。
说到汽车之外,Agent 起来以后,现在可以感知到,现在云端推理的算力在涨价。因为一旦应用规模上来以后,越来越主动时,算力的成本就会变大。回过头来讲,你希望有更大的规模,头部公司就会想,如何更好地为自己的成本与效率负责。
3. 芯片和算法团队紧密协作
Q:想哥在财报会上讲过针对研发组织进行了调整,调整逻辑从基于开发车的功能,到造一个数字人的概念去调整。必须要用这样的组织形式,为什么非得是这样,它带来了哪些好处?
A: 基本逻辑是组织架构要匹配业务架构,业务往哪个方向走,要匹配相应的组织架构。首先是我们怎么看业务和产品?我们觉得它越来越像机器人,一辆车有 7 到 11 个摄像头,有高分辨率的激光雷达,它像人一样,有很多眼睛,它有大脑,有非常强的计算。不用说我们搭载马赫 M100 芯片的车,现在搭载 Thor-U 的车,也是你个人拥有的最强算力,就算加上你的电脑、手机等设备,它的 AI 算力都不如这辆车的算力高。
然后车有自主的行动能力,在三维世界可以行动,所以它的发展方向就是更自主化。最近我们加上了积极主动,这个主动包括我们的产品要主动。它以前是被动的,是个一个工具。未来车会越来越主动,可以主动做很多事。就像 OpenClaw 和 Claude Code,不用你告诉他需要怎么一步步走,更多的是把事情描述清楚,然后它自己去思考这个任务怎么去完成。我认为自动驾驶是三维世界里第一个可以主动完成的任务,它是主动,因为你并没有对它讲,要左拐或右拐。你只要设了一个导航,中间的过程全部由它完成。从这个角度来讲,我们的产品变成了类似具身智能的产品,所以我们的组织就得匹配上,这是基本的逻辑。
问:目前理想的芯片开发团队有多少人,和算法团队是怎么配合工作的?
A :我们大概有 200 人,人员规模会控制在一个精简规模上,做最核心的事。这个核心怎么定义呢?就是做最核心的 AI 计算架构设计。当然也有一些供应商,但主要是集成、外围、后端的活。核心的技术,还是掌握在我们手里。
与算法团队的协作,这也是我们的内部设计的一个好处。内部设计芯片时,芯片团队可以和算法团队非常紧密地协作。而且不是芯片设计出来再合作,而是在芯片设计之初,算法团队就跟芯片设计团队坐在一起,联合做设计,这一点非常重要,这是我认为产品公司跟独立芯片公司相比的一大竞争力来源。因为我们完全知道我们的产品需求,我们完全知道产品需求背后的长期思考,大家可以一起坐下来做联合设计,让设计本身跟产品结合得更紧、效率更高、成本更低。苹果就是这么做的,苹果有 iOS,我有朋友在苹果的芯片团队,他讲他们的内部设计就是跟 iOS 协作,他们提出的很多想法是业界没有的,这些想法不来自于其他方,就是来自于内部团队最直接的需求。反过来讲,这些需求拿到外面,让供应商做,他们试过,但供应商说,我们做不了。因为他作为供应商要满足所有客户,如果专门为你做一个需求,他不愿意干,除非你愿意付一大笔钱。此外还有时间成本。所以内部协同的优势能做得足够好,我相信软件、硬件、操作系统、芯片、模型结合在一起,长期来讲可以构建非常强的组织竞争力。
Q:举例讲讲,算法团队提出了哪些需求,供应商不能满足,但内部觉得这个需求对你们非常有帮助?
A :比如说,我们设计到 2023 年时出现了大语言模型,我们看 Transformer 更重要,2024 年初要临时或额外对 Transformer 做一些优化和考虑。我们内部团队很快,一个月就搞定了。如果是外部供应商团队或外包公司,根本不会接这种需求,除非你给它一大笔钱,甚至还要迭代一年,它是以年为单位。甚至,如果不是外包公司,就是一家芯片公司,它对这种需求根本不接。因为他不会因为一个客流,改变自己的技术路线。所以这种需求,只有内部可以快速响应。
4. 马赫 M100 芯片上车规划
Q:马赫 M100 芯片是通用芯片模型,本次全新一代理想 L9 将智驾、座舱和车控都部署在一个芯片上,这是不是以前行业里讲的舱驾融合呢?
A: 不是的,之前财报会上讲过,舱还是舱,并没有做到舱驾融合。以前车里有三个大控制器,一个是座舱,一个是中央域控制器 XCU,一个是 AD 控制器。现在我们自己做了芯片,还有星环 OS,现在就把后面的两个融合了,没有 XCU 控制器了,就是用一颗芯片负担之前两个控制器的任务,既是 AD,也有 XCU。当然我们 XCU 用的是虚拟化技术,你看起来跑的是两个系统,其实下面提供的算力是在一个芯片上,因为马赫 M100 芯片非常强大。
Q:马赫 M100 芯片会在全新一代理想 L9 搭载,针对 L8、L7 车型会不会像英伟达的 Orin 和 Thor 做了不同版本或不同算力的芯片?
A: 我们只有一个版本,不会涉及多个版本。
Q:是什么原因呢?是因为这是高端车型的专属?还是用户心理的一些考量?
A: 首先 AI 能力是我们很大的差异化,所以我们的算力一定要最强,因此我们会把芯片部署到所有车里。高端车的话,会提供更多的算力,可以用 2 颗,像全新一代理想 L9 Livis 版本就会用到 2 颗。
问:后面像基础版的理想 L6 是否也会搭载马赫 M100 芯片?
A: 因为下一代产品还没有发布,可以持续关注。但长期来讲,车企自研的芯片,如果一个芯片能提供更高的算力、更低的 BOM 成本,跟外购相比,又便宜又好,肯定希望每辆车都用它。
针对您提出的问题,不同价格区间车型采用不同档次的芯片,可能是考虑到某些车型用高端芯片没有意义或者性价比不高。但是当性价比足够高时,所有的车型都应该是高性价比。
Q:之前理想的车型用英伟达芯片是基于 CUDA,自研芯片要使用其他方式来实现了。未来大量的自研芯片产品在车上装配以后,对于老车型,是不是有新的算法的后续支持?
A: 对于之前的车型我们会继续迭代模型,通过蒸馏方法把模型蒸馏到算力更小的芯片上。前面讲过算力更大是有好处的,但是不一定算力更大就更强;至少我们还在继续升级,比如 2022 年的理想 L9 还在升级,我们有这个传统。像 2022 年最早一代的 L9,也可以使用最新的 VLA 司机大模型。
5. 新的芯片,用户体验能提升多少
Q:提一个车主关心的问题,你用了智驾芯片以后,我的体验有什么升级?比如特斯拉的 FSD 好用就是低延时,决策速度更快。对理想来说,智驾体验上有什么提升?
A: 就是更大的芯片、更高效的推理跟车结合时,这辆车开起来更像一个人,表现在几个方面。
一是,看得更远更准。今天的自动驾驶,一些远一点的东西不能看到,或者看得没那么细,还不能理解。这是更远、能准、更能理解。
二是,能不能更丝滑,首先是能不能像人一样去判断,不会急刹急顿,这和是不是有更好的模型相关。而更好的模型需要更大的算力,算力是模型进化到更丝滑的基础。
三是,响应要快。响应的力度,无论是单次决策从视觉传感器输入,再到控制输出,中间的时间要缩短。这个缩短是综合优化,不仅是推理要快,线控的响应速度要快,操作系统消耗的额外时间要短。我们会把时间缩得更短,让它的响应更快。
另外,它的频率要高。就是缩短之后,还能以 15 帧、20 帧,甚至以更高速度对传感器信号做处理,这样就可以做到更丝滑、更安全。
你去评价它好不好。长期来讲,还有一点,就是安心感,安心感就是它跟你的认知是接近的。当然现在行业还没有到这一步,现在只是讲它丝不丝滑、变道果不果断,但如果太果断了,你也害怕。害怕来源于它跟人类的习惯和认知差异还比较大。有点像你让一个赛车手给你当司机,你不舒服,因为他的认知跟你的认知差别很大,虽然他开起来不出事故。所以我们会往这个方向演进,让这个「司机」跟大部分人的开车认知习惯相匹配,这也是一个发展方向。
问:通用芯片,也可以部署在大型算力中心吗?
A: 我说的通用芯片是指它可以跑任何模型,它不是用来做训练。你可以让它推理增加模型,也可以让它推理机器人模型,甚至你部署一个小型的语言模型上去也没有问题,我是指这种通用。经常对比的是 ASIC,以前 ASIC 最早的定义,就是用来做信号处理。有些更极端的是在信号处理里,甚至在信号处理中只能处理某种算法,出了这个算法就无法使用。这种芯片装到汽车里,跑语言模型、自动驾驶、机器人模型都可以,无非是模型容量大小。太大的话,在车上跑不了。
Q:全新一代理想 L9 搭载的马赫 M100 芯片除了提供智驾能力,还有哪部分能力会放在这颗芯片上面?
A: 因为产品还没有发布,具体有哪些能力,请静待产品发布会公布。并且马赫 M100 芯片也不是固定只能放这几个能力,它像是软件升级。你买了 Livis,它有两颗算力芯片,这意味着除了自动驾驶外,可以不断升级其他能力,当然自动驾驶的能力也在升级。就像智能手机一样,今天买的手机的应用,并不是你所有的应用,未来你还可以增加其他应用。
Q:车上的算力大部分时间是闲置的,是否会开发软件适配它吗?如果是一个算力平台,是不是可以延伸到机器人?
A: 我们跟特斯拉是一致的逻辑,马赫 M100 芯片并不只是能做自动驾驶,它完全可以做机器人,机器人也是 AI 推理算法。
Q:我们会考虑做助手在车上吗?
A: 可以部署。但现在还没有发布,具体怎么部署,在发布时会有哪些,未来会增加哪些,请持续关注。
6. 未来技术的展望
Q:今年先推出了马赫 M100 芯片,之后是怎样的速度呢?跟算法团队的配合,会加快你们的迭代速度吗?到了 L4,势必还会有硬件上的迭代。怎样的迭代速度,以及大概到什么时候,可以支撑 L4 的发展呢?
A: 什么时候到 L4,这每个人的观点不一样,没有一个公认的时间表,比如 2028 年或 2030 年就一定会到来吗,这个时间表是没有的。你刚刚讲的是协同,我们在芯片设计时就已经协同了,芯片出来以后,会更紧密地协同,这个协同来自于两方面。
一是,协同优化。我们的模型要设计得把芯片的性能更好地发挥出来,这块在软件上可做的空间非常大。硬件不变,对模型优化和不优化,性能可以差得非常大。
二是,继续协同,就是在下一代芯片怎么做。
问:下一代芯片会是怎样的节奏,1 年、2 年,还是 3 年?
A: 这个还不方便透露。当然这也是战略性的考虑,它不是投机性地做一个芯片,就可以解决所有问题。如果你相信 AI 技术会不断往前走,你这条路就得不断往前走。而不是做一款芯片试试,这代芯片能满足需求了,我就不做了。就像英伟达、英特尔也是一样,这个节奏就是 2 年出一款产品。当然我还不能说,我们现在是什么节奏,只要还相信AI还在增长,但必须能迭代。
我认为现在 AI 的增长,还在非常早期。对于这个问题,不知道大家怎么想。我认为人类还在 AI 应用的早期,ChatGPT 都不算一个大的应用。OpenClaw 这样的 Agent 刚刚开始为人类服务,而且这个服务规模还非常小,很多事情依然做不了,很多人依然没用过。当每个人把 AI 应用于生活的方方面面时,这个计算规模不是几倍、十倍,而是千倍、万倍,所以这个发展还在继续,要永远往前。
7. 模型架构
Q:之前发的论文中里面提到 MoE 混合专家模型。这个词在云端提及的比较多,前几年云端算力理论上是可以无限扩张,这几年考虑到端侧,为什么会考虑到 MoE 模型呢?
A: 端和云从计算本质来讲区别并不大,只不过是今天端侧的计算规模赶不上云侧。云侧有 MoE,有 MoE 的本质也是希望效率更高。看起来几百 B、几千 B的模型,激活参数只有几十分之一,激活参数量决定了内存带宽不用那么高,特别在解码阶段,可以用几十分之一的带宽。所以这是个优化手段,把它搬到端侧,也一样成立。因为我需要更大的模型,所以即使我有很高的算力,我也会考虑如何更高效地利用它。
问:MoE 有个特点,在部署时要把所有专家模型放进去。在这种情况下,咱们做大芯片,是不是也有这方面的考虑?
A:我认为这是部署时的考虑。在设计芯片时,我们在 2022 年、2023 年设计时,还没有这个出发点,因为当时还没有 MoE。所以它不是直接相关。
Q:但是我有一种互相成全的感觉。
A: 这涉及到哪些是战略考虑部分,战略部分是长期不会变的。今天 AI 模型在变,从 2022 年到现在,AI 模型的范式都变好几次,出现 ChatGPT 是一次,后面 RL 强化学习是一次,以及一些看起来很小但很重要的变化。战略看的是不变的东西,不变的东西就是需要更多的计算。此外,一旦应用场景开始爆发时,推理成本是个问题。作为一个系统整合起来优化是可以得到超额的价值,比分开供应设计更好。分开供应设计就是技术进入平台期时更好的分工,这样不用承担研发成本。但是在技术上升期的效率来讲,集中在一起设计最好,因为会迭代得最快。所以我们自研芯片上的战略,更多在于不变的东西,因为变的东西没法抓。
问:咱们的论文里把推理分成理解和生成两部分,这两个部分对模型的需求有冲突。您如何看待这个问题?
A: 我认为理解和生成是一回事。生成代表理解。今天语言模型的基础原理来源,就是它能生成,代表它能理解。就像看到一只猴子能说出你认为逻辑性的话,你肯定认为它有思考能力,你就是靠这个判断。它能说出来,代表它有一个逻辑链条在里面,可以正确地做思考。所以理解、生成和思考,很大程度上是一回事。
8. 成本比供应商更低
问:您说自己做芯片,比供应商更便宜,这是建立在多少出货量的前提下?
A: 肯定要有一定的出货量。
第一,业界常讲「多少颗」,但「颗」并非故事的全部。比如 5 平方毫米是 1 颗,400 平方毫米大 80 倍的也是 1 颗,「颗」掩盖了「面积」的差异。正确的成本计算应是出货量×单个芯片面积,这才是真正的成本。代工厂流片时以面积为计价单位,相同面积下,小芯片如 5 平方毫米可做数千颗,大芯片如 400 平方毫米仅能做数十颗,但总价一致。我们有一个概念是未来汽车对 AI 算力的需求极高,这是前提。算力可换算为面积,单辆车所需的面积决定了 AI 计算成本,乘以产量后这个量并不小。很多人认为汽车产量远低于手机,但我们测算,当达到一定量级时,汽车行业所需的 AI 计算硅片面积会超过手机。因此,汽车行业能支撑 AI 芯片的需求,头部车企更有能力支撑。
第二,成本因素之外,供应商的芯片价格包含研发成本与利润,并不便宜。若我们自研,成本节省的幅度比较可观。今天我们看到的数字,并非未来的销量。
第三,有效算力。当拥有自己的软件和硬件时,看似标准算力的芯片,与自身软件、模型结合后,发挥的效果完全不同。反之,同样效能下,我们能以更低成本获得。因此,自研芯片具有显著优势。当然,前提是具备相应能力,且有足够的销量基础。若仅 5 万、10 万台,难以摊薄高额成本;当销量达到几十万台甚至更高时,自研芯片会非常划算。
Q:自研芯片映射到财务指标有哪些?单车利润的目标是多少?我们的芯片上车之后,希望对汽车销量的提升有多大呢?
A: 关于芯片如何助力汽车业务,我们希望达到类似苹果手机的效果。苹果不单独售卖处理器,但芯片与操作系统结合,能提供远超同行的能力。我们的出发点是,必须具备超出他人的能力,即差异化。我们能提供更高算力,结合自身模型,实现更好性能与体验。我们希望芯片推出后,能帮我们建立这种竞争优势,最终为客户带来更好体验。
我们认为,自动驾驶会成为用户选择汽车的关键因素,若没有这一点,投入 AI 便失去意义。AI 本身会影响用户选择,首先是自动驾驶。我们设计的是相对通用的 AI 处理器,而非 ASIC(Application Specific Integrated Circuit 专用芯片),它不仅能用于自动驾驶,还能支持其他AI模型。我们之所以将 L9 Livis 称为具身智能,是因为它不仅具备自动驾驶能力,其AI能力更超越了自动驾驶,更像机器人,能帮你完成其他事情。衡量芯片是否成功,一是能否带来差异化,二是实际财务表现。
此外,由于我们提供更高算力,若要达到同等有效算力,外购芯片的数量会更多。并非一颗对一颗,真正对比的话,是我们的一颗芯片对应多颗外购芯片,因此成本差异更大。即便是单颗对比,我们的芯片成本本身就更低。
还有一些隐性的研发价值。自研芯片的迭代速度更快,时间成本更低,能更快进化。我们的软件和模型,有了自己的芯片后,迭代速度会加快,芯片推出速度也会提升。这就像下面的车轮带动上面的车轮,越上层的车轮转动越快。
Q:理想在芯片开发上,投入了多少费用呢?
A: 不好讲,我只能说,我们效率非常高。
因为很多人在拿投入衡量能力,但实际上不是这样。如果拿投入衡量能力的话,那世界上永远是大公司主导,小公司永远成长不起来。拿投入衡量的话,英伟达的市值就不会变成英特尔的 20 倍,因为曾经英特尔的市值是英伟达的 20 倍。
问:现在芯片的产能怎么样?
A: 现在 Fab 厂的产能很紧张,基板和封测产能也非常紧张,但我们的供应是可以保障的。今天AI芯片的产能非常稀缺和紧张,但是我们的产能有保障。
问:现在越来越多的厂商自研芯片做设计,未来会不会造成产能的挤兑?
A: 这涉及到个人判断,我认为算力和能源确实是个瓶颈。AI爆发得越好,AI 的应用场景包括 Agent 应用得越多,可能对算力的需求不是线性增长,而是超线性增长。自动驾驶越好,对算力的需求越高。最终反映在生产端,就是代工厂的增长会更快和稀缺,的确如此。
这里有一个误区,那么多芯片,各种创业公司,它们都在求产能。但芯片又是一个如果你比别人差,就一定会卖不出去的行业。它的指标比较单一,它不像衣服和包,青菜萝卜,各有所爱。对芯片的评价维度很单一,就是成本和性能。这就会造成一种情况,就是好和差非常明显,好就是好,不好就是不好。这意味着虽然芯片厂商很多,每家都在做芯片,每家都说要那么大产能,但实际上能真正卖出去的产能是有限的,竞争很激烈。
我们的好处是服务于自己产品,所以我们对产能的需求很直接,没有那么大的不确定性,这也是为什么我们的产能会得到代工厂重视的原因。
9. 行业竞争格局
Q:您说要成为头部车企,就要像苹果这样自研芯片。未来所有车厂都自研芯片的话,竞争格局会像手机格局一样吗?供应商会供应非头部车企的芯片吗?
A: 这个不大好评价,但是可以用手机做类比。通过自研,一方面是头部车企才能支撑自己自研。反过来讲,自研也会帮助头部车企巩固自己的竞争优势,就像苹果与华为。当然不会每家都是这样,后面会有中腰部和尾部,这是一个很大的市场,在这个市场里需要第三方芯片供应商。而在这里面的供应商,也会分高端、中端和低端,产品的需求和价格段会不一样。
Q:3 月份华为推出了 896 线的激光雷达。从理想角度来讲,传感器硬件上的配合,是可以用更高线激光雷达,还是提高自研芯片的算力之后,以摄像头为主,不需要升级和迭代传感器?
A: 这个问题非常好,华为的激光雷达路线,某种程度逼近摄像头的分辨率。其实所谓的 896 线,就是逼近 4K 摄像头的分辨率。
我们会走一条激光雷达与视觉的融合之路。首先我们认为需要激光雷达,因为只有摄像头的话,它没有深度信息,智驾还是需要深度信息。人在判断深度时,通过大脑的计算可以估算出远近。所以我们认为激光雷达加视觉可以提供更好的高密度的深度供给。其实激光雷达提供的就是准确的深度信息和距离信息。我们通过 3D ViT 三维视觉模型把点云、语义、像素全部还原出来,构建更完整的三维世界模型,这就是我们更好的眼睛。
10. 具身智能、AI 发展趋势
Q:从您对 AI 的了解来看,龙虾火了以后,大家对 Agent 的到来充满期待。那汽车的智能体会是第一个吗,它为什么可以成为第一个?
A: 我认为汽车是物理世界,因为 Agent 这个词很大。现在网上各种龙虾,这主要还是在数字世界里。如果放在物理世界里,就会有很多行动。物理世界的智能体,至少它可以帮你完成在三维世界的工作。马斯克说得更抽象的话,它是一个移动原子。就是物理世界的智能体一定要移动原子,因为在数字世界是移动电子。我认为移动原子在接下来会加速,因为移动电子变得越来越规模化和成熟了,接下来大家就会想,我怎么用这种能力来移动原子。
汽车是一个非常好的具身智能产品,首先它具备算力和传感器,天然具备行动能力。不需要重头造一辆机器人,而是这辆车买下来,就有轮子、发动机、算力、摄像头,缺的就是你把它们连在一起,变成一个具身机器人。这比你今天直接做机器人,先把身体拼好,要容易。虽然我们前面宣布直接做机器人,这两者不矛盾。我认为汽车是非常重要的具身产品,而且汽车的规模体量很大,所以它研发以后,会把很多技术做成熟。如果你有上千亿的销售额,可以不断迭代传感器、算力、线控、动力,去不断优化。当这些东西优化非常好以后,再迁移到另外一个身体时会更容易。
这有点像 PC 发展很成熟以后,手机就出现了。最早的智能手机就是把 PC 芯片小型化,笔记本电脑小型化。就是下一个新产业的出现,需要上一个产业把很多技术成熟化、规模化,进而往下一个新的形态去做。
某种程度上,汽车是往更进一步具身智能形态成立的前提条件。就是把它规模化、智能化以后,往其他具身智能走,有很多有利条件。
问:现在讲汽车行业受到了冲击,是不是可以讲汽车行业享受了AI的红利,实现规模或能力上的跃升?
A: 我们相信汽车接下来的发展来自于下一波的动力。一个产品无非就是在满足人的需求,一个产品能够不断发展,来自于它能不断满足人的新需求。人类做驾驶,在车上帮你上下班,这个需求已经满足得差不多。这个需求油车可以满足,电车进一步满足的是让它的能源形式更好。
在电动化之后,这个需求来自于自动化和智能化。所以汽车的发展,也需要下一步的需求,来自于更进一步的自动化、智能化和主动化方向,这也是一个发展方向。我们只讲大部分人的需求,在电动化完成以后,我们正在看下一步,我认为下一步就是不用我开,它可以帮我做更多的事,而这些事我之前没有想过。例如;帮我去接朋友,你自己去洗车等。总的来说就是可以进一步满足之前没有满足的需求,这是汽车未来的发展。
Q:理想是不是也要开发AI应用呢?当然硬件智能体可以解决很多问题,但是软件部分人的生活也非常需要,如果我们能一并解决,是不是更好呢?
A :我个人观点是,在接下来的时代,「应用」形式不太能描述接下来的发展。你可以把它想象成一个角色,你不是找一个应用帮我解决一个个问题。我们更喜欢描述为,他是一位司机,你有了一个司机、有了秘书,你有一个管家。
「应用」是最近二三十年出现的,以前没有「应用」这个词,以前叫「软件」。我们做具身智能,我们的产品就是一个个角色,你可以把它理解成,不仅提供了车,还提供了司机。在未来,如果我们做机器人的话,还给你提供了家里的管家或家里的阿姨,可以帮你做打扫。所以要说它是某个应用的话,它也不是某个应用,而是某个角色。
角色和应用的差别,应用是定义好了 12345,角色是你可以跟它交流,它的能力会增长。随着它的能力增长,它可以做越来越多的事情。
Q:咱们之前推的眼镜Livis,它的命名跟贾维斯很像,很多人都想拥有一个像贾维斯一样无所不能的助手。所以这个角色是通用人工智能解决的问题,还是现在只能解决垂直领域的问题,就把它定义成司机。
A: 我感觉你需要的不是一个,而是一组,就是更全的概念。现在硅谷已经不太提 AGI,因为 AGI 很难定义,所谓「全能」也很难定义。不仅是难定义,也很难衡量。另外,你会发现它的能力不断增长,能做越来越多的事。我们就是在三维世界提供越来越多的能力,今天能帮你开车,明天能帮你接小孩。这像不像 AGI 呢?也许它从第一天能开车开始,它就具备了通用理解能力等等。
问:OpenClaw 对芯片团队或研发团队有帮助吗,有实际的应用场景吗?
A :因为 OpenClaw 是今年年初火起来的,我们从 2022 年开始做。所以我不能讲对这代芯片起到什么作用。因为 OpenClaw 火起来时,我们的芯片就要快上车了。
但是 AI 技术对所有行业都有影响,包括对芯片设计、操作系统设计的影响非常深远,我们也在积极跟进。
11. AI 能辅助开发芯片吗
问:AI 为什么对芯片设计有影响?
A: 芯片设计非常复杂,里面有架构的设计、有 RTL 设计、有验证的设计、有软件的设计、有操作系统的设计,广义的芯片设计包括所有部分。每个部分都可以用 AI 辅助。因为人的精力很有限,对于一些很细的活、很规则化的活,如果 AI 用得恰当,AI 比人的精力会更专注、看得更精细,更不容易失去重点与焦点。我刚刚讲的是整个芯片设计链条里,AI 都能起到帮助。
举例来讲,我们要做测试。芯片最怕的是设计时出现一个 BUG,因为等流片时,就没办法改了。所以这时需要大量测试,大量测试就可以用 AI 生成。芯片的前端要综合,从硬件设计语言变成逻辑或晶体管。这里面有很多规则,以前是用规则算法做,未来可以用 AI 做优化。其实我们已经用到了,我们一些工具提供商今天已经用 AI 提供一些优化工具,它可以找到一些人找不到的优化点,可以节省更多的芯片面积。因为芯片设计很大的考量就是 PPA(功耗、性能、面积),通过AI可以让 PPA 更好。再到后面做编译器,编译器里面的设计能不能把 PyTorch 或 ONNX 的算子直接用 AI 生成硬件语言或硬件能支持的软件逻辑,就是可以让它直接做编译器的事情。
以前的编译器是分层设计,一层一层的,把一个高层语言变成一个硬件支持的打引号的汇编或其他底层语言,现在可以用 AI 做这个事。最近马斯克在 X 平台上说了类似的话,未来直接用AI做编译器。
问:您讲 AI 集中在芯片研发的作用,还是说AI对所有的研发制造都会带来很大变化?有没有一个可衡量的指标?
A: 我刚刚举了几个例子,在我们公司所有的业务里,AI都展开了应用,我认为取得了非常好的结果,而且还在不断发展和增强中。我觉得这跟 AGI 的观点一样,很多人问,哪一天会到 AGI?现在硅谷的人说,你不要说哪一天,因为每天都在变化,当你有一天发现,你已经习惯它了,已经离不开了。所以这不是一个简单的用一个数值或用某一天做衡量。就是你没有办法说,哪一天会到来。也没有办法讲,有多少比例。你只觉得每一天的效率,都比以前更高,每一天的速度,都比以前更快、做得更好,这一切都在潜移默化地发生。有点像强身健体,类比小孩中考体育考试要跑 100 分,一种方法是每天强身健体。但你不能说,我每天吃了鸡蛋,把我的成绩提升了多少米,这无法单点拉出来做衡量。只能说,你的素质潜移默化提升之后,有一天会发现效果非常大。
Q:所以对企业来说,能做的只能是全面拥抱吗?
A :对。我们相信 AI,而且也实际感受到了,所以这个东西是一个全面的感受,而不是一个数值的高低,AI 让效率变得更高。
声明:本文由车市号作者撰写,仅代表个人观点,不代表网上车市。文中部分图片来源网络,感谢原作者。
竟然没评论,快去评论~~