发布日期:2026-04-29 17:40点击次数:139
自 2025 年 7 月特斯拉在座舱接入 Grok 并与 FSD 形成协同后,AI 上车一夜成为风口。但热闹背后,当前进展更多停留在"语音交互升级"层面,人车交互范式未有本质改变。真正具备意图理解与执行能力的"具身智能体",依然未出现。
行业正在等待,一款真正改变现状的产品。
4 月 17 日,极氪 8X 上市,29 分钟大定量突破 10000 台,其首发搭载由阶跃、吉利、千里科技联合研发的整车智能体"超级 Eva "。这是一款回应行业长期期待的产品。
与以往停留在座舱层的 AI 不同,超级 Eva 被定义为"整车智能体",尝试打通从感知、理解到执行的整车链路,将 AI 从"对话入口"延伸至系统层能力。
过去一年,围绕" Grok+FSD "的讨论此起彼伏,但多数仍停留在追风口阶段。随着超级 Eva 实现量产,这一方向第一次有了具象化的落地样本。
大模型上车分水岭:不在对话升级,而在执行任务
现在所谓"大模型上车",本质是把类似 Grok 这样的通用模型接入座舱,用来提升语音交互体验。这种接入通常被称为"外挂" AI,其提升的是对话交互体验,但无法深入到规划与控制层,距离用户期待中真正意义上的整车级智能体体验相去甚远。
虽然"外挂" AI 也做到了更自然的对话、更丰富的知识库、更拟人的交互体验。但问题在于,这些能力距离真正的汽车智能体标准仍有明显差距。物理 AI 不仅要"说得更好",更关键的是要"做得更好"。
换句话说,"外挂" AI 的本质仍停留在人控车的辅助工具阶段,而真正的整车智能体,则需要具备自主理解、决策与执行任务的能力。
正如麦肯锡在相关研究中指出,当前车载 AI 的主要瓶颈,并不在语音识别或对话能力,而在于"跨系统任务编排能力"的缺失。系统无法将用户的一个复杂目标,转化为多模块协同执行的动作链路。这也是为什么,大多数所谓" AI 助手",本质上仍是被动"响应命令"的工具。
而"超级 Eva "意义,就在于把目前的瓶颈突破了,让大模型上车第一次迎来分水岭时刻,从此前以提升交互体验为核心的阶段,迈向 AI 第一次作为整车大脑的智能体阶段。
这也是为什么行业将超级 Eva 与 Grok 上车 Tesla 的体验相提并论,因为它们都代表着一个相同的趋势:AI 正在从回答问题走向完成目标。
举一个我们开车时的刚需场景——当你对着车机说:"带我去接孩子放学,顺便找一家麦当劳,5 点前我要到学校。"
在超级 Eva 出现前,这句话大概率无法被直接执行。因为系统无法理解其中的多重意图,用户必须手动拆解成多个指令:先导航到学校,再搜索麦当劳,再设置途经点,途中还要不断确认路线与时间。整个过程中,人仍是决策者与控制者,车只是执行工具。
但在超级 Eva 中,这句话会被当作一个"目标"处理,而不是一串命令。
系统会自动完成三层解析:先识别任务结构——接孩子是主任务,买麦当劳是附加任务,5 点前到达是硬约束;再拆解每个任务——筛选合适门店、规划最优路线、计算时间窗口、评估绕行成本;最后调度系统能力——调用导航、辅助驾驶、泊车等多个模块形成闭环执行。
更关键的是,在执行过程中还能根据实时路况、时间变化进行动态调整。比如遇到前方堵车会提前提醒,并可以完成以达成目标为主的规划与执行。
这背后真正发生的变化是,用户不再替 AI 思考"怎么做",只需要表达"要什么",这可以称得上是一次体验范式的重构。
Gartner 在其 2025 技术趋势中将" Agentic AI "列为关键方向之一,强调其本质是"能够自主制定计划并执行多步骤任务的系统",不再是传统的对话式 AI。
超级 Eva 的出现,本质上就是把这一能力,第一次落在了量产车上。
为什么是阶跃能最先做成这件事?
如果说大模型上车的第一阶段,是把"会说话的 AI "装进车里,那么这一阶段的上限,其实已经被证明是有限的。
真正的分水岭,在于 AI 是否开始具备"感知世界 + 理解意图 + 执行动作"的闭环能力。极氪 8X 首发搭载的整车智能体超级 Eva,第一次国内让车载 AI 具备了这种闭环能力,技术层面是"语言大脑 + 语音表达 + 视觉感知"三套能力协同的结果。
而支撑这一切的底座,是阶跃星辰的 Step 系列模型矩阵。
据雷峰网了解,阶跃星辰是国内基座模型研发最全面的公司之一,其自研的 Step 系列基座模型矩阵覆盖了从千亿参数到万亿参数,构建了从语言、推理到多模态,从理解到生成的全面能力。Agentic 时代,模型要真正从软件层面走进物理世界,覆盖了感知 - 推理 - 执行全链条的系统能力是必备要素。
阶跃最新发布的 Step 3.5 Flash,是整个超级 Eva 的"大脑",其不是一个单纯的大语言模型,而是一个面向 Agent 场景设计的推理与规划引擎。

Step 3.5 Flash 有三个关键能力。
第一是速度与稳定性。模型推理速度最高达到 350TPS,在复杂任务中仍能保持低延迟响应,这意味着它可以支撑更流畅的车端实时交互。
第二是复杂任务推理能力。在 OpenRouter 全球调用榜中登顶,这一成绩证明了 Step 3.5 Flash 具备稳定处理多步逻辑链的能力,在现实 Agent 场景中被大量开发者所选用。
三是长上下文与记忆能力。支持 256K 级别上下文处理,让"连续任务"成为可能,这是车载 Agent 能够记住用户偏好,更"懂人"的基础
这三点能力决定了当前车载 AI 最关键的一个变化:AI 第一次能够"理解一个目标",而不只是"理解一句话"。得益于这一能力,例如你提出"我要去看演唱会"这一目标,超级 Eva 便能自动拆解为出发、路线、停车、订酒店、订饭店等多个子任务,并在执行过程中根据路况与时间动态调整。
这不再是简单的导航或推荐,而是一次完整的任务编排与执行,体现出大模型在复杂场景下的推理深度与系统级调度能力。
如果说 Step 3.5 Flash 这一大脑解决的是"想清楚",那么语音模型解决的是"说清楚"。
传统车载语音的问题是交流不拟人,输出往往是功能播报式的——"已为您规划路线""空调已开启"。而超级 Eva 接入阶跃的语音大模型,改变的正是这种表达方式。
该模型具备几个能力:情绪理解(识别用户语气背后的紧迫性或松弛感);语义重构(将机械指令转化为自然表达);对话连续性(支持上下文中的持续交流,而不是一次性问答);知识库(支持智能搜索,什么都能聊)。
举一个例子,你说"我累了,好想回到小时候",它会像一个知心朋友一样陪你聊天。
换句话说,这一模型能力解决的是"人愿不愿意继续说",而不是"说得像不像人",后面的能力此前的车载 AI 助手就已具备。
如果说 Step 3.5 Flash 和语音模型是大脑和嘴巴,那么视觉模型就是智能体的眼睛。
这是当前大多数车载 AI 的短板,Grok 也不例外。
超级 Eva 接入视觉能力,使车辆第一次具备了基础的环境理解能力,能识别车位是否被占用,还能感知环境变化并调整策略……。
值得一提的是,超级 Eva 的多模态协同能力,是目前类似 Grok 也仍未完全覆盖的方向。Grok 强于语言与数字世界理解,但在物理感知与执行闭环上仍处于演进阶段。
对于汽车这一最具想象力的物理 AI 终端来说,超级 Eva 让它不再是工具,而开始成为一个可以协助人类完成任务的超级智能体。
原生 AI 时代,需要怎样的造车模式?
过去 AI 上车慢和体验不及预期,症结在于三方能力的互相割裂:模型公司懂 AI,但不一定懂整车系统;车企懂整车,但不一定有最前沿的模型能力;中间工程落地和场景编排,常常缺少一个足够强的承接方。
这造成的结果就是:模型很强,但上不了车;上了车,但调不动整车系统;功能做出来了,但难以快速量产和稳定交付。
而超级 Eva 的快速量产,验证了一条新的可行路径:AI 基座模型公司、汽车厂商、汽车科技公司三方联手的深度共创,最终呈现的效果最优。

这种"你中有我"的深度融合,让三方从第一天起就围绕"整车智能体"目标做联合定义和联合开发。
数据佐证了这一模式的效率,Step 3.5 Flash 于 2 月 2 日发布并开源;3 月 16 日即接入超级 Eva 并开启预售;4 月 17 日随极氪 8X 正式上市。从模型发布到量产上车,仅用了两个多月。
而且,这并非阶跃在汽车领域的首次亮相。此前,阶跃已联合吉利、千里打造了智能座舱 Agent OS,并率先在吉利银河 M9 上实现了端到端语音大模型的上车。此次超级 Eva 的量产,标志着阶跃" AI+ 终端"的商业化链路已完全跑通,并且进入了加速期。
因此,车上智能体要想真正做深、做快、做成量产,不能只靠车企单打独斗,也不能只靠模型公司技术输出。阶跃、吉利和千里科技的合作,可谓是为行业打造了一个商业范本。
写在最后
雷峰网认为,超级 Eva 随极氪 8X 量产上市,不能看作是一个简单功能的加入,它最大的意义在于宣告汽车正式进入"整车智能体"时代。
很多车企都在布局大模型上车,但阶跃、吉利、千里联合研发的超级 Eva,可以说是首个真正实现量产落地、性能强、真可用的"中国版 Grok 上车"。
以此为起点,超级 Eva 将不再只是车内的伙伴,更是连接出行、生活服务的智能枢纽。从理解一句话到搞定一整件事,阶跃 AI+ 终端的商业化进程,正进入全面加速的快车道。
上一篇:陕西一女子很爱看甄嬛, 把房装修得宫里宫气! 贵气十足, 有品味!
下一篇:没有了