计算机行业点评报告:一文解读智能驾驶“端到端2.0”-VLA模型
计算机 / 行业点评报告 / 2025.02.27 请阅读最后一页的重要声明! 一文解读智能驾驶“端到端 2.0”-VLA 模型 证券研究报告 投资评级:看好(维持) 最近 12 月市场表现 分析师 杨烨 SAC 证书编号:S0160522050001 yangye01@ctsec.com 分析师 王妍丹 SAC 证书编号:S0160524040002 wangyd01@ctsec.com 相关报告 1. 《一文速读国内 IDC 厂商的合作》 2025-02-24 2. 《激光雷达千线产品推出,产业发展有望加速》 2025-02-23 3. 《大模型系列报告(二):Scaling Law启示录》 2025-02-21 核心观点 ❖ VLA 模型实现了高阶端到端智能。VLA 即视觉语言动作模型(Vision - Language - Action Model),最早由 DeepMind 于 2023 年提出并应用在机器人领域。VLA 不仅融合了视觉语言模型(VLM)的感知能力和端到端模型(E2E)的决策能力,更引入了“思维链”技术,实现了全局上下文理解与类人推理能力,它能够输入给定的文本和视觉数据,输出机器人可执行的动作,具有 AI 与物理世界交互的天然基因。同时,其系统透明与可解释性使得推理过程全程可求导,能够通过车载显示向用户解释驾驶逻辑,增强用户信任感。目前,VLA 模型在自动驾驶的应用流程为数据获取与预处理、多模态信息融合、动作指令生产和执行与反馈。 ❖ VLA 模型或于 2025 年量产落地,改写智能驾驶市场竞争格局。中国自动驾驶产业创新联盟调研员高超表示预计 2025 年 VLA 模型将量产落地,推动城区 NOA 渗透率提升。现阶段,智驾市场竞争焦点已从单纯的功能实现转向了更深层次的技术范式竞争,强调技术架构的先进性和可持续性。高盛最新自动驾驶报告显示,到 2030 年,VLA 模型主导的端到端方案可能占据 L4 级市场 60%份额,这意味着传统一级供应商的价值链地位面临重构。此外,苹果近期在机器学习研究页面发布了最新研究论文,提出了一种全新的大规模自博弈强化学习框架 GIGAFLOW,用于训练通用、鲁棒的自动驾驶策略。这一研究突破,为 VLA 模型提供了新的训练方式,有助于进一步可能结合强化学习、自博弈训练等新兴技术,提升自动驾驶系统的智能化和泛化能力。 ❖ 投资建议:建议关注虹软科技、锐明技术、华测导航、德赛西威、均胜电子、中科创达、经纬恒润、慧翰股份等。 ❖ 风险提示:汽车智能化渗透率提升速度低于预期的风险;政策法规的支持不及预期的风险;芯片等原材料短缺风险;宏观经济形势的风险。 -27%-14%0%14%28%41%计算机沪深300 谨请参阅尾页重要声明及财通证券股票和行业评级标准 2 行业点评报告/证券研究报告 1 VLA 2025“上车元年”:重塑智能驾驶行业 ........................................................................................ 3 1.1 引入“思维链”技术,实现革命性技术落地 .................................................................................. 3 1.2 “端到端+VLM”技术框架的“终结者”,VLA 模型助力优化实现自动驾驶 ........................... 4 2 VLA 模式开启智能驾驶新纪元,引领自动驾驶范式变革 ................................................................. 5 3 投资建议 ................................................................................................................................................... 7 4 风险提示 ................................................................................................................................................... 7 图 1. VLA 模型结合视觉、语言和行动,支持上下文感知的决策和控制 ................................................ 3 图 2. VLA = 视觉(ViT)+ 语言推理(LLM)+ 机器人执行,助力泛化能力 .................................... 4 图 3. VLA 被认为是端到端 2.0 的主要技术形态 ......................................................................................... 5 图 4. VLA 长时间推理能力,更强应对复杂、长尾场景 ............................................................................ 5 图 5. GIGAFLOW 训练量对比其他模型 ...................................................................................................... 6 表 1. 目前车载领域 VLA 模型 ...................................................................................................................... 6 内容目录 图表目录 谨请参阅尾页重要声明及财通证券股票和行业评级标准 3 行业点评报告/证券研究报告 1 VLA 2025“上车元年”:重塑智能驾驶行业 1.1 引入“思维链”技术,实现革命性技术落地 VLA 即 视 觉 语 言 动 作 模 型 ( Vision - Language - Action Model ), 最 早由 DeepMind 于 2023 年提出并应用在机器人领域。VLA 不仅融合了视觉语言模型(VLM)的感知能力和端到端模型(E2E)的决策能力,更引入了“思维链”技术,实现了全局上下文理解与类人推理能力,它能够输入给定的文本和视觉数据,输出机器人可执行的动作,具有 AI 与物理世界交互的天然基因。同时,其系统透明与可解释性使得推理过程全程可求导,能够通过车载显示向用户解释驾驶逻辑,增强用户信任感。 图1.VLA 模型结合视觉、语言和行动,支持上下
[财通证券]:计算机行业点评报告:一文解读智能驾驶“端到端2.0”-VLA模型,点击即可下载。报告格式为PDF,大小0.94M,页数8页,欢迎下载。
