计算机行业周报:Llama4多版本参数亮眼,DeepSeek公布推理时Scaling新论文
2025 年 04 月 08 日 Llama 4 多版本参数亮眼, DeepSeek 公布推理时 Scaling 新论文 —计算机行业周报 推荐(维持) 投资要点 分析师:宝幼琛 S1050521110002 baoyc@cfsc.com.cn 行业相对表现 表现 1M 3M 12M 计算机(申万) -23.8 0.7 12.5 沪深 300 -9.0 -5.3 1.5 市场表现 资料来源:Wind,华鑫证券研究 相关研究 1、《计算机行业周报:阿里深夜开源 Qwen2.5-Omni,DeepSeek-V3 上线新版本》2025-04-05 2、《计算机行业点评报告:文远知行(WRD.O):收入承压与商业化突破并行,自动驾驶长赛道静待拐点》2025-04-04 3、《计算机行业点评报告:禾赛科技(HSAI.O):激光雷达龙头加速业绩兑现,多元布局打开成长空 间》2025-04-04 ▌算力: Llama 4 多版本参数亮眼,2 万亿多模态巨兽重登王座 Meta 官宣开源首个原生多模态 Llama 4,首次采用 MoE 架构,支持 12 种语言,首批发布一共两款:第一款是 Llama 4 Scout,规模较小,其共有 1090 亿参数,17B 活跃参数,16 个专家,1000 万上下文;第二款是 Llama 4 Maverick,规模较大,其共有 4000 亿参数,17B 活跃参数,128 个专家,100 万上下文。 在大模型 LMSYS 排行榜上,Llama 4 Maverick 冲上第二( ELO得分 1417),仅次于闭源 Gemini 2.5 Pro。Llama 4 Scout最大亮点在于支持 1000 万上下文,相当于可以处理 20+小时的视频,仅在单个 H100 GPU(Int4 量化后)上就能跑。 在基准测试中,性能超越 Gemma 3、Gemini 2.0 Flash-Lite、Mistral 3.1。Llama 4 模型是 Llama 系列模型中首批采用混合专家(MoE)架构的模型。在 MoE 模型中,单独的token 只会激活全部参数中的一小部分。与传统的稠密模型相比,MoE 架构在训练和推理时的计算效率更高,并且在相同的训练 FLOPs 预算下,能够生成更高质量的结果。 Llama 4 是一个原生多模态模型,采用了早期融合技术,能把文本和视觉 token 无缝整合到一个统一的模型框架里。早期融合是个大进步,因为它可以用海量的无标签文本、图片和视频数据一起来预训练模型。 Meta 还开发了一种叫做 MetaP 的新训练方法,能让他们更精确地设置关键的模型超参数,比如每层的学习率和初始化规模。这些精心挑选的超参数在不同的批大小、模型宽度、深度和训练 token 量上都能很好地适配。Llama 4 通过在 200 种语言上预训练实现了对开源微调的支持,其中超过 10 亿个token 的语言有 100 多种,整体多语言 token 量比 Llama 3 多出 10 倍。 ▌AI 应 用 : Gemini 搜 索 访 问 量 环 比 +9.62% ,DeepSeek 公布推理时 Scaling 新论文 近期,来自 DeepSeek、清华大学的研究人员探索了奖励模型(RM)的不同方法,发现逐点生成奖励模型(GRM)可以统一-40-200204060(%)计算机沪深300证券研究报告 行业研究 证券研究报告 请阅读最后一页重要免责声明 2 诚信、专业、稳健、高效 纯语言表示中单个、成对和多个响应的评分。基于这一初步成果,论文的作者提出了一种新学习方法,即自我原则批评调整(SPCT),以促进 GRM 中有效的推理时间可扩展行为。通过利用基于规则的在线 RL,SPCT 使 GRM 能够学习根据输入查询和响应自适应地提出原则和批评,从而在一般领域获得更好的结果奖励。 基于此技术,DeepSeek 提出了 DeepSeek-GRM-27B,它基于 Gemma-2-27B 用 SPCT 进行后训练。对于推理时间扩展,它通过多次采样来扩展计算使用量。通过并行采样,DeepSeek-GRM 可以生成不同的原则集和相应的批评,然后投票选出最终的奖励。通过更大规模的采样,DeepSeek-GRM 可以更准确地判断具有更高多样性的原则,并以更细的粒度输出奖励,从而解决挑战。 除了投票以获得更好的扩展性能外,DeepSeek 还训练了一个元 RM。从实验结果上看,SPCT 显著提高了 GRM 的质量和可扩展性,在多个综合 RM 基准测试中优于现有方法和模型,且没有严重的领域偏差。作者还将 DeepSeek-GRM-27B 的推理时间扩展性能与多达 671B 个参数的较大模型进行了比较,发现它在模型大小上可以获得比训练时间扩展更好的性能。虽然当前方法在效率和特定任务方面面临挑战,但凭借 SPCT 之外的努力,DeepSeek 相信,具有增强可扩展性和效率的 GRM 可以作为通用奖励系统的多功能接口,推动 LLM 后训练和推理的前沿发展。 ▌AI 融资动向: 星海图“小步快跑式”融资,今年估值已翻倍 4 月 3 日,星海图宣布接连完成 A2、A3 轮系列融资,领投方为凯辉基金,总融资额超 3 亿元人民币。这意味着 2025 年以来星海图已累计融资近 1 亿美元。 星海图本次 A2、A3 轮系列融资由凯辉基金领投,联想创投、海尔资本等产业资本参投,老股东 IDG 资本、高瓴创投、百度风投、同歌创投等追投,其中部分老股东多轮满额、超额持续加注。 星海图 A1 轮融资于今年 2 月完成,总融资额近 3 亿元,由蚂蚁集团独家领投,高瓴创投、IDG 资本、北京机器人产业基金、百度风投、同歌创投等老股东追加投资。由此可见,星海图于 2025 年展开的 A 轮系列累计融资总额已达约 1 亿美元。 星海图介绍,投资人最关注的是公司全栈要素齐备且实力较强的特点。具身智能产品的成功不只靠模型,而是底层零部件、整机设计及制造、场景理解能力等的系统性能力。公司创始团队具有业内领先的模型技术实力和产业落地经验,硬件能力也在过去一年里快速补齐。星海图目前已成为国内极少数同时具备端到端 AI 算法能力、全链路正向研发制造能力证券研究报告 请阅读最后一页重要免责声明 3 诚信、专业、稳健、高效 以及实际商业化验证能力的具身智能公司之一。星海图若估值达到 50 亿元,将成为业内第二梯队的“排头兵”。 ▌投资建议 4 月 8 日消息,美国时间周一,白宫发布指令,要求联邦各机构任命首席人工智能官,并制定扩大政府人工智能应用的战略。备忘录还指示各机构在六个月内“制定人工智能战略,识别并消除负责任使用该技术的障碍,并实现全机构范围内的提升应用成熟度。我们仍然坚定认为,AI 应用有望在今年诞生部份现象级应用。建议关注临床 AI 产品成功落地验证的嘉和美康(688246.SH)、以 AI 为核心的龙头厂商科大讯飞 ( 002230.SZ ) 、 芯 片 技 术 有 望 创 新 突 破 的 寒 武 纪(688256.SH)、高速通信连接器业务或显著受益于 GB200 放量的鼎通科技(68
[华鑫证券]:计算机行业周报:Llama4多版本参数亮眼,DeepSeek公布推理时Scaling新论文,点击即可下载。报告格式为PDF,大小1.05M,页数15页,欢迎下载。
