近 30 亿融资引爆赛道 曦望 All-in 推理 GPU,要重写 AI 算力成本规则

2026-01-22 16:27:02 来源: 互联网
点击
AI 算力产业的 “推理战事” 再添重磅变量。

1 月22日,国内首家 All-in 推理的 GPU 芯片公司曦望(Sunrise)正式宣布,一年内已完成近 30 亿元融资。资本注入阵容堪称豪华,不仅汇聚了三一集团旗下华胥基金、范式智能、杭州数据集团、正大机器人、协鑫科技等产业投资方,以及IDG资本、高榕创投、无极资本、中金资本、普华资本、松禾资本、易方达资本、工银投资、心资本等知名VC/PE 机构,更获得诚通混改基金等国资背景资本加持。资金将用于下一代推理 GPU 研发、规模化量产及生态共建。

这场超大规模融资的背后,是 AI 芯片产业从 “训练红利” 向 “推理红利” 切换的明确信号 —— 当模型训练进入深水区,推理环节的效率、成本与稳定性,已成为决定 AI 商业化落地成败的核心关键,而这正是曦望押注的核心战场。



商汤基因 + 双 CEO 梦之队,筑牢推理算力护城河

曦望成立于 2020 年,前身为商汤科技大芯片部门,多年真实 AI 业务场景的打磨,让其从诞生之初就自带 “更懂 AI 的 GPU 芯片公司” 基因,对模型演进、算子优化及客户需求有着深刻理解。

团队层面更是被投资人誉为“星光熠熠”。联席 CEO 王勇是前 AMD、昆仑芯核心架构师,手握 20 年芯片研发经验,2020 年加入商汤后,带领百人团队成功主导了曦望两代芯片的研发和量产;另一位联席 CEO 王湛则是百度创始团队成员、原集团副总裁,曾带领百度搜索 8000 人团队,2025 年初加入曦望,负责公司产品化和商业化。

目前,曦望团队规模约300人,主要来自于 NVIDIA、AMD、昆仑芯、商汤等企业,核心技术骨干平均拥有 15 年行业经验,为技术突破提供了坚实支撑。

不同于多数国产芯片厂商的 “参数竞赛”, 曦望选择了差异化的技术路径,摒弃了传统训推一体 GPU 为训练优化的设计思路,聚焦推理场景进行原生架构重构 —— 在调度、缓存、片上 SRAM、互联及编译器路径上做深度优化,结合 LPDDR 内存技术,从根源降低单位 Token 推理成本。同时,公司全栈自研指令集、GPGPU IP 及编译工具链,手握 200 余项核心专利,更具备百人团队 “一次流片成功” 的经历。
 
三代芯片落地量产,剑指 “百万 Token 一分钱”

公开信息显示,曦望历经数年投入20亿元研发,目前已形成三代芯片产品矩阵,覆盖从视觉推理到大模型全场景推理的需求。其中,2020 年量产的 S1 芯片,作为国内首款视觉推理芯片,适配千余种 CV 模型,已实现 IP 授权索尼、小米等头部客户;2024 年量产的 S2 芯片,对标主流 A/H 系列 GPU,兼容 CUDA 生态,已成功适配 DeepSeek、Qwen等主流模型;2026 年即将推出的 S3 芯片,堪称 “推理性价比之王”,在单位 Token 成本、能耗上实现数量级降低,原生支持 FP8/FP4 低精度推理,目标直指 “百万 Token 一分钱” 的行业新基准。
 
不拼参数拼成本,做 AI 产业的 “损益表优化师”

“如果能让推理成本下降 90%,并提供更稳定的服务,我们的竞争就不是‘又一个芯片’,而是‘重写中国 AI 产业的损益表’。” 王湛精准概括了公司的差异化定位。

在曦望看来,对算力厂商、AI 原生应用开发者而言,推理能效、SLA 稳定性与 Token 成本,才是决定业务毛利率与用户体验的核心指标。因此,曦望选择不与训推一体 GPU 拼参数,而是聚焦真实场景的单位经济性,成为现有算力系统的 “推理分流与成本优化层”—— 与本土芯片厂商合作为客户构建推理加速专区,形成独特的竞争生态。

“我们的目标是极致降低大模型推理成本与门槛,让算力变得普惠且可广泛获取,从而释放 AGI 的全部潜力。” 王湛表示。

随着 AI 推理红利的全面释放,曦望的崛起不仅是商汤系技术产业化的成功实践,更标志着国产 AI 芯片正从 “跟跑” 转向 “差异化领跑”。当推理成为 AI 产业盈利的核心抓手,这家专注于 “把推理成本打下来” 的公司,或将重塑中国AI基础设施的产业格局。
责任编辑:Ace

相关文章

半导体行业观察
摩尔芯闻

热门评论