414.7亿原子规模!依托中科曙光算力底座,我国刷新分子动力学模拟规模纪录
2026-04-14
10:29:10
来源: 杜芹
点击
在AI大模型持续推动计算范式演进的背景下,算力正在从“训练工具”走向更广泛的科学研究基础设施。
近日,龙讯旷腾MatPL软件依托超算互联网核心节点上的scaleX万卡超集群,成功使用NEP机器学习势函数完成414.7亿原子规模液态水分子动力学模拟,刷新了该领域的全球纪录。
这不仅是一个数字的突破,更是中国在材料研发“第四范式”竞争中,从算力底座到算法引擎的一次全栈式亮剑。

算力界的“淘宝”:国家超算互联网实现算力普惠
2023年4月,科技部高新司启动“国家超算互联网”部署工作。这是在数字经济浪潮和“东数西算”工程的大背景下,为了应对日益增长的AI计算与大科学模拟需求而提出的超级工程。其核心目标是打破传统超算中心“各自为政”的孤岛状态,通过互联网模式连接全国的超算、智算资源。
更通俗易懂的来理解,超算互联网就类似于算力界的“淘宝”。据悉,目前国家超算互联网已经连接国内30多家超算中心与智算中心,上架近7300款优质应用商品,AI社区更是凭借适配1200+开源大模型,形成一个面向科研与产业的算力与应用供给网络。树立了“建用并重、以用促建”的算力服务平台范本。
自2023年试运行、2024年正式上线以来,超算互联网迅速完成了从“资源池化”到“服务化”的蜕变。截至今年3月,平台注册用户已突破120万,在短短时间内实现了大规模用户增长。
但相比用户规模,更值得关注的是其背后的系统能力跃迁:降低科研智能体的体验门槛,超算互联网推出“超级计算科学智能体”计划,并发布国内首个科研专属龙虾「SClaw」。「SClaw」通过集成“科研Skill、大模型路由引擎、科学数据库和知识库”,可为材料科学、生物信息、工业仿真等多领域科研人员带来高效智能化体验。而为满足用户在使用「SClaw」过程中的海量普惠词元(Tokens)需求,超算互联网推出了词元普惠福利,用户累计最高可领取3000万免费词元,并可享0.1元/百万词元的特惠续用价至4月6日。
材料研发的范式重构,MatPL实现414亿原子规模跨越
“我们正处于新材料与人工智能深度融合的革命性变革中。传统的材料研发正经历从经验科学(第一范式)、模型理论(第二范式)向计算科学(第三范式)及大数据科学(第四范式)的演进。然而,材料领域面临着空间广阔但大数据匮乏的困境。”龙讯旷腾高级研究员、机器学习研发总监索鹏飞博士在演讲中指出。
索鹏飞博士指出,材料科学正处在第三范式(基于物理定律的计算科学)与第四范式(基于大数据驱动的科学)的融合过程中。
不同于生成式大语言模型(LLM)几百步的推理周期,分子动力学任务往往需要数百万步的迭代,这对算法的绝对效率和并行扩展能力提出了近乎苛刻的要求。在微观模拟领域,第一性原理(Ab initio)虽精度极高,但受限于计算量,仅能模拟数百到数千个原子的运动;而传统的分子动力学(MD)虽速度快,却因经验势函数的局限性而损失了精度。
在这一背景下,龙讯旷腾推出的MatPL软件,本质上是一个典型的AI for Science工具链。“MatPL的使命,就是通过机器学习势场(MLP),打通第一性原理的‘精度’与分子动力学的‘速度’。” 索博士解释道。MatPL通过学习第一性原理产生的高质量数据,训练出具备量子力学精度的势场模型,从而支持微米级尺度、百万步量级的长时间跨度模拟。这对于解决半导体先进制程(7nm/5nm及以下)中的多晶模型、界面效应及器件可靠性问题至关重要。
龙讯旷腾于近期发布的 MatPL-2026.3 版本,针对行业痛点实现了五大核心技术创新:
l 优化器重构:采用新型梯度优化器训练NEP势函数,支持跨节点多卡并行。
l 效率飞跃:单卡NEP势函数MD效率较上一版本提升十倍,媲美GPUMD。
l 内存极简:通过内存占用深度优化,单卡模拟规模提升20%以上。
l 大规模并行:原生支持超大规模并行模拟,打破同领域扩展性瓶颈。
l 主动学习架构:构建全自动化的数据处理流程,实现训练集的自动筛选与优化。
更多的MatPL测试结果发表于学术期刊ChemRxiv,DOI:10.26434/chemrxiv.15001665
北京龙讯旷腾总经理田洪镇强调,这种“计算驱动研发”的模式正成为半导体、新能源、新材料企业的核心竞争力。通过数字化的“模拟实验室”,企业可以大幅缩减实验流片次数,降低研发成本。
在算力平台与软件系统完成协同之后,最终形成了此次414.7亿原子的模拟结果,其对应空间尺度约为700纳米。“以前没有任何方案能够在第一性原理精度下全原子模拟真实场景,现在我们提供了这个可能性。”索鹏飞这样总结。
曙光的“底座作用”
在这一过程中,中科曙光所提供的算力基础设施,成为整个体系得以运行的关键支撑。
通过曙光scaleX万卡超集群,MatPL得以在超大规模异构算力环境下进行深度适配。超算互联网平台项目负责人透露:“过去打破类似纪录通常需要动用超算中心80%以上的全量资源,而MatPL仅用了4096张卡,且扩展效率保持在88%以上。这意味着我们的算法效率拥有极高的容积率。”
中科曙光解决方案与创新业务总经理张磊表示,此次突破的关键,在于三个层面的协同优化:第一在硬件层面,通过GPU异构架构与多精度计算能力(FP64、FP32、BF16、TF32等)实现不同计算阶段的性能匹配;第二,在网络层面,通过400G RDMA与高速互联,实现大规模节点间低延迟通信;第三,在系统层面,通过“存-算-网-管”全栈协同,优化数据流与计算流的匹配效率。与此同时,通过编译器与开发框架的优化,使得开发者无需深入底层硬件即可调用其能力,从而实现“对开发者无感”的算力释放。
这一点也被龙讯旷腾方面评价为:“最大的优势就是两个字——无感。”从更宏观的角度来看,这一体系的形成,意味着国产算力正在从“能用”走向“好用”,甚至在特定场景下具备对国际方案的替代能力乃至领先能力。
“到今年年中,随着10万卡规模的上线,我们将会在微观模拟领域刷出一个全球领先、且在未来数年内难以被超越的新纪录。”超算互联网平台负责人信心十足地表示。
结语
如果将上述各个环节串联起来,可以看到一条逐渐清晰的路径:算力基础设施 → 软件平台 → AI模型 → 科学计算 → 工业应用。在这一链条中,中科曙光所构建的超算互联网与ScaleX万卡超集群,承担的是整个体系的“底座角色”,超算互联网提供算力调度与资源整合,MatPL等软件提供应用,而AI模型则作为桥梁,将物理建模与数据驱动方法连接起来,最终在材料、半导体、电池等领域形成实际价值。
而随着算力规模的持续扩展与软件体系的进一步完善,这条从算力到底层应用的链路,也在不断向更高精度与更大规模延伸。
近日,龙讯旷腾MatPL软件依托超算互联网核心节点上的scaleX万卡超集群,成功使用NEP机器学习势函数完成414.7亿原子规模液态水分子动力学模拟,刷新了该领域的全球纪录。
这不仅是一个数字的突破,更是中国在材料研发“第四范式”竞争中,从算力底座到算法引擎的一次全栈式亮剑。

算力界的“淘宝”:国家超算互联网实现算力普惠
2023年4月,科技部高新司启动“国家超算互联网”部署工作。这是在数字经济浪潮和“东数西算”工程的大背景下,为了应对日益增长的AI计算与大科学模拟需求而提出的超级工程。其核心目标是打破传统超算中心“各自为政”的孤岛状态,通过互联网模式连接全国的超算、智算资源。
更通俗易懂的来理解,超算互联网就类似于算力界的“淘宝”。据悉,目前国家超算互联网已经连接国内30多家超算中心与智算中心,上架近7300款优质应用商品,AI社区更是凭借适配1200+开源大模型,形成一个面向科研与产业的算力与应用供给网络。树立了“建用并重、以用促建”的算力服务平台范本。
自2023年试运行、2024年正式上线以来,超算互联网迅速完成了从“资源池化”到“服务化”的蜕变。截至今年3月,平台注册用户已突破120万,在短短时间内实现了大规模用户增长。
但相比用户规模,更值得关注的是其背后的系统能力跃迁:降低科研智能体的体验门槛,超算互联网推出“超级计算科学智能体”计划,并发布国内首个科研专属龙虾「SClaw」。「SClaw」通过集成“科研Skill、大模型路由引擎、科学数据库和知识库”,可为材料科学、生物信息、工业仿真等多领域科研人员带来高效智能化体验。而为满足用户在使用「SClaw」过程中的海量普惠词元(Tokens)需求,超算互联网推出了词元普惠福利,用户累计最高可领取3000万免费词元,并可享0.1元/百万词元的特惠续用价至4月6日。
材料研发的范式重构,MatPL实现414亿原子规模跨越
“我们正处于新材料与人工智能深度融合的革命性变革中。传统的材料研发正经历从经验科学(第一范式)、模型理论(第二范式)向计算科学(第三范式)及大数据科学(第四范式)的演进。然而,材料领域面临着空间广阔但大数据匮乏的困境。”龙讯旷腾高级研究员、机器学习研发总监索鹏飞博士在演讲中指出。
索鹏飞博士指出,材料科学正处在第三范式(基于物理定律的计算科学)与第四范式(基于大数据驱动的科学)的融合过程中。
不同于生成式大语言模型(LLM)几百步的推理周期,分子动力学任务往往需要数百万步的迭代,这对算法的绝对效率和并行扩展能力提出了近乎苛刻的要求。在微观模拟领域,第一性原理(Ab initio)虽精度极高,但受限于计算量,仅能模拟数百到数千个原子的运动;而传统的分子动力学(MD)虽速度快,却因经验势函数的局限性而损失了精度。
在这一背景下,龙讯旷腾推出的MatPL软件,本质上是一个典型的AI for Science工具链。“MatPL的使命,就是通过机器学习势场(MLP),打通第一性原理的‘精度’与分子动力学的‘速度’。” 索博士解释道。MatPL通过学习第一性原理产生的高质量数据,训练出具备量子力学精度的势场模型,从而支持微米级尺度、百万步量级的长时间跨度模拟。这对于解决半导体先进制程(7nm/5nm及以下)中的多晶模型、界面效应及器件可靠性问题至关重要。
龙讯旷腾于近期发布的 MatPL-2026.3 版本,针对行业痛点实现了五大核心技术创新:
l 优化器重构:采用新型梯度优化器训练NEP势函数,支持跨节点多卡并行。
l 效率飞跃:单卡NEP势函数MD效率较上一版本提升十倍,媲美GPUMD。
l 内存极简:通过内存占用深度优化,单卡模拟规模提升20%以上。
l 大规模并行:原生支持超大规模并行模拟,打破同领域扩展性瓶颈。
l 主动学习架构:构建全自动化的数据处理流程,实现训练集的自动筛选与优化。
更多的MatPL测试结果发表于学术期刊ChemRxiv,DOI:10.26434/chemrxiv.15001665
北京龙讯旷腾总经理田洪镇强调,这种“计算驱动研发”的模式正成为半导体、新能源、新材料企业的核心竞争力。通过数字化的“模拟实验室”,企业可以大幅缩减实验流片次数,降低研发成本。
在算力平台与软件系统完成协同之后,最终形成了此次414.7亿原子的模拟结果,其对应空间尺度约为700纳米。“以前没有任何方案能够在第一性原理精度下全原子模拟真实场景,现在我们提供了这个可能性。”索鹏飞这样总结。
曙光的“底座作用”
在这一过程中,中科曙光所提供的算力基础设施,成为整个体系得以运行的关键支撑。
通过曙光scaleX万卡超集群,MatPL得以在超大规模异构算力环境下进行深度适配。超算互联网平台项目负责人透露:“过去打破类似纪录通常需要动用超算中心80%以上的全量资源,而MatPL仅用了4096张卡,且扩展效率保持在88%以上。这意味着我们的算法效率拥有极高的容积率。”
中科曙光解决方案与创新业务总经理张磊表示,此次突破的关键,在于三个层面的协同优化:第一在硬件层面,通过GPU异构架构与多精度计算能力(FP64、FP32、BF16、TF32等)实现不同计算阶段的性能匹配;第二,在网络层面,通过400G RDMA与高速互联,实现大规模节点间低延迟通信;第三,在系统层面,通过“存-算-网-管”全栈协同,优化数据流与计算流的匹配效率。与此同时,通过编译器与开发框架的优化,使得开发者无需深入底层硬件即可调用其能力,从而实现“对开发者无感”的算力释放。
这一点也被龙讯旷腾方面评价为:“最大的优势就是两个字——无感。”从更宏观的角度来看,这一体系的形成,意味着国产算力正在从“能用”走向“好用”,甚至在特定场景下具备对国际方案的替代能力乃至领先能力。
“到今年年中,随着10万卡规模的上线,我们将会在微观模拟领域刷出一个全球领先、且在未来数年内难以被超越的新纪录。”超算互联网平台负责人信心十足地表示。
结语
如果将上述各个环节串联起来,可以看到一条逐渐清晰的路径:算力基础设施 → 软件平台 → AI模型 → 科学计算 → 工业应用。在这一链条中,中科曙光所构建的超算互联网与ScaleX万卡超集群,承担的是整个体系的“底座角色”,超算互联网提供算力调度与资源整合,MatPL等软件提供应用,而AI模型则作为桥梁,将物理建模与数据驱动方法连接起来,最终在材料、半导体、电池等领域形成实际价值。
而随着算力规模的持续扩展与软件体系的进一步完善,这条从算力到底层应用的链路,也在不断向更高精度与更大规模延伸。
责任编辑:duqin
相关文章
-
- 半导体行业观察
-
- 摩尔芯闻