AI NAS是存储行业的新风口吗?
2025-12-05
17:07:45
来源: 杜芹
点击
近段时间,“AI NAS”迅速成为科技产业最受关注的关键词之一。曾经只属于发烧友的小众 NAS,如今正因易用性的突破与本地 AI 能力的加入,加速演变为家庭与中小企业的数据与算力基础设施。在 12 月 2 日英特尔举办的“芯生万象,智存未来”2025 AI NAS 解决方案峰会上,英特尔系统性阐述了其在 AI NAS 领域的战略方向与技术路线,来自 NAS 生态的多家厂商也同步展示了最新产品形态与行业思考,共同勾勒这一新兴赛道的未来轮廓。
AI NAS 到底是什么?行业仍在探索,但方向已极为清晰
尽管AI NAS已成为行业热词,但何谓“AI NAS”,尚未形成标准答案。
铁威马郭钱良认为,目前给 AI NAS 下精确定义为时尚早,它更像是功能机向智能手机过渡的阶段,需要经历数年的探索与试错;眼下更务实的路径,是从现有 NAS 用户的真实需求出发,持续叠加有价值的 AI 能力,其中“本地知识库”几乎是最重要、最实用的突破点。
绿联杨超则从数据与隐私切入:尽管 PC 和手机是用户的使用入口,但真正沉淀下来的海量原始数据,最终都落在 NAS 上。因此 AI NAS 的真正核心特征应为:具备大容量的数据本地存储能力;在本地完成 AI 分析与推理,避免隐私泄露与不稳定性;与云端AI强调“大模型规模”不同,AI NAS的价值在于围绕本地数据构建AI。
英特尔则在此基础上归纳出当前产业的一些共识:首先,以本地数据的智能管理为核心,让照片、视频、文件、企业文档都能实现“秒搜秒用”;其次,在此之上逐步叠加本地知识库、RAG 能力以及面向企业和家庭的各类智能体;最后,再向前探索更多“加分项”场景,例如 ERP/CRM 等企业系统中的 AI 智能体,以及面向家庭用户与内容创作者的视频理解、自动摘要、智能编排等应用。
英特尔中国区技术部总经理高宇指出,NAS 能够从小众走向大众,源于两大关键变化:
首先,是易用性的突破。过去用户需要具备一定网络和存储知识才能部署 NAS,如今,以英特尔合作伙伴为代表的生态链企业,已经将NAS的部署简化到“小白用户三五步即可完成”。这让家庭级、个人级用户首次成为了NAS产品的主力人群。
其次,是个人媒体时代的爆发。早期 NAS 的主要用途是存电影、存资料,如今则变成了家庭影像库、个人创意库——“几万、十几万张照片”成为常态。用户数据的爆炸式增长,使“家庭存储中心”变成刚需。
如果说海量数据让 NAS 成为家庭“数据中心”,那么 AI 的出现正在让 NAS 成为更智能的“家庭计算中心”。高宇提出,AI正快速从云端下沉到端侧,形成两大趋势:
1)“大而稀”:模型参数大,但只激活少量神经元,使大模型端侧推理成为可能;
2)“小而专”:4B 及以下的小模型,在蒸馏后拥有两年前 8B 模型的能力。
当 AI 的“听、说、看、理解、生成”能力结合海量家庭数据与不断提升的本地算力时,AI NAS 的爆发窗口已经打开。
英特尔认为,随着企业数字化转型加速,中小企业已经形成对本地 AI 的刚性需求。AI NAS 能够:快速检索企业内部文档、视频、产品手册等资料;构建跨部门统一知识库;支撑 AI Agent 执行数据分析、预测等任务;作为 AI PC 的算力后端,承载大模型应用;这些核心能力将推动 AI NAS 成为企业 IT 架构的新组成部分。
英特尔的技术路线:从酷睿 Ultra 到锐炫 Pro B60
作为底层基础设施的关键赋能者,英特尔深耕 NAS 领域已近八年,从最初支持一两个客户到如今上百位生态伙伴共同参与,其成长速度本身就印证了 NAS 市场的巨大潜力。
英特尔早在2023年提出AI NAS概念时,就已意识到算力的重要性——NAS不应局限于“小核平台”,而需要具备更强媒体处理与AI推理能力。英特尔面向AI NAS生态推出了两条覆盖家庭到企业全场景的核心平台路线:
其一是定位端侧高效 AI 计算的酷睿Ultra / Arrow Lake 200H系列平台,整体算力可达 100 TOPS,其中 GPU 贡献超过 70 TOPS,NPU 则提供逾 10 TOPS;得益于可变显存技术,该平台能够在大内存配置下运行 100B–120B 级的大模型,并已完成多模态全链路的深度适配,具备“听、说、看、理解、行为”等能力,十分适合家庭用户、设计师工作室以及中小企业等多元场景。随着 Intel 18A 制程的量产临近,下一代 Panther Lake 平台的算力将进一步提升至 180 TOPS,端侧大模型推理的上限也将被再度拉高。
其二是面向专业级与企业级需求的锐炫 Pro B60 扩展卡方案,单卡配置提供 24GB 显存,双卡可扩展至 48GB,具备更高的推理吞吐能力,能够满足高并发、重负载的运行需求;同时凭借高能效比优势,它为希望复用既有 SoC 架构的厂商提供了低成本升级路径。扩展卡形态也使传统 NAS 厂商无需大幅重构系统,即可获得强劲的 AI 加速能力,为企业级 AI NAS 的创新提供了更具弹性的算力空间。
面向未来,英特尔还将依托 Intel 18A 制程与 Panther Lake 平台,进一步将端侧算力拉升至 180 TOPS 级别,并通过 XPU 调度工具、资源均衡器 Balancer、EC-RAG 本地知识库引擎、樱桃语音助手 SDK 等软件栈,把 CPU、iGPU、NPU 以及独显统一纳入调度。
在软件层面,英特尔同样强化了生态能力,OpenVINO 与其他开源框架为开发者提供广泛支持。硬件与工具链共同构成了 AI NAS 的技术底座。从 2023 年的 36 TOPS 增长到如今的 180 TOPS,英特尔仅用两年时间实现了五倍提升;而 NPU 从 0.5 TOPS 到 50 TOPS 则用了七八年。如今这类算力增长的加速度,也体现了英特尔对用户需求的高度重视。
在英特尔持续的软件与硬件创新加持下,市场上已经出现面向多场景、多形态的 NAS 产品。2025年的多款 NAS 产品几乎均采用了具备一定算力的英特尔平台。
AI NAS 的产业化时刻已至
本次 AI NAS解决方案峰会上,可道云、绿联、铁威马、极空间、畅网、飞牛、冰鲸等多家伙伴,围绕英特尔酷睿 Ultra / Arrow Lake 平台与锐炫 Pro B60 GPU 展示了各自最新进展。
可道云网络有限公司技术负责人王焘分享了他们与英特尔团队基于“酷睿 Ultra + 锐炫 Pro B60”打造的行业级 AI NAS 方案,并首次公布了其在大型装备制造集团(挖掘机业务线)中的深度落地实践。
绿联产品经理杨超表示,自2023年起,绿联与英特尔CCG团队全面深化合作,通过英特尔N系列、奔腾、12 代 i3/i5/i7 以及酷睿 Ultra 等处理器,构建从2盘位到8盘位、全闪存等多层级的NAS产品体系,覆盖家庭用户、创作者及中小企业场景。绿联宣布,其新一代 AI NAS 将率先采用英特尔酷睿 Ultra。
铁威马郭钱良介绍,自 2014 年推出首款英特尔 X86 NAS 起,双方合作已走过十年。最新的TOS7将全面引入AI,并与英特尔平台在算力调度、AI 加速上深度适配,为企业级与 prosumer 用户提供稳定、可控、可扩展的 AI 存储系统。
极空间从第一代产品起就在相册中引入 AI 人像识别,是较早在 NAS 上实践 AI 的厂商。如今,基于以英特尔为代表的本地算力平台,他们将 AI能力进一步拓展到完整的媒体工作流中。
相比偏重终端形态的厂商,畅网更多站在“算力基础设施 + 企业应用”的视角构建 AI NAS。畅网创始人兼 CTO 黎武超在分享中表示,其目标是打造一套通用AI NAS系统与全场景 AI 算力整机。其中在系统层面,深度集成英特尔 Helicon Search、EC-RAG 等组件,在规格文档检索等场景中实现高精度匹配;硬件层面基于新一代英特尔CPU + B60显卡。畅网希望在企业内部构建 “替代云端”的本地算力集群:既满足隐私与合规要求,又能以一体化交付方式,降低企业 AI 转型门槛。
飞牛(fnOS)则从操作系统层切入 AI NAS 生态。作为一款专注于 X86 平台的 NAS OS,fnOS 通过对 Linux 内核、文件系统(Btrfs/EXT4/ZFS)、RAID 子系统的深度改造,为上层 AI 应用提供了更稳定、更高性能的基础,社区中甚至流传着 “万物皆可飞牛” 的说法——任何一台 X86 设备装上 fnOS,都可以秒变 NAS。在硬件侧,飞牛也计划与基于英特尔平台的多家 OEM 合作推出 Basic、Evo 以及面向中小企业的 6 盘位机型,并支持在英特尔至强服务器上以纯软件形态部署。
冰鲸科技则代表了另一类生态角色——从全球开源社区长出来的 NAS OS 厂商。其操作系统 ZimaOS 从欧美社区起步,如今已拥有3万多用户社区与百万级安装量,其中约 92% 的在线节点运行在英特尔硬件之上。
为了降低合作伙伴的技术门槛,英特尔成立了专门的AI NAS软件团队,并提供:平台级 AI SDK 与工具链;Ollama、llama.cpp 全生态支持;图像/视频检索 SDK(基础版 + Pro版);EC-RAG:用于本地知识库的核心技术框架;多任务调度 Balancer,提高系统稳定性与资源效率;更强NPU的Panther Lake,加速GPU+NPU协同推理。此外,面向AI PC与AI NAS 的“英特尔樱桃AI助手”也在加速落地。
根据 QL Research 预测,全球NAS市场未来将保持40%的高速复合增长率。英特尔指出,AI的加入将进一步推动NAS的第二波增长周期,2025–2026年将迎来AI NAS应用的大规模落地,Panther Lake强力算力和更成熟的生态,将成为下一阶段爆发的关键推动力。
展望未来
对于“未来五年 AI NAS 会如何发展?”几位受访嘉宾指出,AI NAS是明确方向,而具体路径会在实践中逐步清晰。回望 ChatGPT 发布至今不过三年,没有人能精确预测每一次技术跃迁,但NAS迈向 AI 化已是不可逆的行业共识。
在可预见的短期内,AI NAS的“基本盘”将由两部分构成:第一,本地知识库被视为所有 AI NAS 至少应具备的核心能力;第二,NAS 的易用性依然是必须持续攻克的结构性问题,从界面优化、初始化配置,到备份策略、异常检测,都需要 AI 来进一步提升体验,让 NAS 从“能用”走向“好用”。
而在更长期的愿景中,AI NAS 的演进将由场景驱动、由用户决定:对于中小企业,突破口将是本地知识库与 ERP/文档类 AI 智能体;对于家庭与内容创作者,相册管理、视频理解、监控分析与素材管理等场景,将成为 AI 价值最自然的落点;当厂商、生态伙伴与渠道三方共同作用,真正打造出“一两个现象级爆款 AI 应用”时,行业可能迎来决定性拐点。
而英特尔凭借酷睿Ultra、锐炫Pro B60以及Panther Lake平台,将成为推动这场变革的核心力量。NAS不再只是存储设备,它正在成为家庭与企业的下一代智能计算中枢。
AI NAS 到底是什么?行业仍在探索,但方向已极为清晰
尽管AI NAS已成为行业热词,但何谓“AI NAS”,尚未形成标准答案。
铁威马郭钱良认为,目前给 AI NAS 下精确定义为时尚早,它更像是功能机向智能手机过渡的阶段,需要经历数年的探索与试错;眼下更务实的路径,是从现有 NAS 用户的真实需求出发,持续叠加有价值的 AI 能力,其中“本地知识库”几乎是最重要、最实用的突破点。
绿联杨超则从数据与隐私切入:尽管 PC 和手机是用户的使用入口,但真正沉淀下来的海量原始数据,最终都落在 NAS 上。因此 AI NAS 的真正核心特征应为:具备大容量的数据本地存储能力;在本地完成 AI 分析与推理,避免隐私泄露与不稳定性;与云端AI强调“大模型规模”不同,AI NAS的价值在于围绕本地数据构建AI。
英特尔则在此基础上归纳出当前产业的一些共识:首先,以本地数据的智能管理为核心,让照片、视频、文件、企业文档都能实现“秒搜秒用”;其次,在此之上逐步叠加本地知识库、RAG 能力以及面向企业和家庭的各类智能体;最后,再向前探索更多“加分项”场景,例如 ERP/CRM 等企业系统中的 AI 智能体,以及面向家庭用户与内容创作者的视频理解、自动摘要、智能编排等应用。
英特尔中国区技术部总经理高宇指出,NAS 能够从小众走向大众,源于两大关键变化:
首先,是易用性的突破。过去用户需要具备一定网络和存储知识才能部署 NAS,如今,以英特尔合作伙伴为代表的生态链企业,已经将NAS的部署简化到“小白用户三五步即可完成”。这让家庭级、个人级用户首次成为了NAS产品的主力人群。
其次,是个人媒体时代的爆发。早期 NAS 的主要用途是存电影、存资料,如今则变成了家庭影像库、个人创意库——“几万、十几万张照片”成为常态。用户数据的爆炸式增长,使“家庭存储中心”变成刚需。
如果说海量数据让 NAS 成为家庭“数据中心”,那么 AI 的出现正在让 NAS 成为更智能的“家庭计算中心”。高宇提出,AI正快速从云端下沉到端侧,形成两大趋势:
1)“大而稀”:模型参数大,但只激活少量神经元,使大模型端侧推理成为可能;
2)“小而专”:4B 及以下的小模型,在蒸馏后拥有两年前 8B 模型的能力。
当 AI 的“听、说、看、理解、生成”能力结合海量家庭数据与不断提升的本地算力时,AI NAS 的爆发窗口已经打开。
英特尔认为,随着企业数字化转型加速,中小企业已经形成对本地 AI 的刚性需求。AI NAS 能够:快速检索企业内部文档、视频、产品手册等资料;构建跨部门统一知识库;支撑 AI Agent 执行数据分析、预测等任务;作为 AI PC 的算力后端,承载大模型应用;这些核心能力将推动 AI NAS 成为企业 IT 架构的新组成部分。
英特尔的技术路线:从酷睿 Ultra 到锐炫 Pro B60
作为底层基础设施的关键赋能者,英特尔深耕 NAS 领域已近八年,从最初支持一两个客户到如今上百位生态伙伴共同参与,其成长速度本身就印证了 NAS 市场的巨大潜力。
英特尔早在2023年提出AI NAS概念时,就已意识到算力的重要性——NAS不应局限于“小核平台”,而需要具备更强媒体处理与AI推理能力。英特尔面向AI NAS生态推出了两条覆盖家庭到企业全场景的核心平台路线:
其一是定位端侧高效 AI 计算的酷睿Ultra / Arrow Lake 200H系列平台,整体算力可达 100 TOPS,其中 GPU 贡献超过 70 TOPS,NPU 则提供逾 10 TOPS;得益于可变显存技术,该平台能够在大内存配置下运行 100B–120B 级的大模型,并已完成多模态全链路的深度适配,具备“听、说、看、理解、行为”等能力,十分适合家庭用户、设计师工作室以及中小企业等多元场景。随着 Intel 18A 制程的量产临近,下一代 Panther Lake 平台的算力将进一步提升至 180 TOPS,端侧大模型推理的上限也将被再度拉高。
其二是面向专业级与企业级需求的锐炫 Pro B60 扩展卡方案,单卡配置提供 24GB 显存,双卡可扩展至 48GB,具备更高的推理吞吐能力,能够满足高并发、重负载的运行需求;同时凭借高能效比优势,它为希望复用既有 SoC 架构的厂商提供了低成本升级路径。扩展卡形态也使传统 NAS 厂商无需大幅重构系统,即可获得强劲的 AI 加速能力,为企业级 AI NAS 的创新提供了更具弹性的算力空间。
面向未来,英特尔还将依托 Intel 18A 制程与 Panther Lake 平台,进一步将端侧算力拉升至 180 TOPS 级别,并通过 XPU 调度工具、资源均衡器 Balancer、EC-RAG 本地知识库引擎、樱桃语音助手 SDK 等软件栈,把 CPU、iGPU、NPU 以及独显统一纳入调度。
在软件层面,英特尔同样强化了生态能力,OpenVINO 与其他开源框架为开发者提供广泛支持。硬件与工具链共同构成了 AI NAS 的技术底座。从 2023 年的 36 TOPS 增长到如今的 180 TOPS,英特尔仅用两年时间实现了五倍提升;而 NPU 从 0.5 TOPS 到 50 TOPS 则用了七八年。如今这类算力增长的加速度,也体现了英特尔对用户需求的高度重视。
在英特尔持续的软件与硬件创新加持下,市场上已经出现面向多场景、多形态的 NAS 产品。2025年的多款 NAS 产品几乎均采用了具备一定算力的英特尔平台。
AI NAS 的产业化时刻已至
本次 AI NAS解决方案峰会上,可道云、绿联、铁威马、极空间、畅网、飞牛、冰鲸等多家伙伴,围绕英特尔酷睿 Ultra / Arrow Lake 平台与锐炫 Pro B60 GPU 展示了各自最新进展。
可道云网络有限公司技术负责人王焘分享了他们与英特尔团队基于“酷睿 Ultra + 锐炫 Pro B60”打造的行业级 AI NAS 方案,并首次公布了其在大型装备制造集团(挖掘机业务线)中的深度落地实践。
绿联产品经理杨超表示,自2023年起,绿联与英特尔CCG团队全面深化合作,通过英特尔N系列、奔腾、12 代 i3/i5/i7 以及酷睿 Ultra 等处理器,构建从2盘位到8盘位、全闪存等多层级的NAS产品体系,覆盖家庭用户、创作者及中小企业场景。绿联宣布,其新一代 AI NAS 将率先采用英特尔酷睿 Ultra。
铁威马郭钱良介绍,自 2014 年推出首款英特尔 X86 NAS 起,双方合作已走过十年。最新的TOS7将全面引入AI,并与英特尔平台在算力调度、AI 加速上深度适配,为企业级与 prosumer 用户提供稳定、可控、可扩展的 AI 存储系统。
极空间从第一代产品起就在相册中引入 AI 人像识别,是较早在 NAS 上实践 AI 的厂商。如今,基于以英特尔为代表的本地算力平台,他们将 AI能力进一步拓展到完整的媒体工作流中。
相比偏重终端形态的厂商,畅网更多站在“算力基础设施 + 企业应用”的视角构建 AI NAS。畅网创始人兼 CTO 黎武超在分享中表示,其目标是打造一套通用AI NAS系统与全场景 AI 算力整机。其中在系统层面,深度集成英特尔 Helicon Search、EC-RAG 等组件,在规格文档检索等场景中实现高精度匹配;硬件层面基于新一代英特尔CPU + B60显卡。畅网希望在企业内部构建 “替代云端”的本地算力集群:既满足隐私与合规要求,又能以一体化交付方式,降低企业 AI 转型门槛。
飞牛(fnOS)则从操作系统层切入 AI NAS 生态。作为一款专注于 X86 平台的 NAS OS,fnOS 通过对 Linux 内核、文件系统(Btrfs/EXT4/ZFS)、RAID 子系统的深度改造,为上层 AI 应用提供了更稳定、更高性能的基础,社区中甚至流传着 “万物皆可飞牛” 的说法——任何一台 X86 设备装上 fnOS,都可以秒变 NAS。在硬件侧,飞牛也计划与基于英特尔平台的多家 OEM 合作推出 Basic、Evo 以及面向中小企业的 6 盘位机型,并支持在英特尔至强服务器上以纯软件形态部署。
冰鲸科技则代表了另一类生态角色——从全球开源社区长出来的 NAS OS 厂商。其操作系统 ZimaOS 从欧美社区起步,如今已拥有3万多用户社区与百万级安装量,其中约 92% 的在线节点运行在英特尔硬件之上。
为了降低合作伙伴的技术门槛,英特尔成立了专门的AI NAS软件团队,并提供:平台级 AI SDK 与工具链;Ollama、llama.cpp 全生态支持;图像/视频检索 SDK(基础版 + Pro版);EC-RAG:用于本地知识库的核心技术框架;多任务调度 Balancer,提高系统稳定性与资源效率;更强NPU的Panther Lake,加速GPU+NPU协同推理。此外,面向AI PC与AI NAS 的“英特尔樱桃AI助手”也在加速落地。
根据 QL Research 预测,全球NAS市场未来将保持40%的高速复合增长率。英特尔指出,AI的加入将进一步推动NAS的第二波增长周期,2025–2026年将迎来AI NAS应用的大规模落地,Panther Lake强力算力和更成熟的生态,将成为下一阶段爆发的关键推动力。
展望未来
对于“未来五年 AI NAS 会如何发展?”几位受访嘉宾指出,AI NAS是明确方向,而具体路径会在实践中逐步清晰。回望 ChatGPT 发布至今不过三年,没有人能精确预测每一次技术跃迁,但NAS迈向 AI 化已是不可逆的行业共识。
在可预见的短期内,AI NAS的“基本盘”将由两部分构成:第一,本地知识库被视为所有 AI NAS 至少应具备的核心能力;第二,NAS 的易用性依然是必须持续攻克的结构性问题,从界面优化、初始化配置,到备份策略、异常检测,都需要 AI 来进一步提升体验,让 NAS 从“能用”走向“好用”。
而在更长期的愿景中,AI NAS 的演进将由场景驱动、由用户决定:对于中小企业,突破口将是本地知识库与 ERP/文档类 AI 智能体;对于家庭与内容创作者,相册管理、视频理解、监控分析与素材管理等场景,将成为 AI 价值最自然的落点;当厂商、生态伙伴与渠道三方共同作用,真正打造出“一两个现象级爆款 AI 应用”时,行业可能迎来决定性拐点。
而英特尔凭借酷睿Ultra、锐炫Pro B60以及Panther Lake平台,将成为推动这场变革的核心力量。NAS不再只是存储设备,它正在成为家庭与企业的下一代智能计算中枢。
责任编辑:duqin