中科曙光scaleX40超节点革新AI存算协同

专属客服号

微信订阅号
大数据治理
全面提升数据价值
赋能业务提质增效
在当前算力时代,以Token(词元)为代表的算力需求已成为行业核心刚需,而稳定、高效的算力运转,离不开底层存力的可靠支撑。立足这一行业发展逻辑,中科曙光scaleX40超节点亮相2026中关村
论坛
年会,凭借自研的算存传一体化协同方案,以先进存力筑牢算力底座,加速释放普惠算力。
先进存力,破解Token时代存力短板
当前
AI
产业已全面迈入以推理为核心的Token时代,大模型长上下文推理、多模态数据处理、AI智能体规模化落地,对存储的带宽、时延、吞吐能力提出极致要求。然而算力高速发展、存力支撑不足,成为制约AI商业化落地的核心痛点。
作为scaleX40的“专属存力搭档”,中科曙光自研ParaStor分布式存储历经AI应用场景的针对性优化,核心搭载ParaStorF9000NVMe全闪存储节点。单节点带宽高达220GB/s、IOPS突破1000万,可同时为scaleX40单节点的40张
GPU
卡提供单卡超
5G
B专属带宽,完美匹配大模型训推对存储吞吐量的核心需求。
中科曙光分布式存储ParaStor F9000
同时,ParaStor支持文件、对象、块、HDFS多协议统一承载,可灵活构建弹性存储资源池,覆盖scaleX40的scale-up与scale-out全扩展配置,为AI训推一体化提供稳定、高效的数据底座。
AI数据工厂,从支撑到赋能
依托ParaStor分布式存储,中科曙光为大模型训练、推理、智能体等典型应用量身打造专属AI数据工厂,深度嵌入数据采集、清洗标注、训练推理、迭代优化全业务流程,持续强化scaleX40超节点的系统效能与业务适配性。系统内置向量数据库、AI数据处理与知识提取加速库,实现高价值私域数据的Token化自动生成。
基于以存代算、以存促算的理念,AI数据工厂从根本上打破算力与存力的传统边界,让存力从被动支撑转向主动赋能,全面提升大模型的推理精度与行业适配性,为AI全流程业务提速增效。
“3+5”技术,释放全栈性能
为彻底打通scaleX40超节点的存算协同壁垒,中科曙光创新打造“算、存、传、管”的全栈强协同架构,通过“3+5”算存传加速技术实现了数据全链路极致优化。
计算侧搭建内存池与缓存池,依托XDS技术实现GPU直通存储,消除数据中转损耗; 网络侧借助scaleFabric原生R
DMA
高速网络,带宽提升2倍以上、时延降低3倍; 存储侧凭借独创超级隧道技术,构建专属IO域,为数据提供无干扰、无竞争传输路径。
实测数据显示,在DeepSeek-R1-70B大模型测试中,结合KVcache卸载与XDS技术,120KToken长文本场景下,推理首字符时延(T
TF
T)降低97.3%,有效缓解大显存压力,突破长上下文推理性能瓶颈。
AI基础设施竞争已从单纯的峰值算力比拼,迈入以系统效能、存算协同、单位Token成本为核心的全新阶段。算力与存力的一体化交付,成为推动智能算力普惠、降低行业落地门槛的重要路径。#中科曙光
存储
中科曙光
算力
原文标题:先进存力破局!中科曙光scaleX40革新AI存算协同
文章出处:【微信号:sugoncn,微信公众号:中科曙光】欢迎添加关注!文章转载请注明出处。

