• 咨询电话
    010-82926632
  • 咨询邮箱
    sales@rltec.com.cn
  • 公司地址
    北京海淀上地弘源首著大厦
  • A4280 Q46 人工智能服务器

A4280 Q46 人工智能服务器

● 配备8块NVIDIA推出的最新Hopper架构GPU
● 使用2颗Intel最新一代Xeon或2颗AMD第四代EPYC处理器
● 整合了Transformer加速模块,有效加快GPT大型模型的训练进程
● 实现了节点内全PCIe 5.0的高速互连,CPU与GPU之间的数据传输速度提高了四倍
● 提供全液冷系统的可选配置,液冷覆盖率达到80%以上,实现PUE值低于1.15

A4280 Q46 人工智能服务器 是基于全新一代AI超融合架构平台,面向超大规模数据中心的强劲性能、极致扩展人工智能服务器,最强 算力密度6U空间内搭载1块NVIDIA Hopper架构HGX-8GPU模组,系统支持4.0Tbps网络带宽,满足万亿级参数超大模型并行训 练需求。搭载2颗Intel®第四代至强®可扩展处理器(TDP 350W)或2颗AMD第四代EPYC处理器(Max cTDP 400W),最高可达4TB系 统内存,128TB NVMe高速存储,支持高达12个PCIe Gen5 x16扩展槽位,可灵活支持OCP 3.0、CX7、多种智能网卡等,构建面向超大模型训练、元宇宙、自然语言理解、推荐、AIGC等场景的最强AI算力平台。

■ 强劲性能
– 8颗NVIDIA最新Hopper架构GPU
– 2颗Intel®第四代至强®可扩展处理器或2颗AMD 第四代EPYC处理器
– 集成Transformer引擎,大幅加速GPT大模型训 练速度

■ 领先架构
– 节点内全PCIe 5.0高速链路,CPU至GPU带宽提升4倍
– 节点间高速互联扩展,4.0Tbps无阻塞带宽IB/RoCE 组网
– 集群级优化架构设计,GPU: 计算IB: 存储IB=8:8:2

■ 极致能效
– 12V和54V N+N冗余电源分离供电设计,减少电源转换损耗
– 可选支持系统全液冷设计,液冷覆盖率高于80%,PUE<1.15
– 支持最高45℃进水温度, 一次侧支持自然冷却

■ 多元兼容
– 全模块化设计,一机多芯兼容,灵活配置支持本地和云端部署
– 支持大规模GPT-3/LLaMA/ChatGLM模型训练和推理
– 领先支持多样化的SuperPod解决方案,适用AIGC,AI4Science及元宇宙等丰富场景

型号A4280 Q46IA4280 Q46A
高度6U
GPU1块NVIDIA HGX-Hopper-8GPU模组
处理器2颗Intel®第四代至强®可扩展处理器,TDP 350W2颗AMD第四代EPYCTM处理器, 最大cTDP 400W
内存32条DDR5 DIMMs内存, 速率最高支持4800MT/s24条DDR5 DIMMs内存, 速率最高支持4800MT/s
存储最多支持24块2.5英寸SSD硬盘,其中最大支持16块NVMe
M.22块内置M.2 NVMe/SATA (可选)2块内置M.2 NVMe (可选)
PCIe插槽支持10个PCIe 5.0 x16插槽(其中1个PCIe 5.0 x16插槽可替换为2个PCIe 5.0 x8速率的x16槽位) 可选支持Bluefield-3、CX7以及多种类型智能网卡
RAID支持可选支持RAID 0/1/10/5/50/6/60等, 支持Cache超级电容保护
前置I/O1个USB 3.0端口, 1个USB 2.0端口, 1个VGA端口
后置I/O2个USB 3.0端口, 1个MicroUSB端口, 1个VGA端口, 1个RJ45管理口
OCP可选支持1张OCP 3.0网卡, 支持NCSI功能
管理DC-SCM BMC管理模组
TPM模块TPM 2.0
风扇模组支持GPU、NVSwitch、CPU等冷板全覆盖,支持最高45℃高温进水 GPU区域:5个54V N+1冗余热插拔风扇
CPU区域:6个12V N+1冗余热插拔风扇
电源2块12V 3200W及6块54V 2700W钛金级CRPS电源,支持N+N冗余
尺寸宽447mm,高263mm,深860mm
重量净重90kg(毛重:105kg)
环境参数工作温度:10℃~35℃; 贮存温度:-40℃~70℃
工作湿度:10%~90% R.H.;  贮存湿度:10%~93% R.H.