宝德服务器NVIDIA DGX-1
为满足 AI 与数据科学的需求, NVIDIA DGX -1 通过开箱即用的解决方案来加快实施您的计划,如此一来,您可以在几小时而非数月内获得见解。借助DGX -1,再加上集成式 NVIDIA 深度学习软件堆栈,您只需插入并开启电源,即可开始工作。现在,您只需短短一天时间即可开始深度学习训练,而不必花费数月来集成和配置软硬件以及进行错误排查。
尽管许多解决方案都提供 GPU 加速性能,但只有NVIDIA DGX -1 发挥出了最新NVIDIA GPU(例如NVIDIA Tesla V 100)的全部潜力,包括下一代NVLink 和全新 Tensor 核心架构等创新科技。相比其他基于 GPU 的系统,DGX -1 凭借其注重性能的深度学习软件堆栈,将训练速度提升高达三倍。在 NVIDIA DGX -1 的支持下,单一系统的计算能力可媲美 140 台服务器;该系统将最新 NVIDIA GPU技术与当今领先的深度学习软件堆栈集成,为您提供革命性的性能,让您以前所未有的速度获得见解。
招标参数
1 | 深度学习一体机 | *GPU: ≥8块Tesla SMX2 V100,支持Nvlink通信技术,配置一个支持拓扑感知的多 GPU 集成通信库。优化8个 NVLink 连接的混合立方体网格的 GPU 之间的集合通信。半精度计算力(GPU FP16):≥1peta flops *GPU显存:≥整个系统256GB CPU:≥2颗双路20核E5-2698 v4 2.2GHz CUDA核心数量:≥40960 *Tensor核心数量(基于V100):≥5120 最大功率:3500W 系统内存:≥512GB 2133MHZ DDR4 LRDIMM *存储空间:≥1块480 GB SSD RAID 0;≥4块1.92TB SSD RAID 0;最大支持20个2.5寸热插拔SATA盘位; 网络:≥双10GbE,配置4个100Gb/s IB网络接口 操作系统:Ubuntu Linux操作系统 软件系统: *1.配置深度学习框架 该平台配备的深度学习软件开发工具包需加速广泛应用的深度学习框架,如:Caffe、 CNTK、MXNet、TensorFlow、Theano 和 Torch。本平台软件堆栈为这些深度学习框架提供经过优化的容器版本。这些框架包括了所依赖的运行环境,均预先构建、经过测试且随时可以运行。每个框架容器映像还包含框架源代码,可以让用户自定义做修改和功能增强, 还包含完整软件开发堆栈。提供针对该平台专门在优化的深度学习框架,包括Caffe/Caffe2/TensorFlow/Torch/ Theano/CNTK/Mxnet等;并以镜像的方式提供,针对上述镜像文件,提供远程在线仓库存储;提供深度学习训练应用程序、深度学习SDK;快速多GPU集群软件。 *2.平台针对不同的深度学习框架,提供持续优化支持;针对系统平台本身提供在线的更新支持,包括OS升级、BIOS升级、深度学习框架升级、深度学习加速库升级 *3.配置CUDA 工具包,帮助应用程序开发人员通过 GPU 实现大规模并行处理。实现GPU 加速应用的平台,为 C 和 C++ 开发人员构建 GPU 加速应用程序提供全面的开发环境。软件包含面向GPU 的 CUDA C++ 编译器、一套 GPU 加 速算法库、调试和分析工具、范例以及综合编程指南和文档。该软件可以直接安装于系统平台,也可以作为 Docker 容器镜像提供,以 用作任何容器化 CUDA 应用程序的基础层。此外,整个软件需要内嵌于各深度学习框架的容器镜像中。 *4.配置 Docker容器,该软件将 Linux 应用程序及其所有库、配置文件和环境变量捆绑在一起的机制,无论运行哪种Linux系统,应用的执行环境总是相同的,该系统使用 Docker 容器来部署深度学习框架,Docker 容器与平台和硬件无关,通过将用户模式代码(在容器中) 与内核模式代码分离来实现,避免这种分离在使用 GPU 这样的专用硬件时出现问题, 该软件需是一个开源项目,提供一个命令行工具,用于在启动容器的时候加载驱动程序的用户模式,并将 GPU 加载到 Docker 容器中。 *5. 配置深度学习软件开发工具包 平台提供构建于 CUDA 并行计算平台之上的全套 GPU 加速库。提供至少两种库 可提供用于深度神经网络的 GPU 加速: A. CUDA 基础线性代数子例程库 (cuBLAS): cuBLAS 是完整的标准 BLAS 库的 GPU 加速版,可大幅提高在 GPU 上的运 行速度。cuBLAS 广义矩阵乘法 (GEMM) 例程是深度神经网络应用的关键 计算,例如应用于全连接层计算。 B. cuDNN:可大幅优化深度神经网络标准例程的实施,例如前向和反向的卷 积层、池化层、归一化层和激活层。 该平台中配置的深度学习框架容器中,需已自动配置使用针对 Tesla V100 GPU 优化好的并行库。 *6. 平台集成通信库 NCCL 支持拓扑感知的多 GPU 集成通信库。平台的Docker 容器中包含一个 NCCL 版本,优化了平台中 8 个 NVLink 连接的混合立方体网格的 GPU 之间的 集合通信。 当使用平台上的容器进行部署时,深度学习框架(如 Caffe,Torch,Microsoft Cognitive Toolkit 和 TensorFlow)在多个 GPU 上运行时,会自动使用此版本的NCCL *供货资质:投标人需提供原厂商官方授权的授权书,或原厂商授权的代理商提供的授权书。 |
评分标准
总分为100分。其中价格40分,技术45分,商务15分。按评标得分排列中标资格。排名第一的投标人为中标供应商。评分过程中采用四舍五入法,并保留小数2位。
评标内容及标准
序号 | 项目 | 评分内容 | 分值 | 评分标准 |
一 | 价格40分 | 投标报价 | 40分 | 有效投标人中最低投标报价为评标基准价,得满分40分。 投标报价得分=(评标基准价/投标报价)×40,计 算过程按四舍五入,保留两位小数。 备注:有效投标人指通过审查,未被废除投标资格的投标人。 |
二 | 技术45分 | 技术指标响应情况 | 25分 | 投标人提供厂家出具的技术参数证明文档或产品彩页(原件加盖原厂商或原厂商授权代理商的公章),完全满足得25分,加*项参数1项不满足扣3分,扣完为止,非加*项参数1项不满足扣1分,扣完为止。 |
确保货物质量的措施 | 10分 | 本项目中涉及并行运算的GPU产品中每个GPU的高速互联速率高于或等于300Gb/s得10分,高于或等于200Gb/s得5分,高于或等于100Gb/s得3分 ,低于100Gb/s不得分,需提供官方网站截图证明。 | ||
软件环境部署的技术能力 | 10分 | 所投设备提供深度学习环境所具备的软件包,包含a.Caffe b.Caffe2 c.TensorFlow d.Torch e.Theano f.CNTK g.Mxnet h.CUDA工具包 i.Docker容器j.GPU 加速库k.通信库。全部提供得满分,每缺1项扣1分,扣完为止。 | ||
三 | 商务15分 | 运维保障体系 | 5分 | 所投设备需提供原生产厂商提供的授权销售资格或原厂商授权的代理商提供的授权销售资格,提供者得5分,不提供者不得分。 |
5分 |
| |||
5分 |
|
服务及支持
宝德提供全国联保,由分布在全国各地宝德专业售后服务网点提供“一站式”服务响应与支持。
- 3年有限现场保修以及现场支持服务
//有服务器需求请联系:刘经理
电话:一五九九八八九三三九
VX:xiang5701081/15998889339
电子邮箱:一六六二三四八九零@qq.com