结 构:4U机架式
G P U: 标配8片 Nvidia Tesla A100 GPU卡
处 理 器 :AMD EPYC 7742,64核,128线程(标配两颗,最大支持2颗)
内 存:1TB DDR4-3200MHz ECC REG
存储设备:1个1TB U.2 SSD,1个2TB 2.5寸SATA企业级
网 络:双千兆网络接口
电源性能:2000W 冗余2+2电源
在线咨询
产品特性
详细规格
正昱A840 GPU服务器采用第二代AMD EPYC处理器,专门为现代数据中心工作负载而设计,为客户提供了一个理想的功能组合,不但解锁了性能,还重新定义了虚拟化、云计算、高性能计算和企业级应用的经济性。
对于企业数据中心,第二代AMD EPYC处理器比同类产品带来了高达83%的Java应用程序性能提升 ,高达43%的SAP SD 2 Tier性能 提升,并创下了Hadoop实时分析性能的世界记录 。
对于现代云计算和虚拟化工作环境,第二代AMD EPYC处理器提供了创世界记录的虚拟化 性能,重新定义了数据中心的经济性。
对于高性能计算,第二代AMD EPYC处理器提供了一个无与伦比的完美组合,包括:创纪录的浮点性能 ,同类产品最高的DRAM内存 和I/O带宽,以实现超强的HPC负载;高达2倍的计算流体力学性能 ,以及最高可提升72%的结构分析性能 。
其他功能方面,第二代AMD EPYC(霄龙)处理器突出多领域应用,涉及互联网行业的大数据分析、内存数据库、数据中心应用等,还包括石油和天然气勘探等领域,泛用性非常出色。
元宇宙(Metaverse)是一个虚拟时空间的集合,由一系列的增强现实(AR)、虚拟现实(VR)和互联网(Internet)所组成。表示“超越宇宙”的概念:一个平行于现实世界运行的虚拟空间。简单来说元宇宙就是现实世界中的所有人和事都被数字化投射在了一个云端虚拟世界里,在这个3D虚拟空间里你可以做任何你在真实世界中可以做的事情。比如在里边跟人谈恋爱、购物、赛车、剧本杀、家人朋友吃饭逛街、用虚拟社交软件交流等。这需要搭建高度拟真的数字世界,并实现数亿用户实时交互的大场景等,对支撑元宇宙构建和运转的核心源动力——算力提出更高的要求。而服务器是提供数据存储、运算等服务的高性能计算机,是互联网硬件基础架构的核心组件,可以为元宇宙发展提供高速网络、强大性能算力支持。正昱A840 GPU服务器原生支持各种元宇宙应用支持Unreal Engine4/5引擎、Unity引擎。
云游戏是以云计算为基础的游戏方式,在云游戏的运行模式下,所有游戏都在服务器端运行,并将渲染完毕后的游戏画面压缩后通过网络传送给用户。在客户端,用户的游戏设备不需要任何高端处理器和显卡,只需要基本的视频解压能力就可以了。云计算(cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需提供给计算机和其他设备。提供资源的网络被称为“云”, 云游戏可以让玩家不需要购买高配的硬件就可以玩许多大型游戏,在日新月异的今天,计算机硬件飞速发展,去年的主流配置今年便已过时,云游戏能够避免硬件浪费和重复投资,另外具有无需下载方便快捷等优点,是许多玩家理想的游戏方式。正昱A840 GPU服务器最高支持8个双槽位GPU、80个CPU核心、8TB ECC 3DS LRDIMM DDR4内存容量、15TB NVMe高速SSD存储容量,支持大规模、高复杂、高逼真数字场景协同创建和实时渲染仿真,可为VR/AR/云游戏用户提供4K/8K超高清视觉体验和顺滑的操作体验
正昱A840 GPU服务器标配1颗Nvidia Tesla A100 PCIe GPU卡,NVIDIA Tesla A100 是当今市场上为加速人工智能、高性能计算 和图形的数据中心 GPU 中的精尖之作。Tesla A100 采用全新一代 NVIDIA Ampere 架构,助力数据科学家、研究人员和工程师解决以前无法应对的难题,Tesla A100拥有9.7 TeraFLOPS双精度、19.5 TeraFLOPS单精度 ,互联宽带NVIDIA NVLink 600 GB/s、PCIe Gen4 64 GB/s,40G HBM2高速内存,1555GB/s显存带宽。 NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC),在各种规模上实现出色的加速,应对极其严峻的计算挑战。作为 NVIDIA 数据中心平台的引擎,A100 可以高效扩展,系统中可以集成数千个 A100 GPU,也可以利用 NVIDIA 多实例 GPU (MIG) 技术将每个 A100 划分割为七个独立的 GPU 实例,以加速各种规模的工作负载。第三代 Tensor Core 技术为各种工作负载的更多精度水平提供加速支持,缩短获取洞见以及产品上市时间。
NVIDIA A100 的第三代 Tensor Core 借助 Tensor 浮点运算 (TF32) 精度,可提供比上一代高 10 倍之多的性能,并且无需更改代码,更能通过自动混合精度将性能进一步提升两倍。与第三代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCIe 4.0、Mellanox 和 Magnum IO 软件 SDK 结合使用时,系统中可以集成数千个 A100 GPU。这意味着,BERT 等大型 AI 模型只需在 A100 构成的集群上进行训练几十分钟,从而提供出色的性能和可扩展性。