在此次于美国洛杉矶举办的SIGGRAPH 2023活动上,NVIDIA宣布即将推出以GH200为称的下一代Grace Hopper Superchip,更针对专业运算工作需求推出全新RTX工作站,以及新款采用Ada显示架构的专业绘图卡,包含RTX 5000、RTX 4500与RTX 4000,并且针对为Omniverse数字双生技术打造的OVX服务器,推出全新采用Ada显示架构的L40S绘图卡。

此次宣布将推出的GH200 Grace Hopper Superchip,预计会在2024年第二季正式进入市场,其中搭载72组核心设计的Grace CPU,以及对应4PFLOPS运算表现的Hopper GPU,本身更是第一款采用HBM3e内存设计的加速元件,总计搭载141GB HBM3e内存容量,对应每秒5TB的数据传输速度, 相比H100搭载的HBM内存在容量增加1.7倍,传输带宽更是增加1.5倍。

另外,数据传输部分则是搭载新一代NVLink设计,可将两组GH200 Grace Hopper Superchip串接,形成144组核心设计的Grace CPU,以及算力可达8PFLOPS表现的Hopper GPU,同时更可让HBM3e内存容量增加至282GB、对应每秒10TB资料传输速度, 相比H100更可在内存容量提高3.5倍,传输带宽则增加为3倍,内存甚至能对应使用1.2TB容量。
若配合可堆栈、藉由NVLink串接特性,NVIDIA强调256组GH200 Grace Hopper Superchip同样也能以SuperPod形式建构为算力可达1 EFLOPS、内存容量高达144TB的超级计算机。

而若以1亿美元预算建构,在以8800组x86架构CPU执行Llama 2人工智能模型、Vector DB向量数据库、SDXL人工智能图像生成模型所对应算力作为1倍计算基础,并且必须花费5兆瓦 (mW)电力损耗情况下,藉由2500组GH200 Grace Hopper Superchip运作的超级计算机则可发挥12倍算力,同时电力损耗更降为3兆瓦,相比单纯以CPU运作模式可带来高达20倍的能源使用效率。
甚至以发挥相同算力为目标的话,更仅需210组GH200 Grace Hopper Superchip即可实现,而建置预算仅需800万美元,损耗电力也能减少为0.26兆瓦,相比单纯以CPU运作模式可将花费降低至十二分之一。



至于针对专业工作需求推出的全新RTX工作站,最高可选择搭载4张以Ada显示架构打造的RTX 6000专业绘图卡,并且内置NVIDIA CX6 200Gbps级别的智能网路卡(SmartNIC),同时可使用最新版NVIDIA AI Enterprise、NVIDIA Omniverse软件资源,预计会在今年秋季正式出货。

而针对既有工作站扩充升级需求,NVIDIA此次也宣布推出包含RTX 5000、RTX 4500与RTX 4000在内专业绘图卡,同样以Ada显示架构打造,可用于自动生成式人工智能训练、绘图渲染处理,以及Omniverse实时光影追迹效果渲染等,建议售价分别为4000美元、2250美元与1250美元。
其中,RTX 5000从即日起提供,本身采双卡槽宽度与32GB显示内存设计,RTX 4500则将在10月提供,同样以双卡槽宽度设计,显示内存容量则是24GB,至于RTX 4000则会在9月进入市场,本身采单卡槽宽度设计,显示内存容量则是20GB。



针对为Omniverse数字双生技术打造的OVX服务器,NVIDIA此次也宣布推出全新采用Ada显示架构的L40S绘图卡,其中搭载48GB GDDR6显示内存,每台服务器最多可搭载8张L40S绘图卡作为运算加速使用,并且将由华硕、Dell、技嘉、HPE、联想、广达与Supermicro等业者推出相应服务器产品, 最快会在近期内进入市场。
