VMware再次与NVIDIA深入合作,让企业能更快在云端布署服务导入自动生成式人工智能应用资源

在此次VMware Explore 2023活动上,VMware宣布与NVIDIA再次携手合作,将推出全新VMware Private AI Foundation With NVIDIA服务,借此协助企业更快导入自动生成式人工智能技术应用资源,并且确保应用内容数据隐密性、安全性及可控性。

-
▲VMware宣布与NVIDIA深入合作,推出可让企业更快导入自动生成式人工智能技术应用资源,并且确保数据隐密性、安全性及可控性的全新VMware Private AI Foundation With NVIDIA服务

随着近期自动生成式人工智能应用趋势发展,越来越多企业开始观望此技术应用发展可能性,同时也评估相关应用风险,虽然人工智能技术应用能带来诸多便利,但资料隐私安全及应用可控程度也成为企业担心问题,尤其应用在金融、医疗、零售业、电信、媒体等服务时,客户资料等数据安全问题必须格外重视。

而VMware此次与NVIDIA合作推出的VMware Private AI Foundation With NVIDIA服务,则是结合NVIDIA AI Enterprise技术资源中的人工智能模型NeMo,让企业能在任何端点位置建构自动生成式人工智能,并且能通过自订模型框架,以更安全方式快速建构人工智能应用服务。

-
▲结合NVIDIA AI Enterprise技术资源,搭配NVIDIA GPU运算资源,让企业能快速藉由VMware服务整合更多自动生成式人工智能应用内容

同时,此服务同样建构在VMware Cloud Foundation方案上,让企业能更容易以云原生形式布署自动生成式人工智能应用服务,并且确保数据隐私与访问安全。 而除了NVIDIA NeMo,此服务还能选择使用Meta的开源人工智能模型Llama 2,让企业在建置选择上有更大弹性。

至于与NVIDIA深入合作,VMware也能在特定服务布署环境通过虚拟化GPU资源加速自动生成式人工智能运算效率,同时通过最大化使用虚拟化CPU、GPU及DPU运算资源,更有助于降低服务建构成本,搭配VMware vSAN快速储存架构也能提高服务数据存取效能,甚至直接通过NVIDIA的GPUDirect RDMA技术, 更可直接跳过CPU运算流程,直接将数据传输到GPU完成运算。

此次合作更进一步让VMware的vSphere虚拟化平台与NVIDIA NVSwitch技术整合,借此提高使用多组GPU加速运算的效能表现,甚至也能藉由NVIDIA AI Workbench访问开源社群构建的人工智能模型,例如通过Hugging Face托管的Llama 2开源模型,在VMware虚拟化环境建构自动生成式人工智能应用内容。

-
▲在VMware Cloud Foundation的基础架构上整合各类模型框架、语言模型等资源,借此在VMware虚拟化环境建构自动生成式人工智能应用内容

另外,为了让企业能更容易布署各类人工智能技术应用,VMware更通过预装诸多人工智能框架与性能优化数据库内容的vSphere Deep Learning VM映像资源,藉此简化企业打造、构建人工智能应用服务门槛。

VMware预计在2024年初推出VMware Private AI Foundation with NVIDIA服务,并且将由Dell、HPE与联想率先提供兼容此服务,并且搭载NVIDIA L40S GPU、BlueField-3 DPU,以及NVIDIA ConnectX-7智能网卡的服务器系统。

-
(0)
搬砖哥搬砖哥

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注