NVIDIA A2 Tensor Core GPU 具有低功耗、小尺寸和高性能的特點,可為在邊緣部署 NVIDIA AI 的智能視頻分析 (IVA) 提供入門級推理功能。該 GPU 采用半高 PCIe 4.0 卡的設計,并提供 40-60 瓦的低熱設計功耗 (TDP) 配置功能,能為大規模部署中的不同服務器帶來通用的推理加速能力。
推理性能提升高達 20 倍
部署 AI 推理技術的目的是通過智能、實時的體驗為消費者打造更便利的生活。與 CPU 服務器相比,搭載 NVIDIA A2 Tensor Core GPU 的邊緣和入門級服務器可提供高達 20 倍的推理性能,可立即將服務器升級到能處理現代 AI 的水平。
在智能邊緣實現更高的 IVA 性能
在智慧城市、制造和零售等智能邊緣用例中,搭載 NVIDIA A2 GPU 的服務器最高可將性能提升 1.3 倍。與前幾代 GPU 相比,運行 IVA 工作負載的 NVIDIA A2 GPU 最高可將性價比和能效分別提升 1.6 倍和 10%,從而改善部署效率。
針對服務器進行優化
針對 5G 邊緣和工業環境這樣空間和散熱要求受限制的入門級服務器,NVIDIA A2 為其推理工作負載和部署進行了優化。A2 提供了在低功耗范圍內運行的半高外形,從 60 瓦到 40 瓦的 TDP,使其成為眾多服務器的理想選擇。
領先的跨云、數據中心和邊緣的 AI 推理性能
AI 推理繼續推動跨行業的突破性創新,包括消費互聯網、醫療保健和生命科學、金融服務、零售、制造和超級計算。A2 的小巧尺寸和低功耗與 NVIDIA A100 和 A30 Tensor Core GPU 相結合,可提供跨云、數據中心和邊緣的完整 AI 推理產品組合。A2 和 NVIDIA AI 推理產品組合可確保使用更少的服務器和更少的功率部署 AI 應用,從而以大幅降低的成本獲得更快的洞察力。
已為企業使用做好準備
NVIDIA AI Enterprise 是一套端到端云原生 AI 和數據分析軟件,經認證可在基于服務器虛擬化平臺的虛擬基礎設施(帶有 VMware vSphere)中的 A2 上運行。這允許在混合云環境中管理和擴展 AI 和推理工作負載。
主流 NVIDIA 認證系統
搭載 NVIDIA A2 的 NVIDIA 認證系統? 將計算加速功能與高速、安全的 NVIDIA 網絡整合到 NVIDIA 的 OEM 合作伙伴構建和銷售的企業數據中心服務器中。利用此計劃,客戶可以在單個高性能、經濟高效且可擴展的基礎設施上識別、獲取和部署系統,以運行 NVIDIA NGC? (NVIDIA GPU CLOUD) 目錄中的傳統和多樣化的現代 AI 應用程序。
注:與 NVIDIA 產品相關的圖片或視頻(完整或部分)的版權均歸 NVIDIA Corporation 所有。