Investing.com – NVIDIA (NASDAQ:NVDA) hat am Montag mit der Vorstellung seines neuesten KI-Systems, dem HGX H200 mit H200-GPU, seine Dominanz im KI-Bereich weiter unter Beweis gestellt.
Die neueste HGX H200 Plattform verfügt über den NVIDIA H200 Tensor Core Grafikprozessor mit verbessertem Speicher, um massive Datenmengen für generative KI- und High-Performance-Computing-Workloads zu verarbeiten. Der neue HGX H200 basiert auf NVIDIAs Hopper-Architektur.
In eigener Sache: Holen Sie sich 3,75 % Tagesgeldzinsen und 150 € Prämie als Neukunde bei der Consorsbank! Jetzt zugreifen.
Der H200 ist der erste Grafikprozessor mit HBM3e - schnellerem, größerem Speicher, der die Beschleunigung von generativer KI und großen Sprachmodellen ermöglicht und gleichzeitig das wissenschaftliche Rechnen für HPC-Workloads vorantreibt. Mit HBM3e bietet der NVIDIA H200 141 GB Speicher bei 4,8 Terabyte pro Sekunde, also fast die doppelte Kapazität und 2,4-fache Bandbreite im Vergleich zu seinem Vorgänger, dem NVIDIA A100.
"Um mit generativen KI- und HPC-Anwendungen Intelligenz zu erzeugen, müssen riesige Datenmengen effizient und in hoher Geschwindigkeit mit großem, schnellem GPU-Speicher verarbeitet werden", sagt Ian Buck, Vice President of Hyperscale and HPC bei NVIDIA. "Mit NVIDIA H200 ist die branchenführende End-to-End-KI-Supercomputing-Plattform gerade noch schneller geworden, um einige der wichtigsten Herausforderungen der Welt zu lösen."
NVIDIA wird voraussichtlich im zweiten Quartal 2024 mit der Auslieferung von H200-basierten Systemen beginnen.