Nvidia enthüllt auf der GTC 2022 die allererste CPU und Hopper-GPU

[ad_1]

Nvidia CEO Jensen Huang eröffnete die Graphics Technology Conference (GTC) des Unternehmens mit einer Keynote voller Ankündigungen. Zu den wichtigsten Enthüllungen gehören Nvidias allererste diskrete CPU namens Grace sowie die Hopper-Architektur der nächsten Generation, die später im Jahr 2022 auf den Markt kommen wird.

Der Grace CPU Superchip ist Nvidias erste diskrete CPU überhaupt, aber er wird nicht das Herzstück Ihres nächsten Gaming-PCs sein. Nvidia hat die Grace-CPU 2021 angekündigt, aber dieser Superchip, wie Nvidia ihn nennt, ist etwas Neues. Es setzt zwei Grace-CPUs zusammen, ähnlich wie Apples M1 Ultra, die über Nvidias NVLink-Technologie verbunden sind.

Ein Rendering von Nvidias Grace Superchip.

Im Gegensatz zum M1 Ultra ist der Grace Superchip jedoch nicht auf allgemeine Leistung ausgelegt. Die GPU mit 144 Kernen wurde für KI, Data Science und Anwendungen mit hohen Speicheranforderungen entwickelt. Die CPU verwendet immer noch ARM-Kerne, trotz des aufgegebenen 40-Milliarden-Dollar-Angebots von Nvidia zum Kauf des Unternehmens.

Neben dem Grace Superchip zeigte Nvidia seine Hopper-Architektur der nächsten Generation. Spekulationen zufolge ist dies nicht die Architektur, die den RTX 4080 antreibt. Stattdessen wurde es für die Rechenzentrumsbeschleuniger von Nvidia entwickelt. Nvidia debütiert die Architektur in der H100-GPU, die Nvidias vorherige A100 ersetzen wird.

Nvidia nennt den H100 den „fortschrittlichsten Chip der Welt“. Es wird mit dem N4-Fertigungsprozess des Chipherstellers TSMC gebaut und enthält unglaubliche 80 Milliarden Transistoren. Als ob das nicht genug wäre, ist es auch die erste GPU, die PCIe 5.0 und HBM3-Speicher unterstützt. Nvidia sagt, dass nur 20 H100-GPUs „das Äquivalent des weltweiten Internetverkehrs aufrechterhalten können“, was die Leistungsfähigkeit von PCIe 5.0 und HBM3 zeigt.

Kunden können über die DGX-Server der vierten Generation von Nvidia auf die GPU zugreifen, die acht H100-GPUs und 640 GB HBM3-Speicher kombinieren. Diese Maschinen bieten laut Nvidia 32 PetaFLOPs KI-Leistung, was sechsmal so viel ist wie der A100 der letzten Generation.

Wem das DGX nicht genug Leistung bietet, dem bietet Nvidia auch seinen DGX H100 SuperPod an. Dies baut darauf auf, dass Nvidia im vergangenen Jahr seine SuperPod-Beschleuniger vermietet hat, sodass diejenigen ohne das Budget für riesige Rechenzentren die Leistung der KI nutzen können. Diese Maschine kombiniert 32 DGX H100-Systeme und liefert massive 20 TB HBM3-Speicher und 1 exoFLOP KI-Leistung.

Nvidia-Hopper-GPU-Familie.

Nvidia debütiert die neue Architektur mit seinem eigenen EOS-Supercomputer, der 18 DGX H100 SuperPods für insgesamt 576 H100-GPUs umfasst. Dieses System ermöglicht Nvidias vierte Generation von NVLink, das eine Verbindung mit hoher Bandbreite zwischen massiven Clustern von GPUs bietet.

Mit zunehmender Anzahl von GPUs zeigte Nvidia, dass der A100 der letzten Generation stagnieren würde. Hopper und NVLink der vierten Generation haben dieses Problem laut dem Unternehmen nicht. Da die Anzahl der GPUs in die Tausende geht, können H100-basierte Systeme laut Nvidia ein bis zu neunmal schnelleres KI-Training bieten als A100-basierte Systeme.

Diese Architektur der nächsten Generation bietet laut Nvidia „bahnbrechende Leistungsvorteile“. Obwohl es für die Welt der KI und des Hochleistungsrechnens spannend ist, warten wir immer noch gespannt auf Ankündigungen rund um Nvidias RTX 4080 der nächsten Generation, die Gerüchten zufolge noch in diesem Jahr auf den Markt kommen soll.

Empfehlungen der Redaktion






[ad_2]

Leave a Comment