Die Zukunft der schnellen PC-Grafik? Direkte Verbindung zu SSDs

[ad_1]

Leistungssteigerungen werden mit jeder neuen Generation der besten Grafikkarten erwartet, aber es scheint, dass Nvidia und IBM größere Änderungen im Visier haben.

Die Unternehmen haben sich zusammengeschlossen, um an Big Accelerator Memory (BaM) zu arbeiten, einer Technologie, bei der Grafikkarten direkt mit superschnellen SSDs verbunden werden. Dies könnte zu einer größeren GPU-Speicherkapazität und einer schnelleren Bandbreite führen, während die Beteiligung der CPU begrenzt wird.

Ein Diagramm schlüsselt die BaM-Technologie von Nvidia und IBM auf.
Bildquelle: Arxiv

An diese Art von Technologie wurde in der Vergangenheit bereits gedacht und gearbeitet. Microsofts DirectStorage Application Programming Interface (API) funktioniert auf ähnliche Weise und verbessert die Datenübertragung zwischen der GPU und der SSD. Dies ist jedoch auf externe Software angewiesen, gilt nur für Spiele und funktioniert nur unter Windows. Forscher von Nvidia und IBM arbeiten gemeinsam an einer Lösung, die eine proprietäre API überflüssig macht und gleichzeitig GPUs mit SSDs verbindet.

Die Methode, amüsant als BaM bezeichnet, wurde in einem Artikel beschrieben, der von dem Team verfasst wurde, das sie entwickelt hat. Das direkte Anschließen einer GPU an eine SSD würde einen Leistungsschub bieten, der sich als praktikabel erweisen könnte, insbesondere für ressourcenintensive Aufgaben wie maschinelles Lernen. Als solches würde es hauptsächlich in professionellen High-Performance-Computing-Szenarien (HPC) verwendet.

Die derzeit verfügbare Technologie zur Verarbeitung solch hoher Arbeitslasten erfordert, dass die Grafikkarte auf große Mengen an Spezialspeicher wie HBM2 angewiesen ist oder einen effizienten Zugriff auf SSD-Speicher erhält. Da Datensätze immer größer werden, ist es wichtig, die Verbindung zwischen GPU und Speicher zu optimieren, um effiziente Datenübertragungen zu ermöglichen. Hier kommt BaM ins Spiel.

„BaM mildert die Verstärkung des E/A-Verkehrs, indem es den GPU-Threads ermöglicht, kleine Datenmengen bei Bedarf zu lesen oder zu schreiben, wie durch die Berechnung bestimmt“, sagten die Forscher in ihrem Artikel, der zuerst von The Register zitiert wurde. „Das Ziel von BaM ist es, die GPU-Speicherkapazität zu erweitern und die effektive Speicherzugriffsbandbreite zu verbessern, während gleichzeitig High-Level-Abstraktionen für die GPU-Threads bereitgestellt werden, um bei Bedarf einen feinkörnigen Zugriff auf massive Datenstrukturen in der erweiterten Speicherhierarchie zu ermöglichen.“

Ein Nvidia-GPU-Kern sitzt auf einem Tisch.
Niels Broekhuijsen/Digitale Trends

Für viele Leute, die sich nicht direkt mit diesem Thema beschäftigen, mögen die Details kompliziert erscheinen, aber der Kern ist, dass Nvidia weniger auf den Prozessor setzen und direkt an die Quelle der Daten anbinden möchte. Dies würde sowohl den Prozess effizienter machen als auch die CPU entlasten, wodurch die Grafikkarte viel autarker würde. Die Forscher behaupten, dass dieses Design in der Lage wäre, mit DRAM-basierten Lösungen zu konkurrieren, während es billiger zu implementieren wäre.

Obwohl Nvidia und IBM mit ihrer BaM-Technologie zweifelsohne Neuland betreten, war AMD zunächst in diesem Bereich tätig: 2016 stellte es mit der Radeon Pro SSG eine Workstation-GPU mit integrierten M.2-SSDs vor. Die Radeon Pro SSG war jedoch als reine Grafiklösung gedacht, und Nvidia geht noch ein paar Schritte weiter, um mit komplexen und hohen Rechenlasten fertig zu werden.

Das Team, das an BaM arbeitet, plant, die Details seiner Software- und Hardwareoptimierung als Open Source zu veröffentlichen, damit andere auf ihren Erkenntnissen aufbauen können. Es wird nicht erwähnt, wann, wenn überhaupt, BaM in zukünftigen Nvidia-Produkten implementiert werden könnte.

Empfehlungen der Redaktion






[ad_2]

Leave a Comment