Samsung demonstriert In-Memory-Verarbeitung für HBM2, GDDR6, DDR4 und LPDDR5X

Wenn es nach Samsung geht, könnten die Speicherchips in zukünftigen Desktop-PCs, Laptops oder GPUs selbständig denken. Auf der Hot Chips 33 kündigte Samsung an, dass es seine Processing-in-Memory-Technologie zusätzlich zu seinen HBM2-Chips auf DDDR4-Module, GDDR6 und LPDDR5X ausweiten wird. Anfang dieses Jahres kündigte Samsung seinen HBM2-Speicher mit einem integrierten Prozessor an, der bis zu 1,2 TFLOPS für KI-Workloads berechnen kann, wodurch der Speicher selbst Operationen ausführen kann, die normalerweise CPUs, GPUs, ASICs oder FPGAs vorbehalten sind. 

Samsungs Aquabolt-XL HBM-PIM fügt sich direkt in den Produktstapel des Unternehmens ein und arbeitet mit standardmäßigen JEDEC-konformen HBM2-Speicher-Controllern, so dass es einen Drop-in-Ersatz für Standard-HBM2-Speicher darstellt. Samsung hat dies vor kurzem demonstriert, indem es seinen HBM2-Speicher ohne Änderungen an der Karte in ein Standard-Xilinx Alveo FPGA einbaute, was zu einer 2,5-fachen Steigerung der Systemleistung und einer Senkung des Energieverbrauchs um 62 % führte.

Während Samsungs PIM-Technologie bereits mit jedem Standard-Speicher-Controller kompatibel ist, wird eine verbesserte Unterstützung durch CPU-Anbieter in einigen Szenarien zu einer höheren Leistung führen (z. B. werden nicht so viele Threads benötigt, um die Verarbeitungselemente voll auszunutzen). Samsung erklärt, dass es das HBM2-PIM mit einem ungenannten CPU-Anbieter für den Einsatz in seinen zukünftigen Produkten testet.

Samsung wird diese Eigenschaft auch auf andere Speichertypen, wie GDDR6, übertragen und die Anwendungsmöglichkeiten erweitern. Auch die Unterstützung von CXL könnte in naher Zukunft möglich sein. Samsung sagt, dass seine Aquabolt-XL-HBM2-Chips heute zum Kauf und zur Integration verfügbar sind, während seine anderen Produkte bereits in der Entwicklungspipeline sind.

Wer weiß, mit dem Aufkommen von KI-basierten Upscaling- und Rendering-Techniken könnte diese Technologie für Enthusiasten eine größere Rolle spielen, als wir auf den ersten Blick sehen. In Zukunft könnte der GPU-Speicher einen Teil der Rechenlast übernehmen, um die GPU-Leistung zu steigern und den Energieverbrauch zu senken.