IBM und AMD haben eine Zusammenarbeit zur Bereitstellung von AMD Instinct MI300X Accelerators als Service in der IBM Cloud angekündigt. Das Angebot, das voraussichtlich in der ersten Hälfte des Jahres 2025 verfügbar werde, ziele darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie High Performance Computing (HPC) Anwendungen für Unternehmenskunden zu verbessern, heisst es in einer Aussendung dazu. Die Kooperation soll auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM Watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat Enterprise Linux AI-Inferenz ermöglichen.
Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators laut Mitteilung Unterstützung für Larges Model Inferencing und Fine Tuning. Die grosse Speicherkapazität könne Anwenderfirmen auch dabei helfen, grössere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt würden. Darüber hinaus könnten die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat Openshift on IBM Cloud dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.
Für generative AI Inferencing Workloads plane Big Blue zudem, die Unterstützung für AMD Instinct MI300X Accelerators in der Watsonx AI und Datenplattform von IBM zu ermöglichen und Watsonx-Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen. Desweiteren könnten auf den Red Hat Enterprise Linux AI und Red Hat Openshift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.

Der Online-Stellenmarkt für ICT Professionals