Vultr treibt globale KI-Cloud-Inferenz mit AMD Instinct™ MI300X voran

Neues Cloud-GPU-Angebot ermöglicht Flexibilität, Performance und Kosteneffizienz für globale Skalierung von KI-native Anwendungen mit AMD Instinct™ MI300X

Frankfurt, 15. Oktober 2024 – Vultr, die weltweit größte eigenständig finanzierte Cloud-Computing-Plattform, stellt ab sofort AMD Instinct™ MI300X Beschleuniger und die Open Software ROCm™ in seiner Composable-Cloud-Infrastruktur bereit.

Das Zusammenspiel zwischen der Composable-Cloud-Infrastruktur von Vultr und der neuesten AMD Silizium-Architektur eröffnet neue Möglichkeiten für GPU-beschleunigte Workloads – vom Rechenzentrum bis zur Peripherie. So wird die KI-Cloud-Inferenz vorangetrieben. Denn vortrainierte Modelle sind über die Cloud-Infrastruktur direkt verfügbar und können mit Daten der Unternehmen direkt arbeiten, um Erkenntnisse zu gewinnen.

„Ein offenes Ökosystem bildet die Basis, um Innovationen voranzutreiben“, sagt J.J. Kardwell, CEO von Vultr. „Die Zukunft der KI-Workloads in Unternehmen liegt in offenen Umgebungen, die flexibel, skalierbar und sicher sind. Mit den AMD Beschleunigern bieten wir unseren Kunden ein gutes Preis-Leistungs-Verhältnis. Die Ausgewogenheit zwischen einem hohen Speicherbedarf und einem niedrigen Stromverbrauch unterstützt Nachhaltigkeitsziele und ermöglicht unseren Kunden, Innovation und Wachstum durch KI effizient voranzutreiben.“

Aufbau einer kompatiblen Cloud
Mit der offenen AMD ROCm™ Software und der Cloud-Plattform von Vultr haben Unternehmen Zugang zu einer branchenführenden Umgebung, um KI-Lösungen zu entwickeln und zu betreiben. Die Offenheit der AMD-Architektur und der Vultr-Infrastruktur ermöglicht es, auf Tausende von quelloffenen, vortrainierten Modellen und Frameworks mit Drop-in-Code zuzugreifen. So schaffen Unternehmen eine optimierte Umgebung für ihre KI-Entwicklungen, auf der sie Projekte schnell vorantreiben können.

Die AMD-Architektur auf der Vultr-Infrastruktur wurde für Workloads der nächsten Generation entwickelt und ermöglicht die Cloud-native Orchestrierung aller KI-Ressourcen. Die AMD Instinct™ Beschleuniger und ROCm™ Software-Management-Tools lassen sich nahtlos in die Vultr Kubernetes Engine for Cloud GPU integrieren. Dadurch ist es möglich, GPU-beschleunigte Kubernetes-Cluster zu erstellen, die ressourcenintensivste Workloads an jedem beliebigen Ort weltweit ausführen können. Diese Plattformfunktionen geben Entwicklern und Innovatoren die Ressourcen an die Hand, um anspruchsvolle KI- und Machine-Learning-Lösungen für sehr komplexe Business-Herausforderungen zu entwickeln.

Vorteile der Partnerschaft von AMD und Vultr:
-Verbessertes Preis-Leistungs-Verhältnis: Das leistungsfähige Cloud Computing von Vultr, beschleunigt durch AMD GPUs, bietet eine hohe Rechenleistung für anspruchsvolle Workloads bei gleichzeitiger Kosteneffizienz.
-Skalierbare Rechenleistung und optimiertes Workload-Management: Die skalierbare Cloud-Infrastruktur von Vultr in Kombination mit den fortschrittlichen Verarbeitungsfunktionen von AMD ermöglicht es Unternehmen, ihre Rechenressourcen nahtlos an steigende Anforderungen anzupassen.
-Schnellere Umsetzung von Innovationen in F&E: Die Cloud-Infrastruktur von Vultr bietet die Rechenleistung und Skalierbarkeit, die Entwickler benötigen, um AMD Instinct GPUs, AMD ROCm™ Open Software und das umfangreiche Partner-Ökosystem zu nutzen. So lassen sich komplexe Probleme schneller entdecken und Innovationen innerhalb kürzester Zeit umsetzen.
-Optimiert für KI-Inferenz: Die Plattform von Vultr ist für KI-Inferenz mit AMD Instinct™ MI300X GPUs optimiert. Diese ermöglichen eine schnellere, skalierbare und energieeffiziente Verarbeitung von KI-Modellen. Das führt zu geringeren Latenzzeiten und einem höheren Durchsatz.
-Nachhaltiges Computing: Die umweltfreundliche Cloud-Infrastruktur von Vultr bietet Anwendern ein energieeffizientes und nachhaltiges Computing für große KI-Operations.

„Wir sind stolz darauf, eng mit Vultr zusammenzuarbeiten, da ihre Cloud-Plattform darauf ausgelegt ist, hochleistungsfähige KI-Trainings- und Inferenzaufgaben zu bewältigen. Das führt zu einer verbesserten Gesamteffizienz“, erklärt Negin Oliver, Corporate Vice President of Business Development, Data Center GPU Business Unit bei AMD. „Durch den kombinierten Einsatz von AMD Instinct MI300X Beschleunigern und der offenen ROCm™ Software für ihre neuesten Implementierungen profitieren die Kunden von Vultr von einem System, das ein breites Spektrum an KI-intensiven Workloads bewältigt.“

Mehr über die Composable Cloud-Lösungen von Vultr erfahren Sie hier.

Weitere Informationen über den AMD Instinct™ MI300X Beschleuniger finden Sie hier.

Über Vultr
Vultr stellt Unternehmen und Entwicklern weltweit hochleistungsfähiges Cloud Computing einfach, lokal und kostengünstig zur Verfügung.
Erfahren Sie mehr unter www.vultr.com

Firmenkontakt
Vultr
– –
– –
– Frankfurt

6c9e969521f78b4adbc4b3c0faeb1e0f0beaa456
https://www.vultr.com/

Pressekontakt
Fink & Fuchs AG
Patrick Rothwell
Berliner Straße 164
65205 Wiesbaden
0611-74131-16
6c9e969521f78b4adbc4b3c0faeb1e0f0beaa456
http://finkfuchs.de