Nvidia schickt erste Rubin-AI-Plattform an Kunden
28.02.2026 - 16:09:28 | boerse-global.deNvidia hat erste Muster seiner neuen KI-Plattform „Vera Rubin“ an ausgewählte Kunden ausgeliefert. Dieser Schritt bestätigt den Zeitplan für die Nachfolger-Architektur der dominierenden Blackwell-Generation, die noch 2026 auf den Markt kommen soll. Die Ankündigung fiel mit einem Quartalsrekord von 68,1 Milliarden US-Dollar Umsatz zusammen und unterstreicht den ungebremsten globalen Hunger nach KI-Rechenleistung.
Während Nvidia die Hardware-Basis für die nächste KI-Generation schafft, müssen Unternehmen auch die rechtlichen Rahmenbedingungen im Blick behalten. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der neuen EU-KI-Verordnung für Anbieter und Nutzer. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
Rubin-Architektur verspricht zehnfache Effizienzsteigerung
Die nach der Astronomin Vera Rubin benannte Plattform ist kein Einzelchip, sondern ein komplett neu gestaltetes System für Rechenzentren. Kernstücke sind der Rubin-GPU für maximale Rechenkraft und der „Vera“-CPU mit 88 Kernen auf Arm-Basis. Die Architektur setzt auf die nächste Speichergeneration HBM4 und die neue NVLink 6-Verbindungstechnik. Letztere soll bis zu 72 GPUs zu einem einzigen Superprozessor koppeln.
Laut Nvidia-Projektionen wird diese Kombination die Kosten und den Energiebedarf für fortgeschrittene KI massiv senken. Die Kosten für das Ausführen von KI-Modellen (Inference) könnten im Vergleich zur aktuellen Blackwell-Plattform um das Zehnfache sinken. Ein modularer, kabelfreier Aufbau soll zudem die Wartung in großen Rechenzentren vereinfachen.
Auslieferung der Muster markiert Produktionsstart
Der Versand der ersten Engineering-Samples ist ein entscheidender Meilenstein. Er zeigt, dass das Kerndesign finalisiert ist. Wichtige Partner wie AWS, Google Cloud und Microsoft Azure sowie Server-Hersteller können nun mit der Validierung der Hardware und Software beginnen. Nvidia-CFO Colette Kress bekräftigte den Zeitplan: Die Serienauslieferung soll wie geplant in der zweiten Hälfte 2026 starten.
Neuer Fokus auf KI-Ausführung neben Training
Während Nvidias GPUs das Training von KI-Modellen beherrschen, rückt nun die andere Seite der Medaille in den Fokus: das Inference. Medienberichten zufolge will Nvidia auf seiner Entwicklerkonferenz GTC im März einen dedizierten Prozessor für genau diese Aufgabe vorstellen. Der Chip soll Architektur-Elemente des Startups Groq nutzen und Engpässe bei Echtzeit-KI-Anwendungen wie Chatbots beseitigen.
Mit OpenAI hat sich bereits ein prominenter Erstkunde gefunden. Das Unternehmen hat laut Wall Street Journal größere Mengen an „dedizierter Inference-Kapazität“ gesichert. Diese Strategie soll Nvidias Vorherrschaft über die gesamte KI-Pipeline festigen und Konkurrenz durch eigene Chips von Cloud-Giganten abwehren.
Der technologische Fortschritt bei KI-Systemen bringt auch neue Herausforderungen für die IT-Sicherheit und Compliance mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen aktuelle Cyber-Bedrohungen wappnen und neue Gesetze rechtzeitig umsetzen. Kostenlosen Cyber-Security-Leitfaden herunterladen
Rekordgewinne finanzieren Innovationszyklus
Die technologischen Sprünge werden durch außergewöhnliche Finanzergebnisse ermöglicht. Die umsatzstärkste Sparte Data Center verbuchte im vierten Quartal 62,3 Milliarden US-Dollar – ein Plus von 75 Prozent im Jahresvergleich. Ein neues, schnell wachsendes Segment ist „Sovereign AI“, bei dem Nationen eigene KI-Infrastrukturen aufbauen. Dieses Geschäft verdreifachte sich im letzten Geschäftsjahr auf über 30 Milliarden US-Dollar.
Mit den ersten Rubin-Mustern bei Partnern richtet sich der Blick nun auf die GTC-Konferenz. Der erfolgreiche Rollout der Plattform wird entscheidend sein, um Nvidias Marktführerschaft zu halten, während Komplexität und Umfang der KI weiter exponentiell wachsen.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

