NVIDIAs Computex 2025 Revolution: Rechenzentren zu KI-Fabriken transformieren

NVIDIAs CEO Jensen Huangs Computex 2025 Keynote war nicht nur eine weitere Produkteinführung – es war der Bauplan für die dritte große Revolution des Computing. Während sich Rechenzentren in token-produzierende „KI-Fabriken" verwandeln, schaffen NVIDIAs neueste Innovationen in Netzwerktechnologie, Unternehmens-KI und Robotik die Grundlage

NVIDIAs Computex 2025 Revolution: Rechenzentren zu KI-Fabriken transformieren

NVIDIA CEO Jensen Huang betrat auf der Computex 2025 die Bühne in seiner charakteristischen Lederjacke und stellte neue Hardware und ein völlig neu konzipiertes Computing-Paradigma vor. Der Halbleiterriese hat sich entscheidend zu einem AI-Infrastruktur-Unternehmen gewandelt und baut die Grundlagen für das auf, was Huang "die Infrastruktur der Intelligenz" nennt – die dritte große Infrastruktur-Revolution nach Elektrizität und dem Internet.

Diese Keynote war nicht nur eine weitere Produktankündigung – es war Jensen, der NVIDIAs Blaupause zur Neugestaltung der Computing-Landschaft vorstellte. Die technischen Sprünge, strategischen Wendungen und Marktschachzüge, die er enthüllte, werden dies wahrscheinlich zu der Computex machen, auf die wir noch jahrelang zurückblicken werden. Sehen Sie sich die vollständige Computex 2025 Nvidia keynote an.

NVIDIAs strategische Evolution: Von Grafikkarten zum Infrastruktur-Anbieter

NVIDIAs Transformationsgeschichte ist atemberaubend. 1993 sah Jensen eine "300-Millionen-Dollar-Chip-Gelegenheit" – einen beträchtlichen Markt. Springen wir ins Heute, und er führt einen billionenschweren AI-Infrastruktur-Giganten. Diese Art von explosivem Wachstum passiert nicht einfach so – NVIDIA hat sich auf dem Weg dorthin mehrmals grundlegend neu erfunden.

Während seiner Keynote hob Jensen die Wendepunkte hervor, die das heutige NVIDIA möglich gemacht haben:

  • 2006: CUDA kam auf den Markt und stellte paralleles Computing auf den Kopf. Plötzlich entwickelten Entwickler, die nie daran gedacht hatten, GPUs für allgemeines Computing zu verwenden, Anwendungen, die auf traditionellen CPUs unmöglich gewesen wären.

  • 2016: Die DGX1 entstand als NVIDIAs erstes kompromissloses, AI-fokussiertes System. In dem, was nun wie eine fast unheimliche Vorahnung aussieht, spendete Jensen das erste Gerät an OpenAI und gab ihnen effektiv die rechnerische Grundlage für das, was schließlich zu unserer aktuellen AI-Revolution führen sollte.

  • 2019: Die Übernahme von Mellanox, die es NVIDIA ermöglichte, Rechenzentren als vereinheitlichte Computing-Einheiten neu zu konzipieren

Diese Transformation gipfelt in NVIDIAs aktueller Position als "wesentliches Infrastruktur-Unternehmen" – ein Status, den Huang betonte, indem er dessen beispiellose fünfjährige öffentliche Roadmaps hervorhob, die eine globale Infrastrukturplanung für AI-Deployment ermöglichen.

Neudefiniton von Performance-Metriken: Die Token-Wirtschaft

NVIDIA hat eine fundamentale Verschiebung in der Messung von rechnerischer Leistung eingeführt. Anstatt traditioneller Metriken wie FLOPs oder Operationen pro Sekunde positionierte Huang AI-Rechenzentren als Fabriken, die "Token" produzieren – Einheiten rechnerischer Intelligenz:

"Unternehmen beginnen darüber zu sprechen, wie viele Token sie im letzten Quartal produziert haben und wie viele Token sie im letzten Monat produziert haben. Sehr bald werden wir diskutieren, wie viele Token wir jede Stunde produzieren, genau wie jede Fabrik."

Diese Neuformulierung verbindet direkt rechnerische Investition und geschäftliche Leistung und passt AI-Infrastruktur an traditionelle industrielle Rahmenwerke an. Das Modell positioniert NVIDIA im Epizentrum eines neuen wirtschaftlichen Paradigmas, wo rechnerische Effizienz direkt in geschäftliche Fähigkeiten übersetzt wird.

Blackwell-Architektur-Upgrades: GB300-Spezifikationen und Performance-Metriken

[caption id="" align="alignnone" width="1280"] GB200 system GB200 system [/caption]

Das GB300-Update der Blackwell-Architektur veranschaulicht NVIDIAs unerbittlichen Performance-Verbesserungszyklus. Geplant für Q3 2025, liefert die GB300:

  • 1,5x Inference-Performance-Boost gegenüber GB200
  • 1,5x HBM-Memory-Kapazitätssteigerung
  • 2x Networking-Bandbreiten-Verbesserung
  • Vollständig flüssigkeitsgekühltes Design
  • Rückwärtskompatibel mit bestehenden Chassis und Systemen

Jeder GB300-Knoten liefert etwa 40 Petaflops – ersetzt effektiv den gesamten Sierra-Supercomputer (circa 2018), der 18.000 Volta GPUs benötigte. Dieser 4.000-fache Performance-Gewinn innerhalb von sechs Jahren übertrifft traditionelle Moore's Law-Skalierung bei weitem und demonstriert NVIDIAs vielschichtigen Ansatz zur Performance-Beschleunigung durch Architektur-, Software- und Interconnect-Innovationen.

MVLink stellt den bedeutendsten Fortschritt in der GPU-Interconnect-Technologie seit NVLinks Einführung dar. Das System ermöglicht vollständige Disaggregation von Compute-Ressourcen über ein ganzes Rack hinweg und verwandelt 72 GPUs (144 GPU-Dies) in eine einzige massive rechnerische Einheit.

Die technischen Spezifikationen sind erstaunlich:

  • Einzelne MVLink-Switches: 7,2 TB/s Bandbreite
  • MVLink-Spine: 130 TB/s All-to-All-Bandbreite
  • Physische Implementierung: 5.000 präzise längenangepasste Koaxialkabel (etwa 3,2 Kilometer insgesamt)
  • Leistungsdichte: 120 Kilowatt pro Rack (Flüssigkühlung erforderlich)

Zum Vergleich: Huang bemerkte, dass der Spitzenverkehr des gesamten Internets etwa 900 Terabit pro Sekunde (112,5 TB/s) beträgt, wodurch ein einziger MVLink-Spine mehr Verkehr bewältigen kann als das globale Internet zu Spitzenzeiten.

MVLink Fusion könnte der innovativste Ökosystem-Schachzug sein, den NVIDIA in Jahren gemacht hat. Anstatt Partner zu zwingen, vollständig auf NVIDIA-Hardware zu setzen, öffnen sie die Architektur, damit Unternehmen halbmaßgeschneiderte AI-Systeme bauen können, die sich trotzdem ins NVIDIA-Universum einbinden.

Der Ansatz ist überraschend flexibel:

  • Benutzerdefinierte ASIC-Integration: Sie haben Ihren spezialisierten Beschleuniger? Kein Problem. Partner können MVLink-Chiplets hinzufügen, um ihr kundenspezifisches Silizium mit NVIDIAs Ökosystem zu verbinden. Es ist, als würde NVIDIA sagen: "Bauen Sie beliebige spezialisierte Hardware – stellen Sie nur sicher, dass sie mit unserem Zeug kommunizieren kann."

  • Benutzerdefinierte CPU-Integration: CPU-Anbieter bleiben auch nicht außen vor. Sie können MVLink-Chip-zu-Chip-Schnittstellen direkt implementieren und eine direkte Autobahn zwischen ihren Prozessoren und Blackwell GPUs (oder der kommenden Ruben-Architektur) schaffen. MVLink ist riesig für Unternehmen, die in spezifische CPU-Architekturen investiert haben.

Partner-Ankündigungen umspannen die Halbleiterindustrie:

  • Silizium-Implementierungspartner: LCHIP, Astera Labs, Marll, MediaTek
  • CPU-Anbieter: Fujitsu, Qualcomm
  • EDA-Anbieter: Cadence, Synopsis

Dieser Ansatz positioniert NVIDIA strategisch, um Wert zu erfassen, unabhängig von der spezifischen Hardware-Mischung, die Kunden einsetzen, was Huangs offene Aussage widerspiegelt: "Nichts macht mir mehr Freude, als wenn Sie alles von NVIDIA kaufen. Ich möchte, dass Sie das wissen. Aber es macht mir große Freude, wenn Sie etwas von NVIDIA kaufen."

Enterprise AI Deployment: RTX Pro Enterprise und Omniverse Server

Die RTX Pro Enterprise und der Omniverse-Server stellen NVIDIAs bedeutendstes unternehmensorientiertes Compute-Angebot dar, speziell entwickelt, um AI-Fähigkeiten in traditionelle IT-Umgebungen zu integrieren:

  • Vollständig x86-kompatible Architektur
  • Unterstützung für traditionelle Hypervisoren (VMware, Red Hat, Nanix)
  • Kubernetes-Integration für vertraute Workload-Orchestrierung
  • Blackwell RTX Pro 6000s GPUs (8 pro Server)
  • CX8-Networking-Chip mit 800 Gb/s Bandbreite
  • 1,7x Performance-Steigerung gegenüber Hopper H100
  • 4x Performance bei optimierten Modellen wie Deepseek R1

Das System etabliert eine neue Performance-Umgebung für AI-Inference, gemessen in einem zweiachsigen Rahmenwerk von Durchsatz (Token pro Sekunde) und Reaktionsfähigkeit (Token pro Sekunde pro Benutzer) – kritische Metriken für das, was Huang als Ära der "Inference-Zeit-Skalierung" oder "denkenden AI" beschreibt.

AI Data Platform: Neugestaltung der Speicherung für unstrukturierte Daten

NVIDIAs AI Data Platform führt einen grundlegend anderen Ansatz für Enterprise-Speicherung ein:

"Menschen fragen strukturierte Datenbanken wie SQL ab... Aber AI will unstrukturierte Daten abfragen. Sie wollen Semantik. Sie wollen Bedeutung. Und so müssen wir eine neue Art von Speicherplattform schaffen."

Schlüsselkomponenten umfassen:

  • NVIDIA AIQ (oder IQ): Eine semantische Abfrage-Schicht
  • GPU-beschleunigte Speicherknoten, die traditionelle CPU-zentrierte Architekturen ersetzen
  • Nachtrainierte AI-Modelle mit transparenter Trainingsdaten-Herkunft
  • 15x schnellere Abfragen mit 50% verbesserten Ergebnissen im Vergleich zu bestehenden Lösungen

Speicherindustrie-Partner, die diese Architektur implementieren, umfassen Dell, Hitachi, IBM, NetApp und Vast und schaffen ein umfassendes Enterprise-AI-Datenmanagement-Ökosystem.

AI Operations und Robotik: Software-Frameworks für das intelligente Unternehmen

Die Keynote stellte zwei entscheidende Software-Frameworks vor:

  • AI Operations (AIOps): Ein umfassender Stack für die Verwaltung von AI-Agenten in Unternehmenskontexten, einschließlich Datenkuration, Modell-Feinabstimmung, Bewertung, Leitplanken und Sicherheit. Partner umfassen Crowdstrike, Data IQ, Data Robots, Elastic, Newonix, Red Hat und Trend Micro.

  • Isaac Groot Platform N1.5: Ein Open-Source-Robotik-Entwicklungsökosystem, einschließlich:

  • Newton-Physik-Engine (entwickelt mit Google DeepMind und Disney Research)
  • Jetson Thor Robotikprozessor
  • NVIDIA Isaac Betriebssystem
  • Groot Dreams Blaupause für synthetische Trajektoriendatengenerierung

Die Robotik-Initiative adressiert eine kritische Herausforderung: "Damit Robotik stattfindet, braucht man AI. Aber um die AI zu lehren, braucht man AI." Dieses rekursive Optimierungsmuster nutzt generative AI, um begrenzte menschliche Demonstrationsdaten in umfassende Robotik-Trainingssätze zu erweitern.

Taiwans strategische Position in der AI-Fertigungsrevolution

Ein erheblicher Teil der Keynote hob Taiwans zentrale Rolle sowohl bei der Produktion als auch bei der Implementierung von AI-Technologien hervor:

  • Taiwanesische Fertigungsunternehmen (TSMC, Foxconn, Wistron, Pegatron, Delta Electronics, Quanta, Wiiwin, Gigabyte) setzen NVIDIA Omniverse für Digital-Twin-Implementierungen ein.
  • TSMC nutzt AI-gestützte Tools auf CUDA, um Fab-Layouts und Rohrleitungssysteme zu optimieren
  • Fertigungspartner verwenden Digital Twins für virtuelle Planung und prädiktive Wartung sowie als "Roboter-Fitnessstudios" für das Training von Robotiksystemen.
  • Foxconn, TSMC, die taiwanesische Regierung und NVIDIA bauen Taiwans ersten großangelegten AI-Supercomputer.

Huang festigte NVIDIAs Engagement in der Region weiter, indem er Pläne für "NVIDIA Constellation" ankündigte, eine neue Hauptquartieranlage in Taipeh.

Technische Analyse: Was dies für Enterprise AI-Strategie bedeutet

Diese Ankündigungen stellen kollektiv eine umfassende Neukonzeption des Enterprise Computing mit mehreren strategischen Implikationen dar:

  • Rechnerische Skalenausstattungs-Anforderungen: Die Inference-Zeit-Performance-Anforderungen von "reasoning AI" und agentischen Systemen werden signifikant höhere Compute-Anforderungen als initiale Large Language Model-Deployments antreiben und architektonische Planung für massive Scale-up- und Scale-out-Fähigkeiten erforderlich machen.

  • Disaggregation von Enterprise AI: Das MVLink Fusion-Ökosystem ermöglicht beispiellose Flexibilität beim Bau heterogener AI-Systeme und könnte die Adoption spezialisierter AI-Beschleuniger beschleunigen, während NVIDIAs Position im Ökosystem durch Interconnect-Technologie beibehalten wird.

  • Wechsel von Rechenzentren zu AI-Fabriken: Wir müssen völlig überdenken, wie wir den Wert unserer Infrastrukturinvestitionen messen. Vorbei sind die Zeiten, als rohe Compute- oder Speicherkapazität die ganze Geschichte erzählte. Jetzt geht es nur um Token-Produktion – wie viele AI-Output-Einheiten können Ihre Systeme pro Sekunde, pro Watt und Dollar generieren? Jensen machte keine Witze, als er sagte, dass Unternehmen bald ihre Token-Produktion als Fertigungsmetriken berichten würden. Der Wechsel zu AI-Fabriken wird die Ökonomie der Bereitstellung und Rechtfertigung von AI-Infrastrukturausgaben grundlegend umschreiben.

  • Digital Twin-Integration: Die Tatsache, dass jeder große taiwanesische Hersteller Omniverse Digital Twins baut, sagt uns alles, was wir wissen müssen – das ist keine coole Tech-Demo mehr. Digital Twins sind zu wesentlicher Infrastruktur für Unternehmen geworden, die Optimierung ernst nehmen. Besonders faszinierend ist, wie dies einen Feedback-Loop schafft: Unternehmen bauen Digital Twins, um physische Prozesse zu optimieren, nutzen dann dieselben Umgebungen, um AI und Robotik zu trainieren und verbessern so weiter die physische Welt. Es ist ein kontinuierlicher Verbesserungszyklus, der sich immer weiter beschleunigt.

  • Robotische Workforce-Planung: Die Konvergenz von agentischer AI und physischer Robotik legt nahe, dass Organisationen integrierte digitale und physische Automatisierungsstrategien entwickeln sollten, mit erheblichen Implikationen für Workforce-Planung und Anlagendesign.

  • Software-definierte Infrastruktur: Trotz der Hardware-Ankündigungen verstärkt NVIDIAs fortwährender Schwerpunkt auf Bibliotheken und Software-Frameworks, dass Wettbewerbsvorteile in AI ebenso aus Software-Optimierung wie aus rohen Hardware-Fähigkeiten kommen werden.

Die Transformation traditioneller Rechenzentren in AI-Fabriken erfordert spezialisierte Expertise, die Hardware-Deployment, Software-Optimierung und architektonisches Design verbindet. Bei Introl haben wir diese fortschrittlichen GPU-Infrastruktur-Lösungen für Unternehmen implementiert, die in AI-first Computing einsteigen. Die tiefe Erfahrung unseres Teams mit NVIDIAs Ökosystem – von komplexen MVLink-Deployments bis zu Omniverse Digital Twin-Implementierungen – hilft Organisationen, diesen Paradigmenwechsel zu navigieren, ohne die steile Lernkurve, die typischerweise mit modernster Infrastruktur verbunden ist. Ob Sie reasoning AI-Fähigkeiten skalieren oder Ihre erste AI-Fabrikebene aufbauen, die Partnerschaft mit Spezialisten kann Ihre Time-to-Value in dieser sich schnell entwickelnden Landschaft drastisch beschleunigen. Bereit, **es zu schaffen? Vereinbaren Sie heute einen Termin.

Fazit: Die dritte Ära des Computing ist angekommen

Computex war nicht nur NVIDIA, das schnellere Chips zeigte. Was Jensen darlegte, ging über die üblichen "20% besser als letztes Jahr"-Ankündigungen hinaus, gegen die wir abgestumpft sind. Er definiert grundlegend neu, wofür Computer da sind. Wir haben Jahrzehnte damit verbracht, Maschinen zu bauen, die Zahlen verarbeiten und Daten verschieben. Jetzt baut NVIDIA Systeme, die Intelligenz als primären Output herstellen. Es ist wie der Vergleich eines Aktenschranks mit einem Gehirn. Sicher, beide speichern Informationen, aber einer sitzt da, während der andere neue Ideen schafft. Der Wechsel mag wie Semantik klingen, bis man erkennt, dass er alles darüber ändert, wie wir Computing-Systeme bauen, einsetzen und messen.

"Zum ersten Mal in all unserer gemeinsamen Zeit erstellen wir nicht nur die nächste Generation von IT, sondern wir haben das schon mehrmals gemacht, von PC zu Internet zu Cloud zu Mobile Cloud. Wir haben das mehrmals gemacht. Aber diesmal erstellen wir nicht nur die nächste Generation von IT, wir erschaffen eine ganz neue Industrie."

Dieser Übergang repräsentiert den dritten großen Computing-Paradigmenwechsel nach der Personal Computing-Revolution und der Internet/Cloud-Ära. Organisationen, die diese AI-Infrastruktur-Fähigkeiten integrieren, werden wahrscheinlich unüberwindbare Wettbewerbsvorteile branchenübergreifend etablieren.

Die Fabriken rechnerischer Intelligenz werden heute gebaut. Die Frage ist nicht mehr, ob AI Geschäfte transformieren wird – es ist, ob Ihre Organisation die Infrastruktur baut, um in einer Welt wettbewerbsfähig zu bleiben, in der rechnerische Intelligenz so fundamental für Geschäftsoperationen wird wie Elektrizität.

Referenzen und zusätzliche Ressourcen

Angebot anfordern_

Erzählen Sie uns von Ihrem Projekt und wir antworten innerhalb von 72 Stunden.

> ÜBERTRAGUNG_ABGESCHLOSSEN

Anfrage erhalten_

Vielen Dank für Ihre Anfrage. Unser Team wird Ihre Anfrage prüfen und innerhalb von 72 Stunden antworten.

ZUR BEARBEITUNG EINGEREIHT