CoWoS und Advanced Packaging: Wie Chip-Architektur das Rechenzentrumsdesign prägt
Aktualisiert am 11. Dezember 2025
Update Dezember 2025: TSMC demonstriert Direct-to-Silicon-Flüssigkeitskühlung auf CoWoS mit einem thermischen Widerstand von 0,055°C/W bei 2,6kW+ TDP auf 3.300mm² Interposern. NVIDIA sichert sich über 70% der CoWoS-L-Kapazität von TSMC für 2025. Blackwell-GPU-Volumina steigen quartalsweise um über 20% in Richtung 2M+ Jahreseinheiten. Advanced Packaging wird zur primären Einschränkung bei der Versorgung mit KI-Beschleunigern.
TSMC demonstrierte auf der IEEE ECTC-Konferenz 2025 Direct-to-Silicon-Flüssigkeitskühlung, integriert in seine CoWoS-Plattform, und erreichte einen Junction-to-Ambient-Wärmewiderstand von 0,055 °C/W bei 40 ml/s Kühlmittelfluss – nahezu 15% besser als Flüssigkeitskühlung mit Deckel und Wärmeleitmaterialien.[^1] Die Demonstration validierte den dauerhaften Betrieb bei über 2,6 kW TDP auf einem massiven 3.300 mm² Interposer, der mehrere Logik-Dies und HBM-Stacks unterstützt. Advanced-Packaging-Technologie hat sich von einem Thema der Halbleiterfertigung zu einem primären Treiber der Strom- und Kühlungsarchitektur von Rechenzentren entwickelt.
NVIDIA sicherte sich über 70% der CoWoS-L-Advanced-Packaging-Kapazität von TSMC für 2025, wobei die Liefervolumina der Blackwell-Architektur-GPUs jedes Quartal um mehr als 20% auf jährliche Volumina von über 2 Millionen Einheiten steigen.[^2] Die Kapazitätszuweisung spiegelt wider, wie Advanced Packaging zur kritischen Einschränkung bei der Versorgung mit KI-Beschleunigern geworden ist. Rechenzentrumsbetreiber, die Infrastrukturinvestitionen planen, müssen verstehen, wie Packaging-Technologie die von ihnen eingesetzten Systeme beeinflusst – von den Anforderungen an die Stromversorgung über die Kühlanforderungen bis hin zu den physischen Formfaktoren.
Advanced Packaging verstehen
Advanced Packaging integriert mehrere Silizium-Dies in vereinheitlichte Packages, die als einzelne Chips funktionieren und Fähigkeiten ermöglichen, die mit monolithischen Designs unmöglich wären.
CoWoS-Technologie erklärt
CoWoS (Chip-on-Wafer-on-Substrate) kombiniert mehrere Dies auf einem Silizium-Interposer, der dann mit einem Package-Substrat verbunden wird.[^3] Der Silizium-Interposer verfügt über hochdichte Metallverbindungen und Through-Silicon-Vias (TSVs), die eine ultra-hohe Bandbreite und Datenkommunikation mit niedriger Latenz zwischen den Dies ermöglichen. Das Ergebnis liefert verbesserte Energieeffizienz, thermische Leistung und kompakte Bauform, die für KI-, HPC- und Cloud-Workloads entscheidend sind.
Im Gegensatz zu traditionellen Single-Chip-Packages ermöglicht CoWoS die heterogene Integration, die SoCs, GPUs und HBM-Speicherstacks in einem einzigen Package kombiniert.[^3] Die Integration eliminiert die Bandbreiten- und Latenzstrafen der Kommunikation über Package-Grenzen hinweg. Die Speicherbandbreite, die die KI-Leistung begrenzt, steigt dramatisch, wenn HBM-Stacks Millimeter von den Compute-Dies entfernt sitzen statt über eine Leiterplatte.
CoWoS-Varianten
NVIDIA hat das CoWoS-L-Advanced-Packaging übernommen, das eine Redistribution Layer (RDL) mit einem partiellen Silizium-Interposer (LSI) integriert.[^2] CoWoS-L verbessert Chipgröße und Fläche durch Erhöhung der Transistordichte und ermöglicht das Stapeln von mehr High-Bandwidth-Memory. Im Vergleich zu CoWoS-S- und CoWoS-R-Technologien bietet CoWoS-L überlegene Leistung, höhere Ausbeute und bessere Kosteneffizienz.
CoWoS-S (Silizium-Interposer) verwendet einen vollständigen Silizium-Interposer, der alle Dies überspannt. Der Ansatz bietet den feinsten Verbindungsabstand, schränkt aber die Package-Größe auf die Fertigungsgrenzen von Silizium-Interposern ein. Aktuelle CoWoS-S-Packages erreichen ungefähr 2,5 Retikel-Größen.
CoWoS-R (RDL-Interposer) ersetzt den Silizium-Interposer durch eine organische Redistribution Layer, was die Kosten auf Kosten der Verbindungsdichte reduziert. Die Technologie eignet sich für Anwendungen, die große Packages erfordern, bei denen vollständige Silizium-Interposer unerschwinglich teuer werden.
Konkurrierende Technologien
Intels EMIB (Embedded Multi-die Interconnect Bridge) verbindet Chiplets mit winzigen Siliziumbrücken, die direkt in das Package-Substrat eingebettet sind, wodurch ein großer Silizium-Interposer überflüssig wird.[^4] Der Ansatz reduziert sowohl Kosten als auch thermische Komplexität im Vergleich zu vollständigen Interposer-Lösungen. EMIB eignet sich für Designs, bei denen Dies paarweise kommunizieren, anstatt eine vollständige Mesh-Konnektivität zu erfordern.
Intels Foveros-Technologie stapelt Dies vertikal unter Verwendung von Through-Silicon-Vias oder direkter Kupferbondung.[^4] Das 3D-Stacking bietet hohe Verbindungsdichte und heterogene Knotenintegration auf Kosten strengerer thermischer Anforderungen und Ausbeuteüberlegungen. Das Wärmemanagement wird besonders anspruchsvoll, wenn wärmeerzeugende Dies vertikal gestapelt werden.
TSMCs CoWoS-L bleibt trotz konkurrierender Alternativen die primäre Option für Hochleistungs-KI-GPUs und HBM-intensive Beschleuniger.[^4] Die Produktionsreife der Technologie und die bewährte Leistung bei KI-Beschleuniger-Leistungsniveaus machen sie zur Standardwahl für führende Designs.
Thermische Auswirkungen
Advanced Packaging konzentriert die Wärmeerzeugung auf Weisen, die traditionelle Kühlungsansätze herausfordern.
Herausforderungen der Leistungsdichte
Ein 3.300 mm² CoWoS-Package, das 2,6+ kW abführt, repräsentiert Leistungsdichten, die ausgeklügelte Kühlung jenseits der Luftkühlungsfähigkeiten erfordern.[^1] Die Leistung konzentriert sich in Compute-Dies, die einen Bruchteil der gesamten Package-Fläche einnehmen, wodurch thermische Hotspots entstehen, die die durchschnittliche Package-Leistungsdichte unterschätzt.
HBM-Stacks, die die Compute-Dies umgeben, erzeugen zusätzliche Wärme und erfordern gleichzeitig Temperaturkontrolle, um die Speicherzuverlässigkeit aufrechtzuerhalten. HBM-Spezifikationen begrenzen Betriebstemperaturen strenger als Logik-Dies tolerieren. Kühlungsdesigns müssen sowohl Spitzentemperaturen der Logik-Dies als auch verteilte thermische HBM-Anforderungen berücksichtigen.
Der Fortschritt von 300W-GPUs zu 700W+ der aktuellen Generation und erwarteten 1000W+ Packages der nächsten Generation treibt fundamentale Änderungen in der thermischen Architektur von Rechenzentren voran. Luftkühlungsansätze, die frühere Generationen bewältigten, können nicht auf aktuelle Leistungsniveaus skalieren, ohne inakzeptable akustische oder energetische Nachteile.
Direct-Liquid-Cooling-Integration
TSMCs Direct-to-Silicon-Flüssigkeitskühlung bettet Mikrofluidik-Kanäle direkt in die Siliziumstruktur ein und umgeht Wärmeleitmaterialien für nahezu null thermische Impedanz.[^1] Der Si-Integrated Micro Cooler wird mittels Fusionsbonding an die Chiprückseite angebunden und schafft einen engen thermischen Kontakt, den TIM-basierte Ansätze nicht erreichen können.
Die Technologie ermöglicht einen dauerhaften Betrieb bei Leistungsniveaus, die Packages mit Deckel und externen Kühlkörpern überfordern würden. Rechenzentren, die KI-Beschleuniger der nächsten Generation einsetzen, benötigen möglicherweise dieses Niveau der thermischen Integration, anstatt bestehende Kühlung für höhere Lasten nachzurüsten.
Die Integration auf Package-Ebene verschiebt die Kühlungsverantwortung in Richtung Halbleiterhersteller und Systemanbieter anstatt zu den Rechenzentrumsbetreibern. Organisationen, die KI-Infrastruktur spezifizieren, sollten verstehen, welche thermischen Lösungen ihre gewählten Systeme einsetzen und welche Gebäudeanforderungen diese Lösungen stellen.
Anforderungen an die Gebäudekühlung
Flüssigkeitskühlung auf Chip-Ebene erfordert immer noch Wärmeabfuhr auf Gebäudeebene. Die Wärmelast wandert vom Chip zur Kühlmittelschleife zur Kühlinfrastruktur des Rechenzentrums. Gebäudedesigns müssen Kühlmittelverteilung, Wärmetauscher und letztendliche Wärmeabfuhr berücksichtigen, unabhängig davon, wie effizient Chips an das Kühlmittel koppeln.
Hochdichte Racks, die durch Advanced Packaging ermöglicht werden, können 100+ kW in einzelnen Rack-Positionen konzentrieren. Die Konzentration schafft lokalisierte Kühlanforderungen, die reihen- oder raumbasierte Ansätze schwer bewältigen können. Rear-Door-Wärmetauscher, In-Row-Kühleinheiten oder Direct-to-Chip-Flüssigkeitskühlungsinfrastruktur werden notwendig.
Wasserversorgungs- und -aufbereitungsanforderungen steigen mit dem Einsatz von Flüssigkeitskühlung. Die Kühlmittelqualität beeinflusst sowohl die thermische Leistung als auch die Lebensdauer der Ausrüstung. Rechenzentren müssen entweder Wasseraufbereitung bereitstellen oder geschlossene Kreislaufsysteme spezifizieren, die Wasserqualitätsabhängigkeiten minimieren.
Überlegungen zur Stromversorgung
Advanced Packages erfordern Stromversorgungssysteme, die erhöhten Stromanforderungen und engeren Spannungsregelungsanforderungen entsprechen.
Platzierung der Spannungsregler
Hochstromversorgung zu Advanced Packages profitiert von Spannungsreglern, die nahe am Package positioniert sind. Die kurze Entfernung reduziert ohmsche Verluste und verbessert das Transientenverhalten, wenn sich der Strombedarf schnell ändert. Board-Designs platzieren VRMs zunehmend unmittelbar neben GPU-Packages.
Stromniveaus, die Hunderte von Ampere bei unter 1V Spannungen erreichen, schaffen anspruchsvolle Anforderungen an die Stromverteilung. Die Anzahl der PCB-Lagen und das Kupfergewicht steigen, um Strom ohne übermäßige Verluste oder Temperaturanstieg zu führen. Die Komplexität und Kosten des Board-Designs steigen zusammen mit der Package-Leistung.
Das Design des Power Delivery Network (PDN) beeinflusst sowohl die Steady-State-Effizienz als auch die Transientenstabilität. KI-Workloads weisen schnelle Leistungsübergänge auf, wenn Batch-Berechnungen starten und abgeschlossen werden. Das PDN muss Stromstöße liefern, ohne Spannungseinbrüche zu verursachen, die Fehler erzeugen.
Strominfrastruktur des Gebäudes
Die Strominfrastruktur des Rechenzentrums muss sowohl Gesamtleistungserhöhungen als auch Leistungsdichteerhöhungen berücksichtigen. Ein Rack, das 100 kW benötigt, erfordert elektrische Infrastruktur, die wenige Einrichtungen standardmäßig bereitstellen. Busway-Kapazität, PDU-Nennleistungen und Anzahl der Abzweigstromkreise erfordern alle eine Validierung gegen die tatsächlichen Einsatzpläne.
Die Stromeffizienz auf Gebäudeebene beeinflusst die Gesamtbetriebskosten erheblich. Advanced Packages, die bessere Leistung pro Watt erreichen, reduzieren Kühllasten neben Rechenkosten. Der Vorteil realisiert sich jedoch nur, wenn die Gebäudeinfrastruktur über den relevanten Leistungsbereich effizient arbeitet.
Notstromsysteme stehen vor neuen Herausforderungen durch hochdichte KI-Infrastruktur. USV- und Generatorkapazität müssen der Spitzengebäudelast entsprechen und gleichzeitig eine Laufzeit bieten, die für ein ordnungsgemäßes Herunterfahren ausreicht. Die Investitionskosten für Notstrom skalieren mit der geschützten Last und erhöhen die Infrastrukturinvestition.
Physische Formfaktoren
Advanced Packaging beeinflusst physische Formfaktoren in der gesamten Systemhierarchie.
Package-Abmessungen
Interposer-Größenbeschränkungen begrenzen, wie viele Dies und HBM-Stacks in ein einzelnes Package passen. Aktuelle CoWoS-Packages erstrecken sich über mehrere Retikel-Größen und nähern sich den Grenzen der Fertigungsausrüstung. Das Wachstum der Package-Größe ermöglicht mehr Fähigkeiten pro Package, fordert aber Socket- und Board-Designs heraus.
Die Package-Höhe steigt mit der Anzahl der HBM-Stacks. Jeder HBM-Stack fügt eine vertikale Dimension hinzu, die Socket- und Kühlkörperdesigns berücksichtigen müssen. Systemdesigns, die Package-Anzahl gegen Höhenbeschränkungen abwägen, treffen andere Kompromisse als frühere Generationen.
Ball-Grid-Array (BGA)-Muster für Advanced Packages umfassen Tausende von Verbindungen für Strom, Signal und Masse. Socket-Designs müssen alle Verbindungen zuverlässig kontaktieren und gleichzeitig das Entfernen des Packages für den Service ermöglichen. Die Mechanik von High-Pin-Count-Sockets beeinflusst die Systemwartbarkeit.
Board- und Systemdesign
Motherboard-Designs für Advanced Packages widmen erhebliche Fläche der Stromversorgung, den Speicherkanälen und Hochgeschwindigkeitsverbindungen. Die pro Package erforderliche Board-Fläche kann begrenzen, wie viele Packages auf ein einzelnes Board passen. Systemdesigns wählen zwischen weniger großen Packages oder mehr kleineren Packages basierend auf den Workload-Anforderungen.
Server-Formfaktoren entwickeln sich weiter, um den Anforderungen von Advanced Packages gerecht zu werden. Höhenbeschränkungen in Standard-1U- und 2U-Formfaktoren kollidieren mit Kühllösungen für Hochleistungs-Packages. Zweckgebaute KI-Server-Designs priorisieren thermische Leistung gegenüber Rack-Dichte.
Die Rack-Leistungsdichte steigt, da Packages leistungsfähiger werden bei konstanten Formfaktoren. Einrichtungen, die für 10-15 kW pro Rack ausgelegt sind, stellen fest, dass KI-Infrastruktur 50-100+ kW pro Rack erfordert. Die Diskrepanz zwischen installierter Infrastruktur und Einsatzanforderungen schafft kostspielige Nachrüstsituationen.
Auswirkungen auf die Lieferkette
Kapazitätsbeschränkungen beim Advanced Packaging beeinflussen die Verfügbarkeit von KI-Infrastruktur und Planungshorizonte.
Kapazitätszuweisung
TSMC plant, kurzfristig acht CoWoS-Einrichtungen zu erweitern, darunter Einrichtungen im ChiaYi Science Park und erworbene Innolux-Standorte.[^5] Zulieferer von Halbleiterausrüstung bestätigen, dass TSMC und Nicht-TSMC-Akteure, darunter ASE, Amkor und UMC
[Inhalt für Übersetzung gekürzt]