CoWoS e Empacotamento Avançado: Como a Arquitetura de Chips Molda o Design de Data Centers
Atualizado em 11 de dezembro de 2025
Atualização de Dezembro de 2025: A TSMC está demonstrando refrigeração líquida direta no silício em CoWoS, alcançando resistência térmica de 0,055°C/W em TDP de 2,6kW+ em interposers de 3.300mm². A NVIDIA está garantindo mais de 70% da capacidade de CoWoS-L da TSMC para 2025. Os volumes de GPUs Blackwell estão aumentando mais de 20% trimestralmente, caminhando para mais de 2 milhões de unidades anuais. O empacotamento avançado está se tornando a principal restrição no fornecimento de aceleradores de IA.
A TSMC demonstrou a Refrigeração Líquida Direta no Silício integrada à sua plataforma CoWoS na conferência IEEE ECTC 2025, alcançando resistência térmica da junção ao ambiente de 0,055 °C/W com fluxo de refrigerante de 40 ml/s—quase 15% melhor do que a refrigeração líquida com tampa usando materiais de interface térmica.[^1] A demonstração validou a operação sustentada acima de 2,6 kW de TDP em um imenso interposer de 3.300 mm² suportando múltiplos dies de lógica e pilhas de HBM. A tecnologia de empacotamento avançado evoluiu de uma preocupação de fabricação de semicondutores para um fator primário na arquitetura de energia e refrigeração de data centers.
A NVIDIA garantiu mais de 70% da capacidade de empacotamento avançado CoWoS-L da TSMC para 2025, com volumes de envio de GPUs da arquitetura Blackwell aumentando mais de 20% a cada trimestre, rumo a volumes anuais superiores a 2 milhões de unidades.[^2] A alocação de capacidade reflete como o empacotamento avançado se tornou a restrição crítica no fornecimento de aceleradores de IA. Operadores de data centers que planejam investimentos em infraestrutura devem entender como a tecnologia de empacotamento afeta os sistemas que implantam, desde requisitos de fornecimento de energia até demandas de refrigeração e fatores de forma física.
Entendendo o empacotamento avançado
O empacotamento avançado integra múltiplos dies de silício em pacotes unificados que funcionam como chips únicos, possibilitando capacidades impossíveis com designs monolíticos.
Tecnologia CoWoS explicada
CoWoS (Chip-on-Wafer-on-Substrate) combina múltiplos dies em um interposer de silício, que então se conecta a um substrato de pacote.[^3] O interposer de silício apresenta interconexões metálicas de alta densidade e vias através do silício (TSVs), fornecendo comunicação de dados de largura de banda ultra-alta e baixa latência entre os dies. O resultado oferece eficiência energética aprimorada, desempenho térmico e formato compacto críticos para cargas de trabalho de IA, HPC e nuvem.
Ao contrário dos pacotes tradicionais de chip único, o CoWoS permite integração heterogênea combinando SoCs, GPUs e pilhas de memória HBM em um único pacote.[^3] A integração elimina as penalidades de largura de banda e latência da comunicação através dos limites do pacote. A largura de banda de memória que limita o desempenho de IA aumenta dramaticamente quando as pilhas de HBM ficam a milímetros dos dies de computação, em vez de atravessar uma PCB.
Variantes do CoWoS
A NVIDIA adotou o empacotamento avançado CoWoS-L, integrando uma camada de redistribuição (RDL) com um interposer de silício parcial (LSI).[^2] O CoWoS-L melhora o tamanho e a área do chip aumentando a densidade de transistores, permitindo o empilhamento de mais memória de alta largura de banda. Comparado às tecnologias CoWoS-S e CoWoS-R, o CoWoS-L oferece desempenho superior, maior rendimento e melhor eficiência de custo.
O CoWoS-S (interposer de silício) usa um interposer de silício completo abrangendo todos os dies. A abordagem fornece o pitch de interconexão mais fino, mas restringe o tamanho do pacote aos limites de fabricação do interposer de silício. Os pacotes CoWoS-S atuais alcançam aproximadamente 2,5 tamanhos de retículo.
O CoWoS-R (interposer RDL) substitui o interposer de silício por uma camada de redistribuição orgânica, reduzindo o custo às custas da densidade de interconexão. A tecnologia é adequada para aplicações que requerem pacotes grandes onde interposers de silício completos se tornam proibitivamente caros.
Tecnologias concorrentes
O EMIB (Embedded Multi-die Interconnect Bridge) da Intel conecta chiplets usando pequenas pontes de silício embutidas diretamente no substrato do pacote, eliminando a necessidade de um grande interposer de silício.[^4] A abordagem reduz tanto o custo quanto a complexidade térmica em comparação com soluções de interposer completo. O EMIB é adequado para designs onde os dies se comunicam em pares, em vez de exigir conectividade de malha completa.
A tecnologia Foveros da Intel empilha verticalmente os dies usando vias através do silício ou ligação direta de cobre.[^4] O empilhamento 3D oferece alta densidade de interconexão e integração heterogênea de nós ao custo de considerações térmicas e de rendimento mais rigorosas. O gerenciamento térmico se torna especialmente desafiador quando dies geradores de calor são empilhados verticalmente.
O CoWoS-L da TSMC continua sendo a principal opção para GPUs de IA de alto desempenho e aceleradores com uso intensivo de HBM, apesar das alternativas competitivas.[^4] A maturidade de produção da tecnologia e o desempenho comprovado nos níveis de potência de aceleradores de IA a tornam a escolha padrão para designs de ponta.
Implicações térmicas
O empacotamento avançado concentra a geração de calor de maneiras que desafiam as abordagens tradicionais de refrigeração.
Desafios de densidade de potência
Um pacote CoWoS de 3.300 mm² dissipando mais de 2,6 kW representa densidades de potência que requerem refrigeração sofisticada além das capacidades de refrigeração a ar.[^1] A potência se concentra em dies de computação que ocupam uma fração da área total do pacote, criando pontos quentes térmicos que a densidade de potência média do pacote subestima.
As pilhas de HBM ao redor dos dies de computação geram calor adicional enquanto requerem controle de temperatura para manter a confiabilidade da memória. As especificações de HBM limitam as temperaturas de operação mais rigorosamente do que os dies de lógica toleram. Os designs de refrigeração devem abordar tanto as temperaturas de pico dos dies de lógica quanto os requisitos térmicos distribuídos do HBM.
A progressão de GPUs de 300W para mais de 700W na geração atual e pacotes previstos de mais de 1000W na próxima geração impulsiona mudanças fundamentais na arquitetura térmica de data centers. As abordagens de refrigeração a ar que lidavam com gerações anteriores não conseguem escalar para os níveis de potência atuais sem penalidades acústicas ou energéticas inaceitáveis.
Integração de refrigeração líquida direta
A Refrigeração Líquida Direta no Silício da TSMC incorpora canais microfluídicos diretamente na estrutura do silício, contornando materiais de interface térmica para impedância térmica quase zero.[^1] O Micro Cooler Integrado ao Si é unido por fusão à parte traseira do chip, criando contato térmico íntimo que abordagens baseadas em TIM não conseguem igualar.
A tecnologia permite operação sustentada em níveis de potência que sobrecarregariam pacotes com tampa e placas frias externas. Data centers implantando aceleradores de IA de próxima geração podem exigir esse nível de integração térmica em vez de adaptar a refrigeração existente para cargas de potência mais altas.
A integração no nível do pacote transfere a responsabilidade de refrigeração para fabricantes de semicondutores e fornecedores de sistemas, em vez de operadores de data centers. Organizações especificando infraestrutura de IA devem entender quais soluções térmicas seus sistemas escolhidos empregam e quais requisitos de instalação essas soluções impõem.
Requisitos de refrigeração das instalações
A refrigeração líquida no nível do chip ainda requer rejeição de calor no nível das instalações. A carga térmica se move do chip para o circuito de refrigerante para a infraestrutura de refrigeração do data center. Os designs das instalações devem acomodar distribuição de refrigerante, trocadores de calor e rejeição final de calor, independentemente de quão eficientemente os chips se acoplam ao refrigerante.
Racks de alta densidade habilitados por empacotamento avançado podem concentrar mais de 100 kW em posições de rack únicas. A concentração cria demandas de refrigeração localizadas que abordagens baseadas em fileiras ou salas têm dificuldade em atender. Trocadores de calor de porta traseira, unidades de refrigeração em fileira ou infraestrutura de refrigeração líquida direta no chip se tornam necessários.
Os requisitos de fornecimento e tratamento de água aumentam com a implantação de refrigeração líquida. A qualidade do refrigerante afeta tanto o desempenho térmico quanto a longevidade do equipamento. Os data centers devem provisionar tratamento de água ou especificar sistemas de circuito fechado que minimizem as dependências de qualidade da água.
Considerações de fornecimento de energia
Pacotes avançados requerem sistemas de fornecimento de energia que correspondam às demandas de corrente aumentadas e aos requisitos de regulação de tensão mais rigorosos.
Posicionamento do regulador de tensão
O fornecimento de alta corrente para pacotes avançados se beneficia de reguladores de tensão posicionados próximos ao pacote. A curta distância reduz perdas resistivas e melhora a resposta transitória quando a demanda de energia muda rapidamente. Os designs de placas posicionam cada vez mais os VRMs imediatamente adjacentes aos pacotes de GPU.
Níveis de corrente atingindo centenas de amperes em tensões abaixo de 1V criam requisitos desafiadores de distribuição de energia. O número de camadas de PCB e pesos de cobre aumentam para transportar corrente sem perda excessiva ou aumento de temperatura. A complexidade do design da placa e o custo aumentam junto com a potência do pacote.
O design da rede de distribuição de energia (PDN) afeta tanto a eficiência em estado estacionário quanto a estabilidade transitória. Cargas de trabalho de IA exibem transições rápidas de potência à medida que computações em lote começam e terminam. A PDN deve fornecer surtos de corrente sem quedas de tensão que causem erros.
Infraestrutura de energia das instalações
A infraestrutura de energia do data center deve acomodar tanto aumentos de potência total quanto aumentos de densidade de potência. Um rack que requer 100 kW precisa de infraestrutura elétrica que poucas instalações provisionam por padrão. Capacidade de barramento, classificações de PDU e contagens de circuitos derivados requerem validação contra os planos de implantação reais.
A eficiência energética no nível das instalações afeta significativamente o custo total de propriedade. Pacotes avançados alcançando melhor desempenho por watt reduzem cargas de refrigeração junto com custos de computação. No entanto, o benefício só se realiza se a infraestrutura das instalações operar eficientemente na faixa de potência relevante.
Os sistemas de energia de backup enfrentam novos desafios da infraestrutura de IA de alta densidade. A capacidade de UPS e geradores deve corresponder à carga máxima das instalações enquanto fornece tempo de execução adequado para desligamento gracioso. O custo de capital da energia de backup escala com a carga protegida, aumentando o investimento em infraestrutura.
Fatores de forma física
O empacotamento avançado afeta os fatores de forma física em toda a hierarquia do sistema.
Dimensões do pacote
As restrições de tamanho do interposer limitam quantos dies e pilhas de HBM cabem em um único pacote. Os pacotes CoWoS atuais abrangem múltiplos tamanhos de retículo, aproximando-se dos limites dos equipamentos de fabricação. O crescimento do tamanho do pacote permite mais capacidade por pacote, mas desafia os designs de soquetes e placas.
A altura do pacote aumenta com a contagem de pilhas de HBM. Cada pilha de HBM adiciona dimensão vertical que os designs de soquetes e dissipadores de calor devem acomodar. Os designs de sistemas que equilibram a contagem de pacotes contra restrições de altura fazem compensações diferentes das gerações anteriores.
Os padrões de array de esferas (BGA) para pacotes avançados incluem milhares de conexões para energia, sinal e terra. Os designs de soquetes devem contatar de forma confiável todas as conexões enquanto permitem a remoção do pacote para serviço. A engenharia mecânica de soquetes de alta contagem de pinos afeta a capacidade de manutenção do sistema.
Design de placas e sistemas
Os designs de placas-mãe para pacotes avançados dedicam área substancial ao fornecimento de energia, canais de memória e interconexões de alta velocidade. O espaço da placa necessário por pacote pode limitar quantos pacotes cabem em uma única placa. Os designs de sistemas escolhem entre menos pacotes grandes ou mais pacotes menores com base nos requisitos de carga de trabalho.
Os fatores de forma de servidores evoluem para acomodar os requisitos de pacotes avançados. As restrições de altura nos fatores de forma padrão 1U e 2U conflitam com soluções de refrigeração para pacotes de alta potência. Designs de servidores de IA construídos especificamente priorizam o desempenho térmico sobre a densidade do rack.
A densidade de potência do rack aumenta à medida que os pacotes se tornam mais capazes dentro de fatores de forma constantes. Instalações projetadas para 10-15 kW por rack descobrem que a infraestrutura de IA requer 50-100+ kW por rack. A incompatibilidade entre a infraestrutura instalada e os requisitos de implantação cria situações de retrofit custosas.
Implicações da cadeia de suprimentos
As restrições de capacidade de empacotamento avançado afetam a disponibilidade de infraestrutura de IA e os horizontes de planejamento.
Alocação de capacidade
A TSMC planeja expandir oito instalações de CoWoS no curto prazo, incluindo instalações no ChiaYi Science Park e locais adquiridos da Innolux.[^5] Fornecedores de equipamentos de semicondutores confirmam que a TSMC e players não-TSMC, incluindo ASE, Amkor e UMC
[Conteúdo truncado para tradução]