Otimização de Performance de GPU: Maximizando Throughput para Treinamento e Inferência de LLM
Treinamento FP8 agora pronto para produção em H100/H200 e Blackwell, entregando 2x de throughput sobre FP16 com precisão equivalente. Flash Attention 3 otimizado para arquitetura Hopper alcançando 1.5-2x...
None