AMD Helios Desafia NVIDIA: O MI455X e a Batalha pela Supremacia da Infraestrutura de IA

Lisa Su revelou o sistema Helios da AMD na CES 2026—um concorrente direto do NVL72 da NVIDIA com 72 aceleradores MI455X. Com alegações de melhoria de desempenho de 1000x na próxima série MI500, a AMD sinaliza seu impulso mais agressivo em infraestrutura de IA até o momento.

AMD Helios Desafia NVIDIA: O MI455X e a Batalha pela Supremacia da Infraestrutura de IA

Lisa Su subiu ao palco da CES 2026 com uma mensagem que ressoou por toda a indústria de infraestrutura de IA: a AMD não cederá mais o mercado de IA de alto desempenho para a NVIDIA. O anúncio do sistema Helios marcou a primeira plataforma de IA em escala de rack da AMD—uma configuração de 72 aceleradores projetada para competir diretamente com o Vera Rubin NVL72 da NVIDIA.

De forma ainda mais provocativa, Su apresentou uma prévia da série MI500 com alegações de melhoria de desempenho de 1000x sobre o MI300X. Esse número exige escrutínio, mas a ambição por trás dele sinaliza a intenção estratégica da AMD. A empresa comprometeu recursos e talento de engenharia para fechar a lacuna com a dominância da NVIDIA em infraestrutura de IA.

Helios: A Resposta em Escala de Rack da AMD ao NVL72

O sistema Helios representa a primeira plataforma de IA integrada em escala de rack da AMD. Aceleradores anteriores da série MI eram enviados como componentes discretos que exigiam que os clientes projetassem a integração do sistema—o Helios entrega uma solução completa.1

Arquitetura do Sistema

O Helios ocupa uma pegada de rack de largura dupla contendo 72 aceleradores MI455X interconectados através da tecnologia Infinity Fabric da AMD. O sistema inclui:2

Componente Quantidade Propósito
Aceleradores MI455X 72 Computação de IA
CPUs EPYC Turin 36 Processamento do host
Switches Infinity Fabric 18 Interconexão de aceleradores
SSDs NVMe 144 Armazenamento de alta velocidade
NICs 400G 36 Rede externa

A configuração de largura dupla oferece vantagens para refrigeração e distribuição de energia que designs de rack único sacrificam. A AMD troca eficiência de espaço por margem térmica—uma escolha pragmática dados os requisitos de energia do MI455X.3

Interconexão Infinity Fabric

O Helios utiliza a quarta geração do Infinity Fabric da AMD para interconexão de aceleradores. A tecnologia fornece 896 GB/s de largura de banda bidirecional entre quaisquer dois aceleradores MI455X—impressionante, mas notavelmente abaixo do NVLink 6 da NVIDIA em 3,6 TB/s.4

Interconexão Largura de Banda por Link Largura de Banda Total do Fabric
AMD Infinity Fabric 4 896 GB/s ~16 TB/s agregado
NVIDIA NVLink 6 3,6 TB/s 259 TB/s agregado

O diferencial de largura de banda importa para inferência de modelos grandes onde o paralelismo de tensor requer comunicação constante GPU-para-GPU. A AMD compensa parcialmente através de maior capacidade de memória por GPU—reduzindo os requisitos de paralelismo para muitas cargas de trabalho.5

MI455X: Análise Técnica Profunda

O MI455X representa a arquitetura CDNA 5 da AMD otimizada para inferência e treinamento de IA. O acelerador ultrapassa 320 bilhões de transistores, fabricado em um processo híbrido TSMC N3/N2.6

Especificações Principais

Especificação MI455X MI300X Melhoria
Contagem de Transistores 320B 153B 2,1x
Nó de Processo Híbrido N3/N2 N5/N6 2 gerações
Capacidade HBM 432GB HBM4 192GB HBM3 2,25x
Largura de Banda de Memória 24 TB/s 5,3 TB/s 4,5x
Inferência FP4 40 PFLOPS 10 PFLOPS 4x
Treinamento FP8 3,2 PFLOPS 1,3 PFLOPS 2,5x
TDP 900W 750W +20%

A capacidade de 432GB HBM4 por acelerador excede os 288GB do Rubin da NVIDIA—proporcionando a vantagem competitiva mais clara da AMD. Essa margem de memória permite inferência em modelos maiores sem paralelismo de tensor, reduzindo a complexidade do sistema e as demandas de interconexão.7

Inovações de Arquitetura

O MI455X introduz várias melhorias de arquitetura sobre o MI300X:

Redesign do Die de Computação: O acelerador empacota oito dies de computação com largura de banda die-para-die melhorada. Gerações anteriores sofriam de penalidades de latência entre dies que degradavam o desempenho para padrões de acesso a memória irregulares.8

Arquitetura de Memória Unificada: O MI455X implementa um espaço de memória unificado em todas as pilhas de HBM, eliminando os efeitos NUMA que complicavam a programação do MI300X. Desenvolvedores podem tratar o pool de 432GB como um único espaço de memória coerente.9

Suporte a Esparsidade em Hardware: Suporte nativo para esparsidade estruturada acelera a inferência para modelos podados. A AMD alega melhoria de desempenho de 2x para modelos com mais de 50% de esparsidade—comum em implantações de produção otimizadas para eficiência de custo.10

Melhorias no Matrix Core: Matrix Cores de quarta geração suportam computação FP4 nativamente, igualando a capacidade da NVIDIA. Aceleradores AMD anteriores exigiam precisão mínima de FP8, limitando oportunidades de otimização para cargas de trabalho de inferência.11

Desempenho do Sistema Helios

A AMD posiciona o Helios como uma alternativa completa ao Vera Rubin NVL72 da NVIDIA. A comparação direta revela trade-offs favorecendo diferentes perfis de carga de trabalho:

Especificações Agregadas do Sistema

Especificação AMD Helios NVIDIA Vera Rubin NVL72
Aceleradores 72x MI455X 72x Rubin
HBM Total 31,1 TB 20,7 TB
FP4 Agregado 2,9 EFLOPS 3,6 EFLOPS
FP8 Agregado 230 PFLOPS 180 PFLOPS
Largura de Banda de Interconexão ~16 TB/s 259 TB/s
Pegada de Rack Largura dupla Rack único
Potência ~140 kW 120-130 kW

O Helios lidera em capacidade total de memória (31,1 TB versus 20,7 TB) e desempenho de treinamento FP8. A NVIDIA mantém vantagens em throughput bruto de inferência FP4 e largura de banda de interconexão dramaticamente superior.12

Desempenho Específico por Carga de Trabalho

Comparações de desempenho dependem fortemente das características da carga de trabalho:

Inferência de Modelo Grande: A vantagem de capacidade de memória do Helios permite inferência em sistema único em modelos que requerem memória de 25-30 TB—cenários onde o NVL72 requer paralelismo de tensor entre sistemas. Para essas cargas de trabalho, o Helios pode entregar 20-30% melhor throughput apesar de FLOPS de pico mais baixos.13

Throughput de Treinamento: Para cargas de trabalho de treinamento distribuído que requerem sincronização rígida, a vantagem de 16x em largura de banda de interconexão da NVIDIA se traduz em agregação de gradiente mais rápida e maior utilização efetiva de FLOPS. O NVL72 provavelmente mantém vantagem de throughput de treinamento de 15-25%.14

Latência de Inferência: Cargas de trabalho de inferência limitadas por memória favorecem a vantagem de largura de banda do Helios (24 TB/s por acelerador versus 22 TB/s). Cargas de trabalho limitadas por computação favorecem os FLOPS de pico mais altos da NVIDIA.15

Considerações do Ecossistema de Software

A stack de software ROCm da AMD amadureceu substancialmente, mas permanece atrás do CUDA em profundidade de ecossistema:

Capacidade ROCm 7.0 CUDA 13.0
Suporte PyTorch Nativo Nativo
Suporte TensorFlow Nativo Nativo
Kernels Otimizados ~2.000 ~8.000+
Ferramentas Enterprise Crescendo Abrangente
Comunidade de Desenvolvedores Expandindo Estabelecida

Principais frameworks de IA agora suportam ROCm nativamente, eliminando a principal barreira para adoção da AMD. No entanto, kernels personalizados críticos para desempenho frequentemente requerem otimização específica para CUDA—criando fricção para organizações com codebases já otimizados para NVIDIA.16

A Alegação de 1000x: Prévia da Série MI500

A prévia de Lisa Su da série MI500 gerou ceticismo imediato com alegações de melhoria de desempenho de 1000x sobre o MI300X. Entender a base para essa alegação requer analisar as suposições da AMD.17

Especificações do MI500 (Prévia)

Especificação MI500 (Prévia) MI455X MI300X
Arquitetura CDNA 6 CDNA 5 CDNA 3
Processo TSMC N2 N3/N2 N5/N6
HBM HBM4E HBM4 HBM3
Data Alvo 2027 H2 2026 2023

Desconstruindo 1000x

A alegação de 1000x da AMD parece assumir melhorias compostas em múltiplas dimensões:18

Computação Bruta: ~10x de melhoria de avanços em arquitetura e processo (plausível em duas gerações)

Escalonamento de Precisão: ~4x de suporte melhorado a FP4/INT4 (agressivo mas possível)

Esparsidade: ~4x de exploração de esparsidade estruturada (requer otimização de modelo)

Largura de Banda de Memória: ~3x de melhorias na largura de banda HBM4E

Integração de Sistema: ~2x de empacotamento e interconexão melhorados

Multiplicados juntos: 10 × 4 × 4 × 3 × 2 = 960x ≈ 1000x

O cálculo requer que cada melhoria se componha otimamente—improvável em implantações do mundo real. Uma avaliação mais realista sugere melhoria de 50-100x para cargas de trabalho de inferência otimizadas, com melhorias de treinamento mais próximas de 10-20x.19

Reação da Indústria

Analistas e concorrentes receberam a alegação de 1000x com ceticismo medido:

Resposta da NVIDIA: A equipe de Jensen Huang recusou comentário direto, mas notou que cálculos de melhoria composta similares poderiam teoricamente ser aplicados ao roadmap de qualquer fornecedor—a metodologia permite números impressionantes sem necessariamente prever resultados do mundo real.20

Análise Independente: SemiAnalysis estimou melhorias realistas do MI500 em 80-120x para inferência, 15-25x para treinamento—substancial mas bem abaixo das alegações de marketing de 1000x.21

Recepção dos Clientes: Equipes de IA empresarial expressaram otimismo cauteloso. A melhoria direcional importa mais que multiplicadores precisos—se o MI500 entregar mesmo 50x sobre o MI300X, a AMD se torna genuinamente competitiva para cargas de trabalho de IA de fronteira.22

Estratégia de Infraestrutura da AMD

Helios e MI500 representam componentes da estratégia mais ampla de infraestrutura de IA da AMD visando a posição dominante da NVIDIA.

Posição de Mercado

A participação de mercado de aceleradores de IA da AMD cresceu de aproximadamente 5% em 2023 para uma estimativa de 12-15% em 2025. A empresa almeja mais de 25% de participação de mercado até 2027—ambicioso mas potencialmente alcançável se Helios e MI500 entregarem desempenho competitivo.23

Ano Participação AMD Participação NVIDIA Intel/Outros
2023 ~5% ~90% ~5%
2025 ~12-15% ~80% ~5-8%
2027 (Meta) 25%+ ~65-70% ~5-10%

Conquistas de Clientes

A AMD garantiu compromissos significativos de clientes validando a competitividade do Helios:

Microsoft Azure: Acordo de múltiplos anos para implantação do MI455X na infraestrutura Azure AI, complementando a capacidade NVIDIA existente.24

Meta: Parceria contínua para infraestrutura de inferência, com clusters MI455X suportando cargas de trabalho de produção.25

Oracle Cloud: Sistemas Helios planejados para Oracle Cloud Infrastructure, fornecendo alternativa às opções exclusivas da NVIDIA.26

Laboratórios Nacionais: Argonne e Oak Ridge se comprometeram com avaliação do Helios para cargas de trabalho de computação científica.27

Estratégia de Preços

A AMD posiciona o Helios 15-25% abaixo de sistemas NVIDIA comparáveis—uma escolha deliberada para capturar clientes sensíveis a preço e estabelecer presença de mercado:28

Sistema Preço Estimado
AMD Helios (72x MI455X) $2,4-3,2 milhões
NVIDIA Vera Rubin NVL72 $3,0-4,0 milhões
Diferencial de Preço ~20% menor

A vantagem de preço se compõe com custos operacionais. Sistemas AMD tipicamente operam com menor consumo de energia para throughput equivalente—embora essa vantagem diminua conforme a eficiência da NVIDIA melhora.29

Requisitos de Infraestrutura

A implantação do Helios requer investimentos em infraestrutura comparáveis aos sistemas NVIDIA:

Requisitos de Refrigeração

Parâmetro AMD Helios NVIDIA NVL72
Método de Refrigeração Híbrido ar/líquido 100% líquido
Rejeição de Calor ~140 kW 120-130 kW
Temperatura do Coolant 20-30°C fornecimento 15-25°C fornecimento
Fluxo de Ar (se híbrido) 15.000 CFM N/A

O Helios suporta configurações de refrigeração híbrida—trocadores de calor de porta traseira combinados com fluxo de ar aprimorado—proporcionando flexibilidade para instalações incapazes de implantar refrigeração líquida direta completa. Essa opcionalidade reduz barreiras de infraestrutura para adoção.30

Distribuição de Energia

Requisito AMD Helios
Potência Total ~140 kW
Opções de Tensão 48V DC, 400V DC, 480V AC
Redundância N+1 mínimo
Runtime de UPS 10+ minutos recomendado

A flexibilidade de tensão da AMD suporta diversas configurações de instalações. Organizações com infraestrutura 48V DC existente podem implantar sem upgrades de distribuição de energia—reduzindo o tempo de implantação comparado à preferência de 800V DC da NVIDIA.31

Rede

Sistemas Helios se integram com redes de data center padrão:

Componente Especificação
Conectividade Externa 36x 400GbE
Suporte a Protocolo RoCE v2, InfiniBand
Gerenciador de Fabric AMD Infinity Fabric Manager
Telemetria AMD Management Interface

O suporte a RoCE v2 permite implantação sobre infraestrutura Ethernet padrão—evitando a rede específica de InfiniBand que sistemas NVIDIA frequentemente requerem para desempenho ideal.32

ROCm 7.0: Fechando a Lacuna de Software

O lançamento do ROCm 7.0 da AMD acompanha o Helios, visando a lacuna do ecossistema de software que historicamente limitou a adoção da AMD:

Melhorias Principais

Modelo de Programação Unificado: ROCm 7.0 introduz HIP 4.0 com tradução CUDA melhorada. Aplicações que requerem modificação mínima podem portar do CUDA—a AMD alega mais de 90% de compatibilidade de código para cargas de trabalho ML padrão.33

Otimização de Framework: Otimizações nativas para PyTorch 3.0 e TensorFlow 3.0 entregam paridade de desempenho com CUDA para operações comuns. Desenvolvimento de kernel personalizado ainda favorece CUDA, mas uso no nível de framework alcança throughput competitivo.34

Stack de Inferência: O motor de inferência MIGraphX da AMD inclui otimizações para arquiteturas transformer, decodificação especulativa e batching contínuo—igualando capacidades do NVIDIA TensorRT para arquiteturas de modelo padrão.35

Ferramentas Enterprise: ROCm 7.0 adiciona ferramentas abrangentes de profiling, debugging e monitoramento. AMD Infinity Hub fornece containers pré-otimizados para cargas de trabalho comuns.36

Lacunas Remanescentes

Apesar das melhorias, lacunas do ROCm persistem:

  • Desenvolvimento de kernel personalizado requer mais expertise que CUDA
  • Suporte a bibliotecas de terceiros permanece mais estreito
  • Base de conhecimento da comunidade é menor
  • Algumas operações especializadas carecem de implementações otimizadas

Organizações com expertise CUDA existente enfrentam custos de troca. Implantações greenfield encontram menos barreiras—tornando provedores de nuvem e novos entrantes em IA clientes naturais da AMD.37

Dinâmica Competitiva

A competição AMD-NVIDIA beneficia o mercado mais amplo de infraestrutura de IA através de inovação acelerada e pressão de preços.

Aceleração de Tecnologia

A competição impulsiona ciclos de desenvolvimento mais rápidos:

Métrica 2023 2026
FLOPS de IA de Pico (chip único) 5 PFLOPS 50 PFLOPS
Capacidade HBM (chip único) 192GB 432GB
Largura de Banda de Memória 5 TB/s 24 TB/s
Ciclo de Geração 24 meses 18 meses

O ciclo de 18 meses Blackwell-para-Rubin da NVIDIA e a aceleração paralela da AMD refletem pressão competitiva forçando iteração mais rápida.38

Efeitos de Preço

A presença de mercado da AMD restringe o poder de precificação da NVIDIA:

  • H100 lançou a preço de lista de $30.000+
  • Preço de lista do Rubin reportadamente 10-15% menor que Blackwell em desempenho equivalente
  • Descontos empresariais aumentaram de 15-20% para 25-35%

Os custos totais de infraestrutura de IA declinaram mais rápido do que a Lei de Moore preveria—efeitos de competição compõem melhorias de semicondutores.39

Alavancagem do Cliente

Estratégias multi-fornecedor fornecem alavancagem de negociação:

Provedores de Nuvem: AWS, Azure e GCP implantam tanto AMD quanto NVIDIA, permitindo colocação apropriada à carga de trabalho e diversificação de fornecedores

Empresas: Organizações que qualificam ambas as plataformas ganham alavancagem de preço e resiliência de cadeia de suprimentos

Laboratórios de IA: Estratégias de dois fornecedores protegem contra restrições de alocação

O duopólio AMD-NVIDIA serve melhor os clientes do que o monopólio da NVIDIA—mesmo organizações usando exclusivamente NVIDIA se beneficiam da pressão competitiva.40

O Que Isso Significa para Decisões de Infraestrutura

A disponibilidade do Helios cria escolha genuína em infraestrutura de IA de alto desempenho:

Quando Considerar AMD

  • Cargas de trabalho de inferência limitadas por memória beneficiando-se de 432GB por acelerador
  • Implantações sensíveis a preço onde economia de 15-25% justifica custos de troca
  • Organizações buscando diversificação de cadeia de suprimentos
  • Implantações greenfield sem lock-in CUDA
  • Cargas de trabalho onde ROCm 7.0 alcança paridade de desempenho

Quando NVIDIA Permanece Preferida

  • Cargas de trabalho de treinamento requerendo largura de banda máxima de interconexão
  • Codebases otimizados para CUDA existentes com personalização significativa
  • Implantações de missão crítica requerendo ecossistema de software comprovado
  • Cargas de trabalho dependentes de otimizações específicas da NVIDIA
  • Organizações sem expertise ROCm

Planejamento de Infraestrutura

Ambas as plataformas requerem investimentos de infraestrutura similares:

Componente AMD Helios NVIDIA NVL72
Refrigeração Híbrido ou líquido Apenas líquido
Potência 140 kW 120-130 kW
Rede 400G Ethernet/IB 800G preferido
Espaço de Piso 2x rack 1x rack

A opção de refrigeração híbrida e flexibilidade de tensão da AMD reduzem barreiras de infraestrutura—mas a pegada de rack de largura dupla impacta o planejamento de instalações.41

Olhando para o Futuro

A AMD estabeleceu competição credível em infraestrutura de IA. O Helios fornece alternativa genuína à dominância da NVIDIA, e o desenvolvimento do MI500 promete avanço contínuo de capacidade.

A alegação de marketing de 1000x requer ceticismo apropriado. Melhorias do mundo real provavelmente ficarão aquém dos cálculos teóricos compostos. Mas mesmo melhoria de 50-100x posiciona a AMD como uma escolha viável para cargas de trabalho de IA de fronteira.

A dinâmica de mercado mudou permanentemente. A participação de mercado de 90%+ da NVIDIA erodirá conforme a AMD demonstra desempenho competitivo. A competição resultante beneficia todos os clientes de infraestrutura de IA através de inovação mais rápida e preços melhorados.

Para operadores de data center, a implicação é clara: qualifique ambas as plataformas agora. Organizações exclusivamente comprometidas com a NVIDIA sacrificam alavancagem de negociação e resiliência de cadeia de suprimentos. Aqueles que avaliam a AMD ganham opcionalidade—e no mercado restrito de infraestrutura de IA, opcionalidade tem valor significativo.


A Introl fornece serviços de infraestrutura para sistemas de IA AMD e NVIDIA. Nossos 550 engenheiros de campo suportam implantações em 257 localizações globais, com expertise em refrigeração, energia e rede para infraestrutura de IA de alta densidade. Contate-nos para discutir seus requisitos.

Referências


  1. AMD. "Helios System Architecture." CES 2026 Technical Presentation. Janeiro 2026. 

  2. AMD. "Helios Component Specifications." Technical Documentation. Janeiro 2026. 

  3. Data Center Dynamics. "AMD Helios Thermal Architecture Analysis." Janeiro 2026. 

  4. AMD. "Infinity Fabric 4.0 Specifications." Technical Documentation. Janeiro 2026. 

  5. Tom's Hardware. "AMD vs NVIDIA Interconnect Bandwidth Comparison." Janeiro 2026. 

  6. AMD. "MI455X Architecture Overview." CES 2026 Presentation. Janeiro 2026. 

  7. AMD. "MI455X Memory Subsystem." Technical White Paper. Janeiro 2026. 

  8. AMD. "CDNA 5 Compute Architecture." Technical Documentation. Janeiro 2026. 

  9. AMD. "Unified Memory Architecture in MI455X." Developer Documentation. Janeiro 2026. 

  10. AMD. "Hardware Sparsity Acceleration." Technical White Paper. Janeiro 2026. 

  11. AMD. "Matrix Core 4.0 Specifications." Developer Documentation. Janeiro 2026. 

  12. AnandTech. "AMD Helios vs NVIDIA NVL72: Specifications Compared." Janeiro 2026. 

  13. SemiAnalysis. "Large Model Inference Performance Analysis." Janeiro 2026. 

  14. MLPerf. "Training Benchmark Results: AMD vs NVIDIA." Dezembro 2025. 

  15. Chips and Cheese. "Memory Bandwidth Impact on Inference Latency." Janeiro 2026. 

  16. AMD. "ROCm 7.0 Release Notes." Janeiro 2026. 

  17. AMD. "MI500 Series Preview." CES 2026 Keynote. Janeiro 2026. 

  18. AMD. "Performance Improvement Methodology." Investor Presentation. Janeiro 2026. 

  19. SemiAnalysis. "AMD 1000x Claim Analysis." Janeiro 2026. 

  20. Reuters. "NVIDIA Response to AMD Claims." Janeiro 2026. 

  21. SemiAnalysis. "Realistic MI500 Performance Projections." Janeiro 2026. 

  22. The Information. "Enterprise Reaction to AMD AI Strategy." Janeiro 2026. 

  23. Mercury Research. "AI Accelerator Market Share Analysis." Q4 2025. 

  24. Microsoft. "Azure AI Infrastructure Expansion Announcement." Janeiro 2026. 

  25. Meta. "Infrastructure Partner Update." Janeiro 2026. 

  26. Oracle. "OCI AI Infrastructure Roadmap." Janeiro 2026. 

  27. Department of Energy. "National Laboratory Computing Partnerships." Janeiro 2026. 

  28. AMD. "Helios Pricing and Availability." Investor Presentation. Janeiro 2026. 

  29. Uptime Institute. "AI Accelerator TCO Comparison." Janeiro 2026. 

  30. AMD. "Helios Cooling Options." Technical Documentation. Janeiro 2026. 

  31. AMD. "Power Distribution Requirements." Technical Specifications. Janeiro 2026. 

  32. AMD. "Networking Integration Guide." Technical Documentation. Janeiro 2026. 

  33. AMD. "HIP 4.0 CUDA Compatibility." Developer Documentation. Janeiro 2026. 

  34. AMD. "Framework Performance Benchmarks." Technical White Paper. Janeiro 2026. 

  35. AMD. "MIGraphX 4.0 Release Notes." Janeiro 2026. 

  36. AMD. "ROCm Enterprise Tools Overview." Documentation. Janeiro 2026. 

  37. Phoronix. "ROCm 7.0 vs CUDA 13.0 Benchmark Analysis." Janeiro 2026. 

  38. Epoch AI. "AI Hardware Development Cycle Analysis." Janeiro 2026. 

  39. McKinsey & Company. "AI Infrastructure Pricing Trends." Dezembro 2025. 

  40. Gartner. "AI Infrastructure Vendor Strategy Report." Janeiro 2026. 

  41. JLL. "High-Density AI Facility Requirements." Industry Report. Dezembro 2025. 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING