Trainium3 від Amazon кидає виклик у війні ШІ-чипів

Trainium3 виробляється на техпроцесі TSMC 3 нм з потужністю 2,52 PFLOPS FP8 на чип та 144 ГБ HBM3e. Повний UltraServer (144 чипи) забезпечує 362 PFLOPS. Anthropic, Decart та Amazon Bedrock виконують виробничі навантаження....

Trainium3 від Amazon кидає виклик у війні ШІ-чипів

Trainium3 від Amazon кидає виклик у війні ШІ-чипів

Оновлено 11 грудня 2025 року

Оновлення грудня 2025: Trainium3 виробляється на техпроцесі TSMC 3 нм з потужністю 2,52 PFLOPS FP8 на чип та 144 ГБ HBM3e. Повний UltraServer (144 чипи) забезпечує 362 PFLOPS. Anthropic, Decart та Amazon Bedrock виконують виробничі навантаження. Клієнти повідомляють про 50% зниження витрат порівняно з GPU-альтернативами. Анонсовано Trainium4 на кінець 2026 / початок 2027 року з підтримкою NVIDIA NVLink Fusion для гетерогенних кластерів.

AWS представила Trainium3 UltraServers на re:Invent 2025, і специфікації заслуговують на увагу. Побудований на 3 нм техпроцесі TSMC, кожен чип Trainium3 забезпечує 2,52 петафлопс обчислень FP8 зі 144 ГБ пам'яті HBM3e.¹ У масштабі повної конфігурації UltraServer зі 144 чипами клієнти отримують доступ до 362 петафлопс потужності обробки ШІ.

Ці цифри представляють покращення продуктивності у 4,4 рази порівняно з Trainium2 при 4-кратній енергоефективності.² Amazon стверджує, що клієнти вже досягають на 50% нижчих витрат на навчання та інференс порівняно з GPU-альтернативами.³ Anthropic, компанія-розробник Claude, виконує виробничі навантаження на новому кремнії. Війна ШІ-чипів між гіперскейлерами щойно загострилася.

Аргументи продуктивності

AWS розробила Trainium3, щоб кинути виклик домінуванню NVIDIA через економіку, а не через сиру продуктивність. Чип забезпечує у 5 разів більше токенів на мегават, ніж попередні покоління Trainium, атакуючи структуру витрат, яка робить масштабний ШІ непомірно дорогим.⁴

Пропускна здатність пам'яті досягає 4,9 терабайт на секунду — майже в 4 рази більше, ніж у попереднього покоління.⁵ Великі мовні моделі витрачають значну частину часу на переміщення даних між пам'яттю та обчислювальними блоками. Вища пропускна здатність безпосередньо перетворюється на швидший інференс та пропускну здатність навчання. AWS заявляє про 4-кратне зниження затримки навчання моделей порівняно з Trainium2.

Мережева архітектура вражаюче масштабується. NeuronSwitch-v1 забезпечує вдвічі більшу пропускну здатність всередині кожного UltraServer, тоді як мережа Neuron Fabric скорочує міжчипову комунікацію до менш ніж 10 мікросекунд.⁶ EC2 UltraClusters 3.0 з'єднують тисячі серверів, масштабуючись до 1 мільйона чипів Trainium3 в єдиному логічному кластері. Навчання передових моделей вимагає саме такого масштабу.

Підтвердження клієнтами

Доказ — у виробничих розгортаннях. Decart досягає 4-кратно швидшого інференсу для генеративного відео в реальному часі за половину вартості GPU.⁷ Karakuri, Metagenomi, NetoAI, Ricoh та Splash Music повідомляють про 50% зниження витрат на навчання та інференс. Amazon Bedrock вже обслуговує виробничий трафік на інфраструктурі Trainium3.

Присутність Anthropic у списку клієнтів має особливу вагу. Компанія працює на передньому краї можливостей ШІ, навчаючи моделі, які безпосередньо конкурують з OpenAI та Google. Вибір Anthropic Trainium3 для виробничих навантажень підтверджує готовність кремнію AWS для корпоративного використання в найвимогливіших ШІ-застосуваннях.

Перевага у витратах накопичується з часом. Навчальні прогони, які раніше вимагали місяців, тепер завершуються за тижні.⁸ Швидші цикли ітерацій прискорюють швидкість досліджень. Нижчі витрати на інференс дозволяють ширше розгортання. Організації, яким раніше не вистачало коштів на ШІ-експерименти, тепер можуть брати участь за нижчими цінами AWS.

Дорожня карта Trainium4 сигналізує про більші амбіції

AWS розкрила плани щодо Trainium4 разом із запуском Trainium3, націлюючись на доступність наприкінці 2026 або на початку 2027 року.⁹ Дорожня карта розкриває стратегічні амбіції, що виходять за межі поступового вдосконалення.

Trainium4 обіцяє 6-кратне покращення продуктивності завдяки нативній підтримці FP4, 2-кратний обсяг пам'яті приблизно до 288 ГБ та 4-кратне покращення пропускної здатності.¹⁰ Ці специфікації позиціонували б Trainium4 конкурентоспроможно проти того, що NVIDIA випустить у той самий період.

Що важливіше, Trainium4 підтримуватиме технологію інтерконекту NVIDIA NVLink Fusion поряд з UALink.¹¹ AWS прагне будувати гетерогенні кластери, що поєднують власні CPU Graviton з XPU Trainium, використовуючи високошвидкісний інтерконект NVIDIA. Цей крок є своєрідним перемир'ям: AWS конкурує з NVIDIA в акселераторах, водночас інтегруючи стандарти з'єднання NVIDIA.

Підтримка NVLink свідчить про те, що AWS купує достатньо GPU NVIDIA, щоб домовитися про спеціальні умови. NVIDIA зазвичай обмежує NVLink власними акселераторами. Надання AWS доступу вказує на прагматичні відносини, де конкуренція та співпраця співіснують. AWS залишається найбільшим хмарним клієнтом NVIDIA навіть при розробці конкурентного кремнію.

Що конкуренція означає для підприємств

Запуск Trainium3 дає підприємствам реальні альтернативи для ШІ-інфраструктури. Домінування NVIDIA зберігається, але AWS тепер пропонує конкурентну продуктивність за нижчими витратами для клієнтів, готових оптимізувати під архітектуру Trainium.

Вимога оптимізації має значення. Екосистема CUDA від NVIDIA представляє десятиліття програмних інвестицій. Розробники знають CUDA. Фреймворки нативно підтримують CUDA. Перехід на Trainium вимагає впровадження Neuron SDK від AWS і потенційного переписування критичного для продуктивності коду. Переваги в продуктивності та витратах мають виправдовувати ці зусилля з міграції.

Для інференс-навантажень розрахунок часто на користь Trainium. Інференс виконує стандартизовані моделі повторно з передбачуваними шаблонами доступу до пам'яті. Оптимізація інференс-коду для Trainium забезпечує стійку економію витрат, яка накопичується з масштабом. Організації, що виконують мільйони інференс-запитів щодня, можуть досягти значної економії, перейшовши на кремній AWS.

Навчання представляє складніше рішення. Навчання передових моделей вимагає найсучаснішого обладнання, усталених інструментів та перевіреної надійності. Послужний список NVIDIA та екосистема забезпечують впевненість, що GPU-кластери успішно завершать навчальні прогони. Відносна новизна Trainium вносить ризик, якого підприємства можуть прагнути уникнути для критичних навчальних завдань.

Ширші наслідки

Інвестиції Amazon у ШІ-кремній відображають стратегічний імператив: зменшити залежність від єдиного постачальника. Ринкова влада NVIDIA дозволяє преміальне ціноутворення. Кожен гіперскейлер, що платить цю премію, фінансує бюджет R&D NVIDIA, зміцнюючи конкурента. Розробка альтернативного кремнію розриває цю динаміку, навіть якщо Trainium ніколи повністю не витіснить GPU NVIDIA.

Google переслідує ту саму стратегію з TPU. Microsoft співпрацює з AMD, водночас, за повідомленнями, розробляючи власні акселератори. Гіперскейлери колективно володіють ресурсами, масштабом та мотивацією кинути виклик позиції NVIDIA. Trainium3 представляє останній хід Amazon у цій довгій грі.

Для ширшої ШІ-екосистеми конкуренція приносить користь усім. NVIDIA стикається з тиском покращувати співвідношення ціна-продуктивність. Клієнти отримують альтернативи та переговорну позицію. Інновації в кремнії прискорюються, оскільки кілька добре фінансованих конкурентів змагаються за лідерство. Ринок ШІ-чипів еволюціонує від монополії до здорової конкуренції.

Trainium3 сам по собі не скине NVIDIA з трону. Але в поєднанні з TPU від Google, серією MI від AMD та новими альтернативами від Intel і стартапів конкурентний тиск посилюється. Ров NVIDIA залишається грізним. Претенденти продовжують копати незважаючи ні на що.

Ключові висновки

Для архітекторів інфраструктури: - Trainium3 забезпечує 2,52 петафлопс FP8 на чип зі 144 ГБ HBM3e; повний UltraServer (144 чипи) надає 362 петафлопс - Продуктивність: покращення у 4,4 рази порівняно з Trainium2, 4-кратна енергоефективність, у 5 разів більше токенів на мегават - Пропускна здатність пам'яті досягає 4,9 ТБ/с (майже в 4 рази більше); міжчипова комунікація менше 10 мікросекунд через Neuron Fabric

Для команд оптимізації витрат: - AWS заявляє про 50% нижчі витрати на навчання та інференс порівняно з GPU-альтернативами; підтверджено виробничими навантаженнями Anthropic - Інференс-навантаження на користь Trainium: стандартизовані моделі з передбачуваним доступом до пам'яті; економія накопичується з масштабом - Компроміс: вимагає впровадження Neuron SDK та потенційного переписування коду; зусилля з міграції мають виправдовувати економію

Для команд закупівель: - EC2 UltraClusters 3.0 масштабуються до 1 мільйона чипів Trainium3 в єдиному логічному кластері; досягнуто масштабу навчання передових моделей - Підтвердження клієнтами: Anthropic, Decart (4-кратно швидший інференс), Karakuri, Metagenomi, NetoAI, Ricoh, Splash Music — усі повідомляють про 50% зниження витрат - Складність навчання на користь NVIDIA для організацій, що уникають ризику; відносна новизна Trainium вносить невизначеність виконання

Для стратегічного планування: - Дорожня карта Trainium4 (кінець 2026 / початок 2027): 6-кратна продуктивність через FP4, 2-кратна пам'ять (~288 ГБ), 4-кратна пропускна здатність, підтримка NVLink Fusion - AWS конкурує з NVIDIA в кремнії, водночас інтегруючи інтерконект NVLink від NVIDIA; перемир'я дозволяє гетерогенні кластери - Стратегія гіперскейлерів щодо кремнію: зменшити залежність від єдиного постачальника; кожна сплачена премія фінансує R&D NVIDIA, зміцнюючи конкурента

Для ширшої екосистеми: - Конкуренція приносить користь усім: NVIDIA стикається з ціновим тиском, клієнти отримують альтернативи та важелі впливу, інновації прискорюються - Комбінований тиск від Google TPU, AMD серії MI, Intel та стартапів посилюється; ров NVIDIA грізний, але руйнується - AWS залишається найбільшим хмарним клієнтом NVIDIA навіть при розробці конкурентного кремнію; коопетиція визначає ринок


Посилання

  1. Amazon. "Trainium3 UltraServers now available: Enabling customers to train and deploy AI models faster at lower cost." About Amazon, December 2, 2025. https://www.aboutamazon.com/news/aws/trainium-3-ultraserver-faster-ai-training-lower-cost

  2. Amazon. "Trainium3 UltraServers now available."

  3. Amazon. "Trainium3 UltraServers now available."

  4. The Next Platform. "With Trainium4, AWS Will Crank Up Everything But The Clocks." December 3, 2025. https://www.nextplatform.com/2025/12/03/with-trainium4-aws-will-crank-up-everything-but-the-clocks/

  5. Amazon. "Trainium3 UltraServers now available."

  6. Amazon. "Trainium3 UltraServers now available."

  7. Amazon. "Trainium3 UltraServers now available."

  8. Amazon. "Trainium3 UltraServers now available."

  9. The Next Platform. "With Trainium4, AWS Will Crank Up Everything But The Clocks."

  10. The Next Platform. "With Trainium4, AWS Will Crank Up Everything But The Clocks."

  11. The Next Platform. "With Trainium4, AWS Will Crank Up Everything But The Clocks."


  • Alt 2: trainium3-vs-nvidia-gpu-enterprise-ai-costs

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ