DeepSeek V3.2 досягає золотого рівня IMO: китайський ШІ зрівнявся з передовою продуктивністю

DeepSeek випустила V3.2 та V3.2-Speciale 1 грудня 2025 року. Варіант Speciale набрав 35/42 на еталонних задачах IMO 2025, зрівнявшись з рівнем міркувань Gemini 3 Pro при на 70% нижчій вартості інференсу.

DeepSeek V3.2 досягає золотого рівня IMO: китайський ШІ зрівнявся з передовою продуктивністю

DeepSeek V3.2 досягає золотого рівня IMO: китайський ШІ зрівнявся з передовою продуктивністю

11 грудня 2025

Оновлення грудня 2025: DeepSeek випустила V3.2 та V3.2-Speciale 1 грудня 2025 року. Варіант Speciale набрав 35/42 на еталонних задачах IMO 2025, зрівнявшись з рівнем міркувань Gemini 3 Pro при на 70% нижчій вартості інференсу.


DeepSeek випустила дві моделі 1 грудня 2025 року: DeepSeek-V3.2 та DeepSeek-V3.2-Speciale.1 Варіант Speciale набрав 35 з 42 балів на еталонних задачах IMO 2025, отримавши статус, еквівалентний золотій медалі, та продемонструвавши здатність до математичних міркувань на рівні найкращих світових систем ШІ.2

Експортні обмеження США обмежують доступ DeepSeek до найсучасніших GPU NVIDIA. Попри ці обмеження, компанія продовжує створювати моделі, які конкурують або перевершують західні альтернативи за значно нижчою вартістю.3 Випуск підтверджує китайський підхід до розвитку ШІ, орієнтований на ефективність.

Технічні характеристики

Обидві моделі V3.2 мають 685 мільярдів загальних параметрів з відкритими вагами під ліцензією MIT.4 Повні ваги моделі вимагають приблизно 690 ГБ сховища. Для запуску моделі потрібно:

  • Розгортання з кількома GPU: 8x H100 80GB GPU з тензорним паралелізмом
  • Квантований інференс: Квантування INT4 зменшує вимоги до 4x A100 80GB
  • Хмарні API: DeepSeek пропонує хостинговий інференс за $0.70/M токенів

Моделі підтримують вікна контексту 128 000 токенів, що дозволяє аналізувати довгі документи, кодові бази та дослідницькі роботи в одному запиті.

V3.2-Speciale вводить інтегровані міркування в межах використання інструментів. Модель підтримує режими "мислення" та "не-мислення" для викликів інструментів, що дозволяє їй міркувати через багатокрокові агентні робочі процеси перед виконанням дій.5 Наприклад, при запиті до бази даних Speciale може міркувати про оптимізацію запитів та інтерпретацію результатів в межах одного ланцюга інференсу замість того, щоб вимагати кількох викликів API.

Процес навчання використовував конвеєр генерації синтетичних даних, що охоплює понад 1800 середовищ та понад 85 000 складних інструкцій.6 Синтетичні дані зменшують залежність від дорогої людської анотації, водночас дозволяючи навчання на сценаріях, які важко зібрати органічно.

Продуктивність на бенчмарках

DeepSeek-V3.2-Speciale досягла результатів золотого рівня на кількох змагальних бенчмарках:7

Бенчмарк Результат Контекст
Задачі IMO 2025 35/42 балів Поріг золотої медалі
Китайська математична олімпіада Золотий рівень Категорія найкращих
Задачі IOI 2025 492/600 балів Золото, еквівалент 10-го місця
Terminal Bench 2.0 46.4% Перевершує GPT-5-High (35.2%)

Результат Terminal Bench 2.0 вимірює складні робочі процеси кодування, включаючи рефакторинг багатьох файлів, налагодження та генерацію тестів.8 DeepSeek перевершила GPT-5-High на 11 відсоткових пунктів у практичних завданнях програмної інженерії.

Примітка: Ці оцінки відображають еталонні задачі у стилі офіційних змагань, а не продуктивність на реальних змагальних подіях 2025 року.

Економіка витрат

Ціноутворення DeepSeek V3.2 представляє 70% зниження порівняно з попередньою моделлю V3.1-Terminus:9

Модель Вхідні токени Вихідні токени
DeepSeek V3.2 $0.14/M $0.70/M
V3.1-Terminus (попередня) $0.48/M $2.40/M

Для порівняння, поточні ціни західних провайдерів:10

Провайдер Вхід Вихід
Claude Sonnet 4 $3.00/M $15.00/M
GPT-4.5 $2.50/M $10.00/M
Gemini 3 Pro $1.25/M $5.00/M
DeepSeek V3.2 $0.14/M $0.70/M

Організація, що обробляє 10 мільярдів вихідних токенів щомісяця, витрачатиме приблизно 7 мільйонів доларів на рік з DeepSeek проти 50-150 мільйонів доларів із західними альтернативами.11 Розрив у витратах збільшується для робочих навантажень з високим обсягом виводу, таких як генерація коду та довгий контент.

Наслідки для інфраструктури

DeepSeek навчала V3.2 на GPU H800, китайському варіанті зі зниженою пропускною здатністю пам'яті (2.0 ТБ/с проти 3.35 ТБ/с для H100).12 Це досягнення демонструє, що програмна оптимізація може компенсувати апаратні обмеження.

Ключові техніки ефективності:13

Архітектура Mixture-of-Experts (MoE): Лише 37 мільярдів параметрів активуються на кожен запит інференсу, незважаючи на 685 мільярдів загальних параметрів. MoE зменшує обчислення приблизно на 30% порівняно з еквівалентними щільними моделями.

Multi-head Latent Attention (MLA): Стискає вимоги до кешу ключ-значення, зменшуючи вузькі місця пропускної здатності пам'яті на обладнанні H800 з обмеженою пропускною здатністю.

Навчання змішаної точності FP8: Зменшує вимоги до пам'яті та прискорює навчання на GPU архітектури Hopper.

Організації, що оцінюють інфраструктуру ШІ, повинні визнати, що успіх DeepSeek кидає виклик припущенням про вимоги до обчислень для передових можливостей. Програмна оптимізація може забезпечити кращу рентабельність інвестицій, ніж просте накопичення GPU для багатьох робочих навантажень.14

Корпоративне розгортання

AWS, Azure та Google Cloud усі пропонують розгортання моделей DeepSeek, підтверджуючи надійність корпоративного рівня.15 Доступність у гіперскейлерів усуває тертя розгортання, яке інакше могло б обмежити впровадження моделей китайського походження.

Організації, що розглядають розгортання DeepSeek, повинні оцінити:

  • Суверенітет даних: Ваги моделі відкриті, але використання API маршрутизує дані через інфраструктуру DeepSeek
  • Вимоги відповідності: Деякі регульовані галузі можуть обмежувати використання китайських моделей
  • Характеристики продуктивності: DeepSeek відмінно справляється з міркуваннями та кодуванням, але може поступатися в творчих або нюансованих завданнях

Конкурентний ландшафт

Випуск V3.2 відбувся за тиждень до того, як адміністрація Трампа оголосила про послаблення експортних обмежень H200.16 Час підкреслює політичний парадокс: експортний контроль, призначений сповільнити розвиток китайського ШІ, можливо, прискорив інновації, змусивши покращити ефективність.

Китайські моделі з відкритим кодом зросли з 1.2% глобального використання наприкінці 2024 року до майже 30% у 2025 році.17 Цей зсув представляє як технологічне досягнення, так і ринковий зрив для американських компаній, які припускали, що регуляторні бар'єри захистять конкурентні переваги.

Західні компанії ШІ стикаються з тиском зрівнятися з ефективністю DeepSeek або обґрунтувати преміальні ціни через вищі можливості. Кластер випусків листопада 2025 року (GPT-5.1, Claude Opus 4.5, Gemini 3 Pro, Grok 4.1) продемонстрував продовження передового прогресу, але за значно вищими цінами.18

Claude Opus 4.5 лідирує в бенчмарках кодування з 72.5% продуктивністю SWE-bench, тоді як Gemini 3 Pro досяг найвищого за всю історію рейтингу LMArena Elo 1501.19 Західні моделі зберігають переваги в конкретних можливостях, навіть коли DeepSeek закриває загальну прогалину.


Ключові висновки

Для ML-інженерів: - V3.2-Speciale досягає золотого рівня IMO (35/42 на еталонних задачах) - 685B параметрів, 128K контекст, відкриті ваги з ліцензією MIT - Вимагає 8x H100 80GB або квантоване розгортання на 4x A100 80GB

Для планувальників інфраструктури: - Китайські моделі демонструють передові можливості на обладнанні з експортними обмеженнями (H800) - Програмна оптимізація (MoE, MLA, FP8) компенсує апаратні обмеження - Розгляньте гібридні розгортання: західні моделі для максимальних можливостей, DeepSeek для оптимізації витрат

Для стратегічного планування: - Китайські моделі з відкритим кодом досягли 30% глобального використання у 2025 році - Доступність у гіперскейлерів (AWS, Azure, GCP) підтверджує корпоративне розгортання - Експортний контроль міг прискорити, а не запобігти прогресу китайського ШІ


Посилання


Для підтримки розгортання інфраструктури ШІ зверніться до Introl.


  1. DeepSeek API Docs. "DeepSeek-V3.2 Release Notes." 1 грудня 2025. 

  2. UNU Campus Computing Centre. "Inside DeepSeek End-of-Year AI Breakthrough." Грудень 2025. 

  3. Bloomberg. "DeepSeek Debuts New AI Models to Rival Google and OpenAI." 1 грудня 2025. 

  4. Simon Willison. "DeepSeek-V3.2 Technical Analysis." 1 грудня 2025. 

  5. DeepSeek API Docs. "V3.2 Tool Use with Thinking Mode." Грудень 2025. 

  6. Semiconductor Engineering. "DeepSeek New AI Models: V3.2 and V3.2-Speciale." Грудень 2025. 

  7. WinBuzzer. "New DeepSeek V3.2 Speciale Model Claims Reasoning Parity with Gemini 3 Pro." 1 грудня 2025. 

  8. VentureBeat. "DeepSeek drops two AI models that rival GPT-5 on coding benchmarks." Грудень 2025. 

  9. DeepSeek API Docs. "Pricing: V3.2 vs V3.1-Terminus." Грудень 2025. 

  10. Artificial Analysis. "LLM Pricing Comparison December 2025." Грудень 2025. 

  11. Sebastian Raschka. "A Technical Tour of the DeepSeek Models from V3 to V3.2." Грудень 2025. 

  12. DEV Community. "DeepSeek-V3.2 Complete Technical Analysis." Грудень 2025. 

  13. DeepSeek. "V3.2 Technical Report: Architecture and Training." Грудень 2025. 

  14. CSIS. "Chinese AI Efficiency and Infrastructure Economics." Грудень 2025. 

  15. AWS, Azure, Google Cloud. "DeepSeek Model Availability." Грудень 2025. 

  16. Semafor. "Trump allows H200 exports to China with 25% surcharge." 8 грудня 2025. 

  17. Stanford HAI. "2025 AI Index Report." 2025. 

  18. Shakudo. "Top 9 Large Language Models as of December 2025." Грудень 2025. 

  19. OverChat. "Best AI Models 2025: Claude, Gemini, GPT Compared." Грудень 2025. 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING