Рекурсивні мовні моделі: Навчання ШІ керувати власним контекстом

Архітектура RLM MIT дозволяє моделям делегувати контекст суб-LLM та Python-скриптам. 100-кратне розширення контексту з 2-3-кратною ефективністю токенів. Prime Intellect прогнозує парадигму 2026.

Рекурсивні мовні моделі: Навчання ШІ керувати власним контекстом

Рекурсивні мовні моделі: Навчання ШІ керувати власним контекстом

Контекстні вікна значно розширилися: 100K, 200K, навіть 1 мільйон токенів.[^1] Проте фундаментальні обмеження залишаються. Лінійні витрати пам'яті, деградація уваги при екстремальних довжинах та неможливість повторно відвідати або реорганізувати інформацію після споживання — все це обмежує можливості моделей з довгим контекстом.[^2]

Рішення RLM

RLM перевертає парадигму з "модель отримує контекст" на "модель керує контекстом".[^14]

Основна архітектура

RLM надає три ключові можливості основній моделі:[^15]

Можливість Реалізація Призначення
Python REPL Постійне середовище Зберігання, трансформація, отримання даних
Суб-LLM Екземпляри через llm_batch() Делегування аналітичних завдань
Змінна Answer answer["content"] + answer["ready"] Ітеративне вдосконалення відповіді

Продуктивність на бенчмарках

CodeQA

Модель Підхід Точність
GPT-5 Базова 24.0%
GPT-5 Агент підсумків 41.3%
GPT-5 RLM 62.0%

Ключові висновки

Рекурсивні мовні моделі вводять зміну парадигми в обробці контексту:

  1. Активне керування контекстом: Моделі контролюють власний контекст замість пасивного отримання
  2. 100-кратне розширення: Обробка вхідних даних далеко за межами нативних контекстних вікон
  3. Збережена інформація: Немає втрати інформації на основі підсумків

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING