Mô hình Ngôn ngữ Đệ quy: Dạy AI Quản lý Ngữ cảnh của Chính mình

Kiến trúc RLM của MIT cho phép mô hình ủy quyền ngữ cảnh cho các sub-LLM và script Python. Mở rộng ngữ cảnh 100 lần với hiệu quả token 2-3 lần. Prime Intellect dự đoán mô hình năm 2026.

Mô hình Ngôn ngữ Đệ quy: Dạy AI Quản lý Ngữ cảnh của Chính mình

Mô hình Ngôn ngữ Đệ quy: Dạy AI Quản lý Ngữ cảnh của Chính mình

Cửa sổ ngữ cảnh đã mở rộng đáng kể: 100K, 200K, thậm chí 1 triệu token.[^1] Tuy nhiên, các giới hạn cơ bản vẫn tồn tại. Chi phí bộ nhớ tuyến tính, sự suy giảm attention ở độ dài cực đoan, và không thể xem lại hoặc tổ chức lại thông tin đã tiêu thụ đều hạn chế những gì mô hình ngữ cảnh dài có thể đạt được.[^2]

Giải pháp RLM

RLM đảo ngược mô hình từ "mô hình nhận ngữ cảnh" thành "mô hình quản lý ngữ cảnh".[^14]

Kiến trúc Cốt lõi

RLM cung cấp ba khả năng chính cho mô hình chính:[^15]

Khả năng Triển khai Mục đích
Python REPL Môi trường bền vững Lưu trữ, chuyển đổi, truy xuất dữ liệu
Sub-LLM Các instance có thể spawn qua llm_batch() Ủy quyền nhiệm vụ phân tích
Biến Answer answer["content"] + answer["ready"] Tinh chỉnh phản hồi lặp

Hiệu suất Benchmark

CodeQA

Mô hình Cách tiếp cận Độ chính xác
GPT-5 Baseline 24.0%
GPT-5 Agent tóm tắt 41.3%
GPT-5 RLM 62.0%

Điểm Chính

Mô hình Ngôn ngữ Đệ quy giới thiệu sự thay đổi mô hình trong xử lý ngữ cảnh:

  1. Quản lý Ngữ cảnh Chủ động: Mô hình kiểm soát ngữ cảnh của chính mình thay vì nhận thụ động
  2. Mở rộng 100x: Xử lý đầu vào vượt xa cửa sổ ngữ cảnh gốc
  3. Thông tin được Bảo tồn: Không mất thông tin dựa trên tóm tắt

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING