पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

MIT का RLM आर्किटेक्चर मॉडल को उप-LLM और Python स्क्रिप्ट को संदर्भ सौंपने की अनुमति देता है। 2-3x टोकन दक्षता के साथ 100x संदर्भ विस्तार। Prime Intellect 2026 के प्रतिमान की भविष्यवाणी करता है।

पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

संदर्भ विंडो नाटकीय रूप से विस्तारित हुई हैं: 100K, 200K, यहां तक कि 1 मिलियन टोकन।[^1] फिर भी, मूलभूत सीमाएं बनी हुई हैं। रैखिक मेमोरी लागत, अत्यधिक लंबाई पर ध्यान में गिरावट, और एक बार उपभोग की गई जानकारी को पुनः देखने या पुनर्गठित करने में असमर्थता सभी लंबे संदर्भ मॉडल को सीमित करते हैं।[^2]

RLM समाधान

RLM "मॉडल संदर्भ प्राप्त करता है" से "मॉडल संदर्भ प्रबंधित करता है" में प्रतिमान को पलट देता है।[^14]

मुख्य वास्तुकला

RLM मुख्य मॉडल को तीन प्रमुख क्षमताएं प्रदान करता है:[^15]

क्षमता कार्यान्वयन उद्देश्य
Python REPL स्थायी वातावरण डेटा संग्रहीत, रूपांतरित, पुनर्प्राप्त करें
उप-LLM llm_batch() के माध्यम से उत्पन्न उदाहरण विश्लेषण कार्य सौंपें
Answer चर answer["content"] + answer["ready"] पुनरावृत्त प्रतिक्रिया परिशोधन

बेंचमार्क प्रदर्शन

CodeQA (दस्तावेज़ प्रश्नोत्तर)

मॉडल दृष्टिकोण सटीकता
GPT-5 बेसलाइन 24.0%
GPT-5 सारांश एजेंट 41.3%
GPT-5 RLM 62.0%

मुख्य बिंदु

पुनरावर्ती भाषा मॉडल संदर्भ प्रबंधन में एक प्रतिमान बदलाव पेश करते हैं:

  1. सक्रिय संदर्भ प्रबंधन: मॉडल निष्क्रिय रूप से प्राप्त करने के बजाय अपने संदर्भ को नियंत्रित करते हैं
  2. 100x विस्तार: मूल संदर्भ विंडो से बहुत आगे के इनपुट को संभालें
  3. संरक्षित जानकारी: कोई सारांश-आधारित जानकारी हानि नहीं
  4. टोकन दक्षता: मुख्य मॉडल टोकन खपत में 2-3x कमी

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING