पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

MIT का RLM आर्किटेक्चर मॉडल को उप-LLM और Python स्क्रिप्ट को संदर्भ सौंपने की अनुमति देता है। 2-3x टोकन दक्षता के साथ 100x संदर्भ विस्तार। Prime Intellect 2026 के प्रतिमान की भविष्यवाणी करता है।

पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना

संदर्भ विंडो नाटकीय रूप से विस्तारित हुई हैं: 100K, 200K, यहां तक कि 1 मिलियन टोकन।[^1] फिर भी, मूलभूत सीमाएं बनी हुई हैं। रैखिक मेमोरी लागत, अत्यधिक लंबाई पर ध्यान में गिरावट, और एक बार उपभोग की गई जानकारी को पुनः देखने या पुनर्गठित करने में असमर्थता सभी लंबे संदर्भ मॉडल को सीमित करते हैं।[^2]

RLM समाधान

RLM "मॉडल संदर्भ प्राप्त करता है" से "मॉडल संदर्भ प्रबंधित करता है" में प्रतिमान को पलट देता है।[^14]

मुख्य वास्तुकला

RLM मुख्य मॉडल को तीन प्रमुख क्षमताएं प्रदान करता है:[^15]

क्षमता कार्यान्वयन उद्देश्य
Python REPL स्थायी वातावरण डेटा संग्रहीत, रूपांतरित, पुनर्प्राप्त करें
उप-LLM llm_batch() के माध्यम से उत्पन्न उदाहरण विश्लेषण कार्य सौंपें
Answer चर answer["content"] + answer["ready"] पुनरावृत्त प्रतिक्रिया परिशोधन

बेंचमार्क प्रदर्शन

CodeQA (दस्तावेज़ प्रश्नोत्तर)

मॉडल दृष्टिकोण सटीकता
GPT-5 बेसलाइन 24.0%
GPT-5 सारांश एजेंट 41.3%
GPT-5 RLM 62.0%

मुख्य बिंदु

पुनरावर्ती भाषा मॉडल संदर्भ प्रबंधन में एक प्रतिमान बदलाव पेश करते हैं:

  1. सक्रिय संदर्भ प्रबंधन: मॉडल निष्क्रिय रूप से प्राप्त करने के बजाय अपने संदर्भ को नियंत्रित करते हैं
  2. 100x विस्तार: मूल संदर्भ विंडो से बहुत आगे के इनपुट को संभालें
  3. संरक्षित जानकारी: कोई सारांश-आधारित जानकारी हानि नहीं
  4. टोकन दक्षता: मुख्य मॉडल टोकन खपत में 2-3x कमी

कोटेशन का अनुरोध करें_

अपने प्रोजेक्ट के बारे में बताएं और हम 72 घंटों के भीतर जवाب देंगे।

> TRANSMISSION_COMPLETE

अनुरोध प्राप्त हुआ_

आपकी पूछताछ के लिए धन्यवाद। हमारी टीम आपके अनुरोध की समीक्षा करेगी और 72 घंटों के भीतर उत्तर देगी।

QUEUED FOR PROCESSING