पुनरावर्ती भाषा मॉडल: AI को अपने संदर्भ का प्रबंधन सिखाना
संदर्भ विंडो नाटकीय रूप से विस्तारित हुई हैं: 100K, 200K, यहां तक कि 1 मिलियन टोकन।[^1] फिर भी, मूलभूत सीमाएं बनी हुई हैं। रैखिक मेमोरी लागत, अत्यधिक लंबाई पर ध्यान में गिरावट, और एक बार उपभोग की गई जानकारी को पुनः देखने या पुनर्गठित करने में असमर्थता सभी लंबे संदर्भ मॉडल को सीमित करते हैं।[^2]
RLM समाधान
RLM "मॉडल संदर्भ प्राप्त करता है" से "मॉडल संदर्भ प्रबंधित करता है" में प्रतिमान को पलट देता है।[^14]
मुख्य वास्तुकला
RLM मुख्य मॉडल को तीन प्रमुख क्षमताएं प्रदान करता है:[^15]
| क्षमता | कार्यान्वयन | उद्देश्य |
|---|---|---|
| Python REPL | स्थायी वातावरण | डेटा संग्रहीत, रूपांतरित, पुनर्प्राप्त करें |
| उप-LLM | llm_batch() के माध्यम से उत्पन्न उदाहरण |
विश्लेषण कार्य सौंपें |
| Answer चर | answer["content"] + answer["ready"] |
पुनरावृत्त प्रतिक्रिया परिशोधन |
बेंचमार्क प्रदर्शन
CodeQA (दस्तावेज़ प्रश्नोत्तर)
| मॉडल | दृष्टिकोण | सटीकता |
|---|---|---|
| GPT-5 | बेसलाइन | 24.0% |
| GPT-5 | सारांश एजेंट | 41.3% |
| GPT-5 | RLM | 62.0% |
मुख्य बिंदु
पुनरावर्ती भाषा मॉडल संदर्भ प्रबंधन में एक प्रतिमान बदलाव पेश करते हैं:
- सक्रिय संदर्भ प्रबंधन: मॉडल निष्क्रिय रूप से प्राप्त करने के बजाय अपने संदर्भ को नियंत्रित करते हैं
- 100x विस्तार: मूल संदर्भ विंडो से बहुत आगे के इनपुट को संभालें
- संरक्षित जानकारी: कोई सारांश-आधारित जानकारी हानि नहीं
- टोकन दक्षता: मुख्य मॉडल टोकन खपत में 2-3x कमी