โมเดลภาษาแบบเรียกซ้ำ: สอน AI ให้จัดการบริบทของตัวเอง

สถาปัตยกรรม RLM ของ MIT ช่วยให้โมเดลมอบหมายบริบทให้ sub-LLM และสคริปต์ Python ขยายบริบท 100 เท่าพร้อมประสิทธิภาพโทเค็น 2-3 เท่า Prime Intellect ทำนายพาราไดม์ 2026

โมเดลภาษาแบบเรียกซ้ำ: สอน AI ให้จัดการบริบทของตัวเอง

โมเดลภาษาแบบเรียกซ้ำ: สอน AI ให้จัดการบริบทของตัวเอง

หน้าต่างบริบทได้ขยายอย่างมาก: 100K, 200K, แม้แต่ 1 ล้านโทเค็น[^1] อย่างไรก็ตาม ข้อจำกัดพื้นฐานยังคงอยู่ ต้นทุนหน่วยความจำเชิงเส้น การเสื่อมสลายของ attention ที่ความยาวสุดขั้ว และไม่สามารถเยี่ยมชมหรือจัดระเบียบข้อมูลใหม่ได้เมื่อบริโภคแล้ว ล้วนจำกัดสิ่งที่โมเดลบริบทยาวสามารถทำได้[^2]

โซลูชัน RLM

RLM พลิกพาราไดม์จาก "โมเดลรับบริบท" เป็น "โมเดลจัดการบริบท"[^14]

สถาปัตยกรรมหลัก

RLM ให้ความสามารถหลักสามประการแก่โมเดลหลัก:[^15]

ความสามารถ การใช้งาน วัตถุประสงค์
Python REPL สภาพแวดล้อมถาวร จัดเก็บ แปลง ดึงข้อมูล
Sub-LLM อินสแตนซ์ที่สร้างได้ผ่าน llm_batch() มอบหมายงานวิเคราะห์
ตัวแปร Answer answer["content"] + answer["ready"] การปรับปรุงคำตอบแบบวนซ้ำ

ประสิทธิภาพ Benchmark

CodeQA

โมเดล แนวทาง ความแม่นยำ
GPT-5 Baseline 24.0%
GPT-5 Agent สรุป 41.3%
GPT-5 RLM 62.0%

ประเด็นสำคัญ

โมเดลภาษาแบบเรียกซ้ำแนะนำการเปลี่ยนแปลงพาราไดม์ในการจัดการบริบท:

  1. การจัดการบริบทแบบแอคทีฟ: โมเดลควบคุมบริบทของตัวเองแทนที่จะรับแบบพาสซีฟ
  2. ขยาย 100x: จัดการอินพุตที่เกินหน้าต่างบริบทเดิมมาก
  3. ข้อมูลที่เก็บรักษา: ไม่มีการสูญเสียข้อมูลจากการสรุป

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING