โครงสร้างพื้นฐาน Mixture of Experts: การขยายขนาด Sparse Models สำหรับ AI ระดับ Production
MoE ขับเคลื่อนมากกว่า 60% ของ AI models แบบ open-source ที่เปิดตัวในปี 2025 โมเดล 10 อันดับแรกบน Artificial Analysis leaderboard (DeepSeek-R1, Kimi K2, Mistral Large 3) ล้วนใช้ MoE ทั้งหมด NVIDIA GB200 NVL72 ให้ประสิทธิภาพเพิ่มขึ้น 10 เท่าสำหรับ MoE เมื่อเทียบกับ H200...
None