ثورة المُحوِّل: كيف غيّرت ورقة "الانتباه هو كل ما تحتاجه" الذكاء الاصطناعي الحديث
ورقة عام 2017 بعنوان 'Attention Is All You Need' أشعلت ثورة في الذكاء الاصطناعي من خلال معمارية Transformer الخاصة بها. من خلال استبدال شبكات RNN و LSTM التسلسلية بآليات الانتباه الذاتي القابلة للمعالجة المتوازية، مكّنت شبكات Transformer من التدريب الأسرع والتوسع الأفضل والأداء المتفوق في التحكم. هذا الاختراق وضع الأساس
None