การปฏิวัติ Transformer: วิธีที่ 'Attention Is All You Need' เปลี่ยนโฉม AI สมัยใหม่
บทความปี 2017 ที่มีชื่อว่า 'Attention Is All You Need' ได้จุดประกายการปฏิวัติ AI ผ่านสถาปัตยกรรม Transformer การแทนที่ RNN และ LSTM แบบลำดับด้วยกลไก self-attention ที่สามารถประมวลผลแบบขนานได้ ทำให้ Transformer สามารถฝึกฝนได้เร็วขึ้น ขยายขนาดได้ดีขึ้น และมีประสิทธิภาพที่เหนือกว่าใน introl การค้นพบครั้งนี้ได้วางรากฐาน
None