CoreWeave Deep Dive: จากนักขุดคริปโตสู่ผู้ให้บริการคลาวด์ที่ขาดไม่ได้ของ AI
อัปเดตล่าสุด 8 ธันวาคม 2025
อัปเดตธันวาคม 2025: CoreWeave เข้าจดทะเบียนในตลาดหลักทรัพย์ด้วยมูลค่า IPO 1,500 ล้านดอลลาร์ในเดือนมีนาคม 2025 ถือเป็น IPO บริษัทเทคโนโลยีรายใหญ่ครั้งแรกนับตั้งแต่ปี 2021 รายได้เติบโต 737% สู่ 1,920 ล้านดอลลาร์ในปี 2024 OpenAI ลงนามสัญญามูลค่ารวม 22,400 ล้านดอลลาร์ ขณะที่ Meta ลงนามข้อตกลงมูลค่า 14,200 ล้านดอลลาร์ ปัจจุบันมี GPU มากกว่า 250,000 ตัวกระจายอยู่ในศูนย์ข้อมูลมากกว่า 32 แห่ง เป็นรายแรกที่นำ GB200 NVL72 (กุมภาพันธ์ 2025) และ GB300 NVL72 (กรกฎาคม 2025) ออกให้บริการเชิงพาณิชย์ การลงทุนขยายตลาดยุโรปมีมูลค่าถึง 3,500 ล้านดอลลาร์ สัดส่วนลูกค้าดีขึ้นเมื่อ Microsoft ลดลงต่ำกว่า 50% ของรายได้ในอนาคต
OpenAI สามารถเลือก AWS, Azure หรือ Google Cloud สำหรับการขยายโครงสร้างพื้นฐานในระยะถัดไปได้ แต่กลับลงนามสัญญามูลค่า 12,000 ล้านดอลลาร์กับ CoreWeave ในเดือนมีนาคม 2025 ตามด้วยข้อตกลงเพิ่มเติมอีก 10,500 ล้านดอลลาร์ในเดือนกันยายน รวมเป็นมูลค่าทั้งหมด 22,400 ล้านดอลลาร์ในระยะเวลา 5 ปี¹ Meta ตามมาด้วยข้อผูกพันด้านโครงสร้างพื้นฐานมูลค่า 14,200 ล้านดอลลาร์จนถึงปี 2031² CoreWeave เปลี่ยนจากบริษัทขุด cryptocurrency ที่มีพนักงานเพียง 3 คนในปี 2017 มาเป็นผู้ให้บริการ GPU cloud มูลค่า 23,000 ล้านดอลลาร์ที่รองรับงาน AI ที่ต้องการทรัพยากรมากที่สุดในโลก การเติบโตของบริษัทเผยให้เห็นทั้งความต้องการโครงสร้างพื้นฐานของ AI สมัยใหม่และการตัดสินใจด้านสถาปัตยกรรมที่ hyperscaler ยากจะเลียนแบบได้
จากการขุด Ethereum สู่โครงสร้างพื้นฐาน AI
เรื่องราวจุดกำเนิดของ CoreWeave เริ่มต้นในสำนักงานที่ New Jersey ที่ผู้ก่อตั้ง Michael Intrator, Brian Venturo และ Brannin McBee ประกอบเครื่องขุด GPU สำหรับ Ethereum ช่วงบูม cryptocurrency สอนบทเรียนสำคัญเกี่ยวกับเศรษฐศาสตร์ของ GPU การจัดการความร้อน และการติดตั้งความหนาแน่นสูง ซึ่งต่อมาพิสูจน์แล้วว่าจำเป็นสำหรับงาน AI เมื่อ Ethereum เปลี่ยนไปใช้ proof-of-stake ในปี 2022 ทำให้ไม่จำเป็นต้องขุดด้วย GPU อีกต่อไป CoreWeave จึงหันมาทำ cloud computing พอดีกับช่วงที่ generative AI ถือกำเนิด
จังหวะนั้นพิเศษมาก ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 จุดประกายความต้องการ GPU compute อย่างที่ไม่เคยมีมาก่อน ซึ่ง hyperscaler ไม่สามารถตอบสนองได้ สินค้าคงคลัง GPU ที่มีอยู่และความสัมพันธ์ด้านการจัดหาของ CoreWeave ทำให้บริษัทสามารถรองรับความต้องการที่ AWS, Azure และ Google Cloud ไม่สามารถตอบสนองได้ NVIDIA เผชิญกับการตัดสินใจจัดสรร GPU ท่ามกลางการขาดแคลน จึงส่งสินค้าไปยัง CoreWeave แทน hyperscaler ที่กำลังพัฒนาชิป AI แข่งขัน³
การลงทุนมูลค่า 250 ล้านดอลลาร์ของ NVIDIA และการจัดสรรสิทธิพิเศษอย่างต่อเนื่องสร้างความสัมพันธ์แบบพึ่งพาอาศัยกันที่เป็นประโยชน์ต่อทั้งสองบริษัท CoreWeave เป็นลูกค้า GPU cloud รายใหญ่ที่สุดของ NVIDIA ที่ไม่ได้พัฒนา silicon แข่งขัน ทำให้ความร่วมมือนี้มีคุณค่าเชิงกลยุทธ์นอกเหนือจากเงื่อนไขทางการเงิน ข้อตกลงนี้ทำให้ CoreWeave สามารถรักษาแหล่งจัดหา GPU ได้ในช่วงที่ขาดแคลน ซึ่งแม้แต่ Microsoft และ Google ก็ยังดิ้นรนเพื่อให้ได้รับการจัดสรร
การเติบโตของรายได้สะท้อนแนวโน้มความต้องการ: 16 ล้านดอลลาร์ในปี 2022 เพิ่มเป็น 229 ล้านดอลลาร์ในปี 2023 และ 1,920 ล้านดอลลาร์ในปี 2024 เพิ่มขึ้น 737% ในปีเดียว⁴ การ IPO ในเดือนมีนาคม 2025 ระดมทุนได้ 1,500 ล้านดอลลาร์ด้วยมูลค่าตลาดเกือบ 35,000 ล้านดอลลาร์ ทำให้ CoreWeave เป็น IPO บริษัทเทคโนโลยีรายใหญ่ครั้งแรกนับตั้งแต่ตลาดคึกคักในปี 2021
ข้อได้เปรียบของ bare-metal
สถาปัตยกรรมทางเทคนิคของ CoreWeave แตกต่างจากแนวทางของ hyperscaler อย่างสิ้นเชิง ผู้ให้บริการคลาวด์แบบดั้งเดิม virtualize ทรัพยากร GPU โดยเพิ่มชั้น hypervisor ที่ทำให้เกิด latency และลดความจุ compute ที่ใช้ได้จริง CoreWeave รัน Kubernetes โดยตรงบน bare-metal server ให้ความยืดหยุ่นแบบคลาวด์พร้อมประสิทธิภาพของฮาร์ดแวร์เฉพาะ⁵
CoreWeave Kubernetes Service (CKS) deploy cluster โดยไม่มี virtual machine หรือ hypervisor ระหว่าง workload และฮาร์ดแวร์ GPU NVIDIA BlueField Data Processing Units (DPUs) ที่ติดตั้งกับแต่ละ node รับภาระงาน networking และ security ปล่อยให้ GPU โฟกัสเฉพาะการคำนวณ⁶ สถาปัตยกรรม DPU ช่วยให้มีฟีเจอร์ความปลอดภัยขั้นสูงรวมถึง custom network policies, Virtual Private Clouds เฉพาะ และการควบคุมสิทธิ์การเข้าถึงโดยไม่เสียสละ GPU utilization
สถาปัตยกรรม networking มีความสำคัญเท่าเทียมกันสำหรับการฝึก AI แบบกระจาย CoreWeave สร้าง backbone บน NVIDIA Quantum-2 InfiniBand fabric ด้วย non-blocking, fat-tree topology ที่ปรับแต่งสำหรับ collective operations ข้าม GPU นับพัน⁷ NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) ช่วยเร่ง gradient synchronization ที่ครอบงำรูปแบบการสื่อสารในการฝึก network เชื่อมต่อ GPU หลายหมื่นตัวได้อย่างเสถียรพร้อมความสามารถในการขยายไปสู่ขนาด cluster หกหลัก
Hyperscaler เผชิญแรงเสียดทานเชิงโครงสร้างเมื่อพยายามทำความหนาแน่น GPU ในระดับเดียวกัน การออกแบบศูนย์ข้อมูลแบบเก่า ภาษี virtualization และ network topology ที่ปรับแต่งสำหรับ cloud workload แบบดั้งเดิมสร้างคอขวดที่โครงสร้างพื้นฐานที่สร้างมาเพื่อวัตถุประสงค์เฉพาะของ CoreWeave หลีกเลี่ยงได้ AWS และ Azure สามารถ deploy H100 ได้ แต่การบรรลุ time-to-train และ inference throughput ที่เทียบเท่าต้องเอาชนะการตัดสินใจด้านสถาปัตยกรรมที่ทำไปหลายปีก่อนที่ generative AI จะเกิดขึ้น
กลยุทธ์ศูนย์ข้อมูลสำหรับยุค AI
CoreWeave ดำเนินงานศูนย์ข้อมูลมากกว่า 32 แห่งทั่วอเมริกาเหนือและยุโรป รองรับ GPU มากกว่า 250,000 ตัวด้วยกำลังไฟฟ้าหลายร้อยเมกะวัตต์⁸ อัตราการขยายตัวเร่งขึ้นตลอดปี 2025 โดยศูนย์ข้อมูลสองแห่งในสหราชอาณาจักรที่มี H200 GPU เริ่มดำเนินการในเดือนมกราคม และไซต์ในยุโรปภาคพื้นทวีปในนอร์เวย์ สวีเดน และสเปนได้รับการผูกพันการลงทุนมูลค่า 2,200 ล้านดอลลาร์
สิ่งอำนวยความสะดวก CoreWeave ส่วนใหญ่ที่เปิดในปี 2025 มีความสามารถระบายความร้อนด้วยของเหลวแบบ native ต่างจากผู้ให้บริการรายเดิมที่ retrofit ส่วนเล็กๆ ของสิ่งอำนวยความสะดวกที่มีอยู่ CoreWeave ออกแบบศูนย์ข้อมูลทั้งหมดรอบระบบระบายความร้อนด้วยของเหลวตั้งแต่ฐานรากถึงหลังคา⁹ แนวทางนี้ช่วยให้รองรับ rack 130kW+ ที่จำเป็นสำหรับการ deploy GPU รุ่นถัดไป ซึ่งเป็นระดับความหนาแน่นที่สิ่งอำนวยความสะดวกระบายความร้อนด้วยอากาศไม่สามารถบรรลุได้ไม่ว่าจะลงทุน retrofit เท่าไหร่
ความร่วมมือเชิงกลยุทธ์ขยายการเข้าถึงของ CoreWeave โดยไม่ต้องใช้เงินลงทุนสำหรับทุกสถานที่ พันธมิตร Flexential ให้ความจุ colocation ความหนาแน่นสูงในตลาดเพิ่มเติม¹⁰ Core Scientific ผูกพัน 200 เมกะวัตต์ของโครงสร้างพื้นฐานผ่านสัญญา 12 ปีด้วยการชำระเงินรายปีประมาณ 290 ล้านดอลลาร์¹¹ ข้อตกลงเหล่านี้เร่งการ deploy ความจุขณะกระจายความต้องการเงินทุนไปยังพันธมิตร
การ deploy GB200 NVL72 ในเดือนกุมภาพันธ์ 2025 ทำให้ CoreWeave เป็นผู้ให้บริการคลาวด์รายแรกที่เสนอสถาปัตยกรรม Blackwell ของ NVIDIA ในเชิงพาณิชย์¹² กรกฎาคม 2025 นำมาซึ่งอีกหนึ่งเหตุการณ์สำคัญด้วยการ deploy เชิงพาณิชย์ครั้งแรกของระบบ GB300 NVL72 (Blackwell Ultra) ที่ส่งมอบผ่าน Dell server¹³ การเข้าถึงฮาร์ดแวร์รุ่นถัดไปก่อนใครสร้าง competitive moat ที่แข็งแกร่งขึ้นในแต่ละ GPU generation
ราคาที่ท้าทายเศรษฐศาสตร์ของ hyperscaler
โครงสร้างราคาของ CoreWeave ต่ำกว่า hyperscaler อย่างสม่ำเสมอ 30-60% สำหรับ configuration GPU ที่เทียบเท่ากัน¹⁴ H100 พร้อม InfiniBand networking ราคาประมาณ $6.16 ต่อ GPU-hour บน CoreWeave เทียบกับ $6.98 ของ Azure และอัตราหลังลดราคาของ AWS ประมาณ $3.90¹⁵ การผูกพัน reserved capacity สามารถขยายส่วนลดถึง 60% จากอัตรา on-demand
การเปรียบเทียบ A100 ยิ่งชัดเจนขึ้น: $2.39 ต่อชั่วโมงบน CoreWeave เทียบกับ $3.40 บน Azure และ $3.67 บน Google Cloud¹⁶ สำหรับงานฝึกโมเดล 70,000 ล้านพารามิเตอร์ที่ต้องใช้ 6.4 ล้าน GPU-hour CoreWeave มีค่าใช้จ่ายประมาณ 39 ล้านดอลลาร์เทียบกับ 45-48 ล้านดอลลาร์บน AWS หรือ Azure และ 71 ล้านดอลลาร์บน Google Cloud
ความเรียบง่ายของราคาเพิ่มข้อได้เปรียบ CoreWeave รวม GPU, CPU, RAM และ networking เป็นอัตรารายชั่วโมงต่อ instance ให้การเรียกเก็บเงินที่คาดการณ์ได้สำหรับการวางแผนความจุ Hyperscaler คิดค่าบริการแยกสำหรับ compute, storage, data egress และบริการเสริม สร้างการเรียกเก็บเงินที่ซับซ้อนทำให้การคาดการณ์ต้นทุนยาก การไม่คิดค่า egress ของ CoreWeave ขจัดหมวดค่าใช้จ่ายสำคัญสำหรับ AI workload ที่ต้องการการถ่ายโอนข้อมูลบ่อยครั้ง
Hyperscaler ยังคงมีข้อได้เปรียบในความกว้างของระบบนิเวศบริการ AWS SageMaker, Google Vertex AI และแพลตฟอร์ม AI ของ Azure ให้ managed services, analytics tools และ pre-built integrations ที่ offering ที่เน้นโครงสร้างพื้นฐานของ CoreWeave ไม่มี องค์กรที่ต้องการ integration ลึกกับระบบนิเวศคลาวด์ที่มีอยู่อาจพบว่า premium ของ hyperscaler สมเหตุสมผลจากความซับซ้อนในการ integrate และ operational overhead ที่ลดลง
การกระจุกตัวของลูกค้าและการกระจายความเสี่ยง
การกระจุกตัวของลูกค้า CoreWeave สร้างทั้งโอกาสและความเปราะบาง Microsoft คิดเป็น 62% ของรายได้ปี 2024 และถึง 71% ของรายได้ไตรมาสที่ 2 ปี 2025 ซึ่งเป็นการพึ่งพาลูกค้ารายเดียวอย่างพิเศษ¹⁷ การกระจุกตัวนี้เกิดจากความต้องการเร่งด่วนของ Microsoft สำหรับความจุ GPU เพื่อให้บริการ OpenAI workload หลังจากความสำเร็จที่ไม่คาดคิดของ ChatGPT ล้นโครงสร้างพื้นฐานที่มีอยู่
สัญญา OpenAI และ Meta เปลี่ยนแปลงส่วนผสมของลูกค้าอย่างมีนัยสำคัญ CEO Michael Intrator ระบุว่า Microsoft จะคิดเป็นน้อยกว่าครึ่งของรายได้ตามสัญญาที่ผูกพันในอนาคตที่คาดหวังเมื่อ OpenAI, Meta และลูกค้าอื่นๆ ขยาย usage¹⁸ การกระจายความเสี่ยงลดความเสี่ยงจากลูกค้ารายเดียวขณะแสดงให้เห็นว่า value proposition ของ CoreWeave ขยายออกไปนอกเหนือความต้องการเฉพาะของ Microsoft
บริษัท AI ขนาดเล็กรวมถึง Cohere, Mistral และ Poolside เสริมสัญญาหัวข้อข่าว¹⁹ ลูกค้าเหล่านี้เป็นตัวแทนของชุมชนพัฒนา AI ที่กว้างขึ้นที่ข้อได้เปรียบด้านราคาและประสิทธิภาพของ CoreWeave ดึงดูด เมื่อการพัฒนาโมเดล AI แพร่หลายออกไปนอกเหนือ frontier lab เพียงไม่กี่แห่ง segment ตลาดกลางนี้อาจพิสูจน์ว่ามีคุณค่าเชิงกลยุทธ์เท่ากับสัญญาองค์กรใหญ่
Sam Altman อธิบายความสัมพันธ์อย่างชัดเจน: "CoreWeave เป็นส่วนเพิ่มที่สำคัญในพอร์ตโฟลิโอโครงสร้างพื้นฐานของ OpenAI ที่เสริมข้อตกลงเชิงพาณิชย์กับ Microsoft และ Oracle และ joint venture กับ SoftBank ใน Stargate"²⁰ แม้แต่องค์กรที่มีความสัมพันธ์กับ hyperscaler ก็พบว่า GPU cloud เฉพาะทางของ CoreWeave มีคุณค่าสำหรับ workload เฉพาะ
ความเป็นจริงทางการเงินและข้อกังวลของตลาด
การเติบโตของ CoreWeave มาพร้อมกับความซับซ้อนทางการเงินอย่างมาก บริษัทระดมทุนมากกว่า 14,500 ล้านดอลลาร์ในหนี้และทุนผ่านรอบการระดมทุน 12 รอบ รวมถึง private debt facility มูลค่า 7,000 ล้านดอลลาร์ที่นำโดย Blackstone และ Magnetar ในเดือนพฤษภาคม 2024²¹ โมเดลที่ใช้เงินทุนเข้มข้นต้องการการลงทุนอย่างต่อเนื่องใน GPU inventory และความจุศูนย์ข้อมูลเพื่อรักษาตำแหน่งการแข่งขัน
ขาดทุนสุทธิขยายตัวเป็น 863 ล้านดอลลาร์ในปี 2024 จาก 594 ล้านดอลลาร์ในปี 2023 แม้รายได้จะเติบโต 737%²² แนวโน้มการขาดทุนสะท้อนการขยายความจุอย่างรุนแรงมากกว่าความไม่มีประสิทธิภาพในการดำเนินงาน แต่นักลงทุนตรวจสอบว่าการเติบโตจะสร้างผลตอบแทนเพียงพอที่จะชำระหนี้สะสมในที่สุดหรือไม่ ค่าใช้จ่ายดอกเบี้ยและค่าเสื่อมราคาของสินทรัพย์ GPU บริโภครายได้จำนวนมากก่อนถึงความสามารถในการทำกำไร
ข้อกังวลของตลาดมุ่งเน้นไปที่การกระจุกตัวของลูกค้า พลวัตการแข่งขัน และความยั่งยืนของระดับความต้องการปัจจุบัน นักวิเคราะห์บางคนอธิบายโมเดลธุรกิจว่าเป็น "GPU debt trap" ที่ความต้องการเงินทุนขยายตัวอย่างต่อเนื่องโดยไม่ถึง scale ที่ทำกำไร²³ การจัดสรรสิทธิพิเศษของ NVIDIA อาจเปลี่ยนไปสู่พันธมิตรอื่นในทางทฤษฎี ทำลายข้อได้เปรียบด้านอุปทานของ CoreWeave
ข้อโต้แย้งตรงข้ามมุ่งเน้นไปที่ความต้องการโครงสร้างพื้นฐาน AI ที่ไม่มีสัญญาณชะลอตัว OpenAI, Anthropic, Google, Meta และองค์กรอื่นๆ อีกหลายสิบแห่งยังคงขยายความจุ compute เมื่อขนาดโมเดลเพิ่มขึ้นและความต้องการ inference เติบโต ข้อได้เปรียบ early mover สถาปัตยกรรมทางเทคนิค และความสัมพันธ์กับลูกค้าของ CoreWeave สร้างอุปสรรคที่ผู้เข้าใหม่ไม่สามารถเลียนแบบได้ง่าย การสร้างโครงสร้างพื้นฐานแสดงถึงการเดิมพันว่า AI จะขยายตัวต่อไป ซึ่งเป็น thesis ที่หลักฐานปัจจุบันสนับสนุน
ตำแหน่งการแข่งขันในภูมิทัศน์ GPU cloud
ตลาด GPU cloud แบ่งระหว่าง hyperscaler (AWS, Azure, Google Cloud) และผู้ให้บริการเฉพาะทาง (CoreWeave, Lambda Labs, Together AI, Hyperbolic) CoreWeave อยู่ในตำแหน่ง premium ของ segment เฉพาะทาง เสนอความสามารถระดับองค์กรและ scale ขนาดใหญ่ขณะรักษาราคาต่ำกว่าอัตรา hyperscaler
Lambda Labs เสนอราคา H100 ที่แข่งขันได้ (ประมาณ $2.99 ต่อ GPU-hour) แต่
[เนื้อหาถูกตัดทอนสำหรับการแปล]