CoreWeave: การปฏิวัติโครงสร้างพื้นฐาน AI - จากสตาร์ทอัพขุด Crypto สู่แกนหลักมูลค่า 23 พันล้านดอลลาร์ของปัญญาประดิษฐ์

CoreWeave ได้เปลี่ยนจากการขุด crypto มาเป็นโครงสร้างพื้นฐาน AI มูลค่า $23B ซึ่งมีอัตราการเติบโตของรายได้ 737% พร้อมทั้งขับเคลื่อน foundation models ของ OpenAI

CoreWeave: การปฏิวัติโครงสร้างพื้นฐาน AI - จากสตาร์ทอัพขุด Crypto สู่แกนหลักมูลค่า 23 พันล้านดอลลาร์ของปัญญาประดิษฐ์

CoreWeave ได้เปลี่ยนแปลงจากจุดเริ่มต้นในการขุด cryptocurrency มาเป็นผู้ให้บริการโครงสร้างพื้นฐานคลาวด์ AI ที่เฉพาะเจาะจงที่สุดในโลก โดยดำเนินงาน GPU supercomputers ในระดับที่ไม่เคยมีมาก่อน พร้อมทั้งเป็นผู้บุกเบิก liquid cooling และสถาปัตยกรรม bare-metal ที่ทำให้แตกต่างจาก hyperscalers แบบดั้งเดิม การเปลี่ยนแปลงของบริษัทจากการขุด Ethereum ในปี 2017 มาสู่การขับเคลื่อนโมเดล GPT ของ OpenAI แสดงถึงการเปลี่ยนทิศทางที่ดราม่าที่สุดของ Silicon Valley ซึ่งได้รับการยืนยันด้วย การระดมทุนหนี้ $7.5 พันล้านดอลลาร์ในมูลค่า $19 พันล้านดอลลาร์ (พฤษภาคม 2024) ตามด้วยการขายหลักทรัพย์รองในมูลค่า $23 พันล้านดอลลาร์ (ตุลาคม 2024) การเติบโตของรายได้อย่างระเบิด 737% ในปี 2024 และได้รับการจัดอันดับในชั้นต้น ๆ ในเฟรมเวิร์ก ClusterMAX ใหม่ของ SemiAnalysis รายงานเน้นย้ำถึง tenant isolation, bare‑metal Kubernetes และความโดดเด่นในด้าน ops maturity ของ CoreWeave

คูข้อได้เปรียบทางเทคนิคที่ CoreWeave ได้สร้างขึ้นใช้ประโยชน์จากสถาปัตยกรรมเฉพาะทางที่ปรับให้เหมาะสมเฉพาะสำหรับ accelerated computing ในขณะที่ผู้ให้บริการคลาวด์แบบดั้งเดิมต้องสมดุลระหว่างภาระงานทั่วไปกับ GPU computing CoreWeave ได้สร้างทุกชั้นของสแต็กให้เหมาะสมเฉพาะสำหรับแอปพลิเคชัน AI และ HPC สถาปัตยกรรม bare-metal Kubernetes ของพวกเขาขจัดภาระการทำงานของ virtualization อย่างสมบูรณ์ ในขณะที่ liquid cooling แบบ direct-to-chip ช่วยให้สามารถบรรลุความหนาแน่นของแร็ก 130 กิโลวัตต์ ซึ่งสิ่งอำนวยความสะดวกแบบ air-cooled ไม่สามารถเทียบได้ ข้อได้เปรียบทางสถาปัตยกรรมพื้นฐานนี้ ร่วมกับ topology-aware scheduling และ InfiniBand-first networking ส่งมอบสิ่งที่ CoreWeave รายงานว่าเป็น Model FLOPS Utilization มากกว่า 50% บน Hopper-class GPUs ซึ่งสูงกว่า public foundation model baselines ประมาณ 20% ตามเกณฑ์มาตรฐานภายในของพวกเขา

ความสัมพันธ์แบบพึ่งพาอาศัยกันของบริษัทกับ NVIDIA เกินกว่าความร่วมมือระหว่างผู้จำหน่ายทั่วไป โดย NVIDIA ถือหุ้นประมาณ 6% ณ เดือนมีนาคม 2025 และเลือก CoreWeave อย่างสม่ำเสมอสำหรับการเปิดตัวครั้งแรกของสถาปัตยกรรมที่แหกกฎ CoreWeave เป็นแห่งแรกที่เปิดให้บริการทั่วไปด้วยระบบ GB200 NVL72 (กุมภาพันธ์ 2025) และเป็นแห่งแรกที่ติดตั้งระบบ GB300 NVL72 (3 กรกฎาคม 2025) การติดตั้ง GB300 สัญญาว่าจะให้สิ่งที่ NVIDIA อธิบายว่าเป็น "การปรับปรุงขึ้นถึง 50 เท่าใน reasoning model inference output" แม้ว่านี่จะแสดงถึงการตลาดของผู้จำหน่ายมากกว่าเกณฑ์มาตรฐานที่ผ่านการตรวจสอบโดยผู้เชี่ยวชาญ (คำแนะนำด้านการตลาดของ NVIDIA; การวัดเกณฑ์มาตรฐานอิสระยังรอดำเนินการ)

เมตริกทางการเงินเน้นย้ำถึงความต้องการตลาดขนาดใหญ่สำหรับโครงสร้างพื้นฐาน AI เฉพาะทาง โดย CoreWeave บรรลุรายได้รายไตรมาส $1.21 พันล้านดอลลาร์ (Q2 2025) รักษา contracted backlog ที่ $30.1 พันล้านดอลลาร์ และได้รับความมั่นใจจากลูกค้าหลักจาก Microsoft (คิดเป็น 62% ของรายได้ปี 2024), OpenAI (สัญญาสูงถึง $11.9 พันล้านดอลลาร์ บวกการขยาย $4 พันล้านดอลลาร์) และผู้นำ AI อื่น ๆ ที่ต้องการระดับประสิทธิภาพที่ปรับให้เหมาะสมสำหรับการฝึกอบรมและการอนุมานขนาดใหญ่ การ IPO ในเดือนมีนาคม 2025 ในราคา $40 ต่อหุ้นระดมทุนได้ประมาณ $1.5 พันล้านดอลลาร์ ทำให้ CoreWeave กลายเป็นบริษัทมหาชนที่มีตำแหน่งในการสร้างมูลค่าเมื่อความต้องการ AI compute ทั่วโลกเร่งตัวขึ้น

แต่ภายใต้การเติบโตอย่างระเบิดนี้มีความเสี่ยงในการดำเนินงานอย่างมาก โดย CoreWeave แบกรับหนี้สินกว่า $11 พันล้านดอลลาร์ พร้อมค่าใช้จ่ายดอกเบี้ย $267M ใน Q2'25 (เมื่อเทียบกับ $67M ใน Q2'24) ซึ่งหมายถึง อัตราการเดินทางรายปีกว่า $1B+ เมื่องบดุลขยายตัว โครงสร้างเงินทุนนี้ต้องการการดำเนินงานที่สมบูรณ์แบบเมื่อบริษัทแข่งกันติดตั้งโครงสร้างพื้นฐานให้ทันการแข่งขันของ hyperscaler การกระจุกตัวของลูกค้าอย่างมาก โดย Microsoft คิดเป็น 62% ของรายได้ปี 2024 และลูกค้าสองอันดับแรกอยู่ที่ 77%

การวิเคราะห์เจาะลึกนี้ศึกษาว่า CoreWeave สร้างสถาปัตยกรรมโครงสร้างพื้นฐาน AI เฉพาะทางจากหลักการพื้นฐานอย่างไร เหตุใดข้อได้เปรียบทางเทคนิคของพวกเขาจึงมีความหมายต่อการแข่งขันกับ hyperscaler และกลยุทธ์การขยายตัวอย่างก้าวร้าวของพวกเขาสามารถรักษาความเป็นผู้นำทางเทคโนโลยีในขณะที่นำทางความเป็นจริงที่ใช้เงินทุนเข้มข้นในการสร้างโครงสร้างพื้นฐาน exascale computing ได้หรือไม่ ผ่านเอกสารทางเทคนิค เกณฑ์มาตรฐานประสิทธิภาพ และการวิเคราะห์อุตสาหกรรม เราเปิดเผยว่าบริษัทที่เริ่มต้นจากการขุด cryptocurrency ในโรงรถที่ New Jersey วางตำแหน่งตัวเองให้เป็นโครงสร้างพื้นฐานที่สำคัญสำหรับการพัฒนา artificial intelligence อย่างไร และความท้าทายทางการเงินที่อาจส่งผลกระทบต่อเส้นทางนี้

ข้อได้เปรียบของ CoreWeave: โครงสร้างพื้นฐานที่สร้างขึ้นเฉพาะสำหรับ AI workloads

ความเข้าใจพื้นฐานของ CoreWeave คือ AI workloads ต้องการโครงสร้างพื้นฐานที่แตกต่างอย่างสิ้นเชิงจาก cloud computing แบบดั้งเดิม ซึ่งขับเคลื่อนการตัดสินใจด้านสถาปัตยกรรมที่ส่งมอบข้อได้เปรียบด้านประสิทธิภาพที่วัดผลได้ในงาน training, fine-tuning และ inference ในขณะที่ hyperscalers ลงทุนหลายแสนล้านเพื่อเพิ่มประสิทธิภาพสำหรับ web applications, databases และ enterprise software CoreWeave ตระหนักว่า large language models และ neural networks ต้องการ memory bandwidth สูงมาก, interconnects แบบ ultra-low latency และ sustained thermal dissipation ที่ data centers แบบทั่วไปไม่สามารถจัดหาได้อย่างสม่ำเสมอ

ความแตกต่างทางเทคนิคเริ่มต้นด้วย complete vertical integration ที่เพิ่มประสิทธิภาพเฉพาะสำหรับ GPU workloads การจัดการ bare-metal Kubernetes ของ CoreWeave ให้การเข้าถึง hardware โดยตรงกับ GPU, CPU, network และ storage resources โดยไม่มี virtualization layers การ scheduling แบบ topology-aware ช่วยลด inter-GPU communication latency ในขณะที่ dedicated InfiniBand fabric ส่งมอบการเชื่อมต่อ 400Gb/s ต่อ GPU ควรสังเกตว่า GPU instances ระดับ top-tier ของ hyperscaler ตอนนี้ยังเสนอ high-bandwidth networking ด้วย Google Cloud's A3 instances เปิดเผย 3.2 Tbps ต่อ VM, Azure's ND H100 v5 ให้การเชื่อมต่อระดับ 1.6-3.2 Tbps และ AWS P5 clusters ส่งมอบ 3200 Gbps instance networking พร้อม SR-IOV/EFA ความแตกต่างไม่ได้อยู่ที่ raw link speeds แต่อยู่ที่ cluster topology, scheduler placement optimization และ liquid-cooled thermal management ที่ rack scale ของ CoreWeave

ตาม NVIDIA's published benchmarks Cohere บรรลุ training ที่เร็วกว่าถึง 3 เท่าบน CoreWeave's GB200 NVL72 systems เมื่อเปรียบเทียบกับ Hopper GPUs รุ่นก่อน แม้ว่านี่จะแสดงถึงการปรับปรุง generational hardware มากกว่าการเปรียบเทียบ cross-cloud การอ้างสิทธิ์ประสิทธิภาพลูกค้าอื่น ๆ หมุนเวียนอยู่ในการสนทนาของอุตสาหกรรมแต่ขาดการตรวจสอบสาธารณะจากบริษัทเอง

นวัตกรรม business model มีความสำคัญเท่าเทียมกัน โดยการมุ่งเน้นเฉพาะ GPU compute แทนการเสนอบริการหลายร้อยรายการ CoreWeave สามารถเพิ่มประสิทธิภาพทุกด้านของการดำเนินงานสำหรับ AI workloads ความเชี่ยวชาญนี้ช่วยให้สามารถ deploy hardware generations ใหม่ได้อย่างรวดเร็ว (สัปดาห์เทียบกับไตรมาสสำหรับ traditional clouds), การดำเนินงานที่เรียบง่ายด้วย management overhead ที่ลดลง, ความสัมพันธ์โดยตรงกับ GPU-native customers ที่ให้ความสำคัญกับประสิทธิภาพ และ flexible consumption models รวมถึง reserved instances, on-demand และ spot pricing ที่เปิดตัวในช่วงปลายปี 2025

การแข่งขันจาก hyperscalers ทวีความรุนแรงขึ้นเมื่อพวกเขาตระหนักถึงความสำคัญเชิงกลยุทธ์ของ AI infrastructure โดย AWS, Google Cloud และ Microsoft Azure ทั้งหมดขยาย GPU offerings ด้วย networking ที่ปรับปรุงแล้วและตัวเลือก bare-metal อย่างไรก็ตาม แนวทางเฉพาะทางของ CoreWeave และ first-mover advantage กับ hardware ล่าสุดของ NVIDIA สร้างความแตกต่าง ในฐานะผู้รับเพียงรายเดียวของ SemiAnalysis's Platinum-tier ClusterMAX rating ณ เดือนมีนาคม-เมษายน 2025 CoreWeave แสดงให้เห็นถึงภาวะผู้นำทางเทคนิค แม้ว่า rating system นี้วางแผนที่จะ update ทุก 3-6 เดือน และ competitive dynamics ยังคงพัฒนาต่อไป

จากการขุด Ethereum สู่การเทรนโมเดลพื้นฐาน: เรื่องราวการกำเนิดที่คาดไม่ถึง

การเปลี่ยนแปลงของ CoreWeave จากธุรกิจขุดสกุลเงินดิจิทัลสู่ผู้นำด้านโครงสร้างพื้นฐาน AI เริ่มต้นขึ้นในปี 2017 เมื่อผู้ร่วมก่อตั้ง Michael Intrator, Brian Venturo และ Brannin McBee ตระหนักว่าความเชี่ยวชาญด้าน GPU ของพวกเขาสามารถใช้ประโยชน์ในด้านที่มีคุณค่ามากกว่าการแก้ปริศนาเข้ารหัส การดำเนินงานในเมือง Weehawken รัฐ New Jersey เริ่มแรกเน้นไปที่การขุด Ethereum โดยสะสม GPU หลายพันตัวพร้อมพัฒนาระบบระบายความร้อนแบบกำหนดเองและซอฟต์แวร์จัดการที่ภายหลังได้พิสูจน์แล้วว่ามีคุณค่าอย่างยิ่งสำหรับงาน AI

จุดเปลี่ยนที่สำคัญมาถึงในปี 2019 เมื่อการเปลี่ยนผ่านของ Ethereum สู่ระบบ proof-of-stake ทำให้การขุด GPU กลายเป็นสิ่งล้าสมัยอย่างสิ้นเชิง แทนที่จะเลิกทำธุรกิจเหมือนนักขุดส่วนใหญ่ ผู้ก่อตั้ง CoreWeave มองเห็นโอกาสทางตลาดที่เกิดขึ้นใหม่—การให้บริการ GPU compute แก่นักวิจัย machine learning ที่ประสบปัญหาในการเข้าถึงฮาร์ดแวร์บน cloud แบบดั้งเดิม ลูกค้าแรกๆ ได้แก่ สถาบันการศึกษาที่ต้องการพลังคอมพิวติ้งสำหรับการทดลอง สตูดิโอเอฟเฟกต์พิเศษที่ทำ CGI สำหรับภาพยนตร์ และสตาร์ทอัพที่เทรนโมเดล computer vision

การระบาดในปี 2020 เร่งการเปลี่ยนแปลงของ CoreWeave เมื่อการทำงานระยะไกลเพิ่มความต้องการ cloud rendering พร้อมกับเร่งการใช้งาน AI ในอุตสาหกรรมต่างๆ บริษัทได้เซ็นสัญญาองค์กรรายใหญ่แรกกับกองทุนป้องกันความเสี่ยงที่ต้องการ parallel processing ขนาดใหญ่สำหรับการสร้างโมเดลความเสี่ยง ซึ่งช่วยพิสูจน์โมเดลธุรกิจให้เกินกว่าการเก็งกำไรสกุลเงินดิจิทัล ภายในสิ้นปี CoreWeave ดำเนินการ GPU กว่า 10,000 ตัวที่ให้บริการงานหลากหลายตั้งแต่การจำลองการพับโปรตีนไปจนถึง video transcoding แบบเรียลไทม์

การก้าวกระโดดมาถึงในปี 2022 เมื่อ OpenAI เลือก CoreWeave เป็นพาร์ตเนอร์โครงสร้างพื้นฐานสำหรับการเทรนโมเดล GPT โดยดึงดูดด้วยความสามารถในการติดตั้ง A100 GPU หลายพันตัวอย่างรวดเร็วพร้อม InfiniBand networking—การกำหนดค่าที่ปรับให้เหมาะสำหรับการเทรนขนาดใหญ่ การติดตั้งที่ประสบความสำเร็จช่วยพิสูจน์สถาปัตยกรรมของ CoreWeave ในระดับที่ไม่เคยมีมาก่อน นำไปสู่การขยายสัญญาที่ครอบคลุมโมเดลพื้นฐานเพิ่มเติม ลูกค้าหลักรายนี้ให้ทั้งความมั่นคงด้านรายได้และความน่าเชื่อถือทางเทคนิคที่ดึงดูดผู้บุกเบิก AI รายอื่นๆ

Venture capital ตระหนักถึงตำแหน่งเชิงกลยุทธ์ของ CoreWeave ใน AI supply chain โดยมี Magnetar Capital นำการระดมทุน Series B มูลค่า 200 ล้านดอลลาร์ในปี 2022 ตามด้วยการเติบโตของมูลค่าอย่างรวดเร็ว การระดมทุนแบบ debt financing มูลค่า 7.5 พันล้านดอลลาร์ในเดือนพฤษภาคม 2024 จาก Blackstone, Coatue และอื่นๆ ที่มูลค่า 19 พันล้านดอลลาร์ ถือเป็นหนึ่งใน private credit facility ที่ครอบคลุมที่สุดในประวัติศาสตร์เทคโนโลยี ช่วยให้ขยายโครงสร้างพื้นฐานอย่างก้าวร้าวเพื่อตอบสนองความต้องการที่เพิ่มขึ้นอย่างมาก

DNA ทางวัฒนธรรมจากการขุดสกุลเงินดิจิทัล—การยอมรับความเสี่ยงทางเทคนิค การปรับให้เหมาะสมเพื่อประสิทธิภาพ การดำเนินงานที่เชื่อถือได้ 24/7—สามารถนำมาใช้กับความต้องการโครงสร้างพื้นฐาน AI ได้อย่างสมบูรณ์แบบ วิศวกรคนเดียวกันที่เคยบีบ hash rate สูงสุดจาก GPU ตนนี้ปรับ tensor operations ให้เหมาะสม ขณะที่วินัยทางการเงินที่ต้องการเพื่อทำกำไรจากตลาดคริปโตที่ผันผวนช่วยนำทางธุรกิจโครงสร้างพื้นฐานที่ใช้ทุนเข้มข้น เรื่องราวการกำเนิดที่คาดไม่ถึงนี้แสดงให้เห็นว่าการเปลี่ยนแปลงทางเทคโนโลยีมักเกิดขึ้นจากอุตสาหกรรมที่เกี่ยวข้องมากกว่าผู้ที่อยู่ในตลาดนั้นอยู่แล้ว โดยมีคนนอกที่ไม่ถูกจำกัดด้วยความคิดเก่าๆ มาสร้างสรรค์โซลูชันเฉพาะทางจากหลักการพื้นฐาน

โครงสร้างเงินทุนที่ซับซ้อนสะท้อนทั้งโอกาสและความเสี่ยง

โครงสร้างเงินทุนของ CoreWeave สะท้อนทั้งโอกาสมหาศาลในโครงสร้างพื้นฐาน AI และลักษณะที่ต้องใช้เงินทุนสูงในการแข่งขันระดับไฮเปอร์สเกล ประวัติการระดมทุนรวมถึง วงเงินหนี้ 7.5 พันล้านดอลลาร์ที่อัตราดอกเบี้ยประมาณ 14% (พฤษภาคม 2024) เงินทุนหุ้นรวมเกิน 1 พันล้านดอลลาร์จากหลายรอบ การขายหุ้นในตลาดรองที่ประเมินมูลค่าบริษัทที่ 23 พันล้านดอลลาร์ (ตุลาคม 2024) และ IPO 1.5 พันล้านดอลลาร์ที่ 40 ดอลลาร์ต่อหุ้น (28 มีนาคม 2025) สร้างบริษัทมหาชนที่มีมูลค่าองค์กรเกิน 35 พันล้านดอลลาร์รวมหนี้

นักลงทุนหลักแสดงให้เห็นถึงมูลค่าเชิงกลยุทธ์นอกเหนือจากเงินทุน หุ้นประมาณ 6% ของ NVIDIA มีมูลค่า 900 ล้านดอลลาร์ ณ เดือนมีนาคม 2025 และเกือบ 1.6 พันล้านดอลลาร์ในเดือนพฤษภาคม ช่วยให้มีสิทธิ์เข้าถึง GPU อย่างเป็นพิเศษในช่วงการจัดสรรมีข้อจำกัด พร้อมทั้งให้ความร่วมมือทางเทคนิคในการปรับปรุงฮาร์ดแวร์/ซอฟต์แวร์ ความสัมพันธ์ลูกค้าของ Microsoft ยืนยันว่า CoreWeave เป็นโครงสร้างพื้นฐานที่จำเป็น โดยเฉพาะอย่างยิ่งในการร่วมมือครั้งใหญ่กับ OpenAI ที่ต้องใช้ทรัพยากรการคำนวณจำนวนมาก กลุ่มนักลงทุนรวมถึง Fidelity, BlackRock และ Altimeter นำความน่าเชื่อถือขององค์กรที่สำคัญต่อการขายองค์กรและการระดมทุนในอนาคต

การรวมตัวของลูกค้าเป็นทั้งการยืนยันและความเสี่ยง Microsoft แทนประมาณ 62% ของรายได้ CoreWeave ในปี 2024 ตามเอกสาร S-1 filing—ความพึ่งพาที่ช่วยให้ขยายตัวได้อย่างรวดเร็วแต่สร้างความเปราะบางต่อการต่อรองสัญญาใหม่หรือการเปลี่ยนแปลงเชิงกลยุทธ์ ลักษณะระยะยาวของสัญญาเหล่านี้ให้ความมั่นคงระดับหนึ่ง แม้ว่าจะไม่เปิดเผยระยะเวลาที่เจาะจงต่อสาธารณะ (คำสั่งซื้อมักเป็น 2-5 ปี) ความผูกพันของ OpenAI ถึง 11.9 พันล้านดอลลาร์ บวกกับการขยายตัว 4 พันล้านดอลลาร์ตามมาที่เปิดเผยในเอกสารนักลงทุนสัมพันธ์ของบริษัท ให้รายได้หลักเพิ่มเติม ฐานลูกค้าที่กว้างขึ้นรวมถึง IBM และสถาบันการเงินชั้นนำแสดงให้เห็นการขยายตลาดนอกเหนือจากผู้เช่าหลักเดิม

แบ็คล็อกรายได้ 30.1 พันล้านดอลลาร์ ณ Q2 2025 ให้การมองเห็นที่ไม่เคยมีมาก่อนสำหรับบริษัทโครงสร้างพื้นฐาน โดยรายได้ที่มีสัญญาแล้วแสดงถึงข้อผูกพันไปข้างหน้าหลายปี—แม้ว่าความเสี่ยงในการดำเนินการจะยังคงมีอย่างมากเนื่องจากความซับซ้อนของการติดตั้งและดำเนินการ GPU หลายแสนตัวข้ามหลายสิบศูนย์ข้อมูล การรับรู้รายได้ขึ้นอยู่กับการมีโครงสร้างพื้นฐาน สร้างแรงกดดันให้รักษาตารางการติดตั้งเชิงรุกในขณะที่รับประกันความน่าเชื่อถือที่ลูกค้าองค์กรต้องการ

ผลการดำเนินงานทางการเงินเผยให้เห็นเศรษฐศาสตร์หน่วยที่ท้าทายของโครงสร้างพื้นฐาน AI ผลลัพธ์ Q2 2025 แสดงรายได้ 1.21 พันล้านดอลลาร์แต่ขาดทุนเพิ่มขึ้น โดยบริษัทเผชิญค่าเสื่อมราคาขนาดใหญ่จากฮาร์ดแวร์ที่พัฒนาอย่างรวดเร็ว ค่าใช้จ่ายดอกเบี้ยใกล้ 1 พันล้านดอลลาร์ต่อปีเนื่องจากภาระหนี้ และต้นทุนการดำเนินงานที่ขยายตัวตามการติดตั้งโครงสร้างพื้นฐาน เส้นทางสู่ความสามารถในการทำกำไรต้องการการบรรลุขนาดที่ใหญ่ขึ้นเพื่อตัดจ่ายต้นทุนคงที่ การปรับปรุงอัตราการใช้ประโยชน์ และการรักษาระเบียบการกำหนดราคาแม้จะมีแรงกดดันการแข่งขัน—ความสมดุลที่ละเอียดอ่อนระหว่างการเติบโตและความยั่งยืน

การซื้อกิจการ Weights & Biases ในเดือนพฤษภาคม 2025 ประมาณ 1.7 พันล้านดอลลาร์ (ตาม TechCrunch และรายงานอุตสาหกรรม แม้ว่าเงื่อนไขอย่างเป็นทางการยังไม่เปิดเผย) เพิ่มความสามารถ MLOps ในขณะเดียวกันก็เพิ่มความซับซ้อนของการบูรณาการ ข้อตกลงปิดเมื่อ 5 พฤษภาคม 2025 รวมโครงสร้างพื้นฐานกับเครื่องมือพัฒนาโมเดลที่ใช้โดยองค์กรกว่า 1,400 แห่ง

ตำแหน่งในตลาดแข็งแกร่งขึ้นด้วยการเชี่ยวชาญเฉพาะด้านและความร่วมมือ

กลยุทธ์ตลาดของ CoreWeave เป็นการกลับทิศทางจากแนวทางแพลตฟอร์มคลาวด์แบบดั้งเดิม โดยการจำกัดขอบเขตอย่างตั้งใจเพื่อบรรลุความลึกซึ้งที่ไม่มีใครเทียบได้ในคอมพิวติ้งที่เร่งด้วย GPU ในขณะที่ AWS เสนอบริการมากกว่า 200 รายการสำหรับทุกประเภทงาน CoreWeave มุ่งเน้นโครงสร้างพื้นฐาน GPU compute ที่ปรับให้เหมาะสมสำหรับการฝึกและการประมวลผล AI การเชี่ยวชาญเฉพาะด้านนี้ช่วยให้สามารถปรับปรุงสถาปัตยกรรมและประสิทธิภาพการดำเนินงานที่แพลตฟอร์มทั่วไปต้องสร้างสมดุลกับความต้องการที่กว้างขึ้น

พลวัตการแข่งขันยังคงพัฒนาอย่างรวดเร็ว Hyperscaler ต่างๆ ได้ปรับปรุงข้อเสนอ GPU อย่างมีนัยสำคัญ โดย AWS, Google Cloud และ Azure ขณะนี้ให้บริการตัวเลือกเครือข่ายแบนด์วิธสูง, bare-metal instances และความพร้อมใช้งาน GPU ที่ดีขึ้น การสร้างความแตกต่างมุ่งเน้นไปที่ความพร้อมใช้งานระดับคลัสเตอร์, การปรับปรุงโครงสร้างเครือข่าย, การจัดการความร้อน และการรวม software stack มากกว่าสเปคดิบเพียงอย่างเดียว

กลยุทธ์ความร่วมมือของ CoreWeave ขยายแนวทางการเชี่ยวชาญเฉพาะด้านผ่านการรวมระบบนิเวศอย่างลึกซึ้ง ความสัมพันธ์กับ NVIDIA ขยายเกินกว่าพลวัตลูกค้า-ผู้จัดหา โดยการลงทุนใน equity ของ NVIDIA และการเลือก CoreWeave อย่างต่อเนื่องสำหรับการเปิดตัวสถาปัตยกรรมใหม่ (GB200 NVL72 ในกุมภาพันธ์ 2025, GB300 NVL72 ในกรกฎาคม 2025) แสดงให้เห็นถึงการประสานกลยุทธ์ ความร่วมมือกับ Databricks, Hugging Face และแพลตฟอร์ม AI อื่นๆ ช่วยให้มั่นใจในความเข้ากันได้ของ workflow โดยที่ CoreWeave ไม่จำเป็นต้องสร้างบริการที่แข่งขัน

การขยายตัวทางภูมิศาสตร์ติดตาม AI innovation hubs ด้วยการลงทุน 3.5 พันล้านดอลลาร์สำหรับโครงสร้างพื้นฐานยุโรป รวมถึง 1 พันล้านปอนด์สำหรับการดำเนินงานใน UK และสิ่งอำนวยความสะดวกในนอร์เวย์, สวีเดน และสเปน โดยใช้ประโยชน์จากพลังงานหมุนเวียน บริษัทดำเนินการ 33 ศูนย์ข้อมูลในปี 2025 ด้วยพลังงาน IT ที่ใช้งานประมาณ 470 MW และกำลังการผลิตที่ทำสัญญาประมาณ 2.2 GW (Q2 2025) เพื่อรองรับการเติบโตอย่างต่อเนื่อง

ความได้เปรียบในการแข่งขันที่ยั่งยืนเกิดจากผลกระทบที่สะสม ซึ่งโครงสร้างพื้นฐานเฉพาะทางดึงดูดลูกค้าที่มีความต้องการสูง ความต้องการที่เข้มข้นสร้างเหตุผลสำหรับการลงทุนต่อเนื่อง และความเป็นผู้นำด้านเทคนิคช่วยให้เข้าถึงฮาร์ดแวร์ใหม่ได้ก่อน สิ่งนี้ทำให้ CoreWeave มีตำแหน่งที่เป็นเอกลักษณ์ แม้ว่าความเสี่ยงในการดำเนินการยังคงอยู่ในระดับสูงเนื่องจากความต้องการเงินทุนและแรงกดดันจากการแข่งขัน

โครงสร้างพื้นฐานทางเทคนิค: การพัฒนา AI ในระดับที่ไม่เคยมีมาก่อน

CoreWeave มีศูนย์ข้อมูลครอบคลุม 33 สถานที่ปฏิบัติการทั่วสหรัฐอมेरิกาและยุโรปในปี 2025 ซึ่งเป็นหนึ่งในการปรับใช้ GPU เฉพาะทางที่ใหญ่ที่สุดในโลก การกระจายทางภูมิศาสตร์รวมถึงสถานที่ 28 แห่งในสหรัฐอมেরิกาพร้อมการปรับใช้งานขนาดใหญ่ เช่น สถานที่ใน Plano, Texas มูลค่า $1.6 พันล้านบาท ซึ่งมี H100 GPU มากกว่า 3,500+ ตัวใน 454,421 ตารางฟุต ในการส่งผลงาน MLPerf Training v5.0 (มิถุนายน 2025) CoreWeave, NVIDIA และ IBM บรรลุการทดสอบขนาดใหญ่ที่สุดเท่าที่เคยมีมาโดยใช้ GB200 GPU จำนวน 2,496 ตัวเพื่อฝึก Llama 3.1 405B ใน 27.3 นาที ซึ่งเร็วกว่าคลัสเตอร์ขนาดเทียบเคียงจากผู้ส่งผลงานรายอื่นมากกว่า 2 เท่า

โครงสร้างพื้นฐานด้านพลังงานเป็นจุดสร้างความแตกต่างสำคัญด้วยกำลังการผลิตที่ใช้งานจริงประมาณ 470 เมกะวัตต์และมีสัญญาประมาณ 2.2+ กิกะวัตต์ ณ Q2 2025 รวมถึงสถานที่ที่ออกแบบเพื่อประสิทธิภาพสูงเป็นพิเศษ เทคโนโลยีระบายความร้อนด้วยของเหลวที่รองรับ 130 กิโลวัตต์ต่อแร็ค เทียบกับข้อจำกัดของระบบระบายความร้อนด้วยอากาศแบบดั้งเดิมที่ 30 กิโลวัตต์ ทำให้สามารถปรับใช้การกำหนดค่าแบบหนาแน่นเช่นระบบ NVIDIA GB200 NVL72 ที่บรรจุ 72 GPU ต่อแร็คได้

กองเรือ GPU มุ่งเน้นไปที่สถาปัตยกรรมล่าสุดของ NVIDIA ด้วย GPU ทั้งหมดประมาณ 250,000 ตัวที่ปรับใช้ ส่วนประกอบรวมถึง H100 รุ่นต่างๆ ทั้งในการกำหนดค่า SXM5 และ PCIe, H200 GPU ด้วยหน่วยความจำ HBM3e ขนาด 141GB และการปรับใช้เริ่มต้นของระบบ GB200 NVL72 CoreWeave บรรลุการเปิดให้บริการเชิงพาณิชย์ครั้งแรกของ GB200 NVL72 (กุมภาพันธ์ 2025) และการปรับใช้ครั้งแรกของ GB300 NVL72 (3 กรกฎาคม 2025) โดยรักษารูปแบบการเข้าถึงฮาร์ดแวร์ใหม่ของ NVIDIA ก่อนใครไว้

แกนหลักเครือข่ายใช้ NVIDIA Quantum-2 InfiniBand ส่งมอบ 400Gb/s ต่อ GPU ผ่าน ConnectX-7 adapter ในโทโพโลยี Fat Tree แบบไม่มีการบล็อก ซึ่งบรรลุความล่าช้าน้อยกว่าไมโครวินาทีพร้อมปริมาณงานสูง แม้ว่าความเร็วเครือข่ายดิบจะเทียบเท่ากับการเสนอ hyperscaler ชั้นนำแล้ว การสร้างความแตกต่างอยู่ที่การปรับให้เหมาะสมของโทโพโลยี การรวมตัวจัดกำหนดการ และการกำหนดค่าที่สอดคล้องกันทั่วคลัสเตอร์

สถาปัตยกรรมการจัดเก็บมุ่งเน้นไปที่การปรับใช้ VAST Data Platform โดยใช้สถาปัตยกรรมแบบแยกส่วนเพื่อการขยายขนาดอิสระ ระบบบรรลุปริมาณงานต่อเนื่อง 1 GB/s ต่อ GPU ด้วยรูปแบบ I/O ที่ปรับให้เหมาะสมแยกแยะการอ่านสำหรับการฝึกจากการเขียนเช็คพอยต์ เทคโนโลยี LOTA (Local Object Transfer Accelerator) ของ CoreWeave จัดเก็บข้อมูลที่เข้าถึงบ่อยไว้ใน GPU node ลดการจราจรเครือข่ายพร้อมปรับปรุงปริมาณงาน

software stack ที่ปรับแต่งเพื่อประสิทธิภาพ bare-metal สูงสุด

สถาปัตยกรรม bare-metal Kubernetes ของ CoreWeave ช่วยขจัดค่าใช้จ่ายจาก virtualization overhead โดยการรัน Kubernetes โดยตรงบน hardware วิธีการนี้ให้การเข้าถึง hardware โดยตรงในขณะที่ยังคงรักษา multi-tenancy ผ่าน NVIDIA BlueField DPUs การทดสอบภายในอ้างว่าสิ่งนี้ช่วยให้ได้ Model FLOPS Utilization มากกว่า 50% บน Hopper GPUs ซึ่งสูงกว่า public baselines ประมาณ 20% แม้ว่าการตรวจสอบอิสระของตัวเลขเฉพาะเจาะจงเหล่านี้ยังคงมีจำกัด

CoreWeave Kubernetes Service (CKS) ขยายเกินกว่า managed Kubernetes ทั่วไปโดยอนุญาตให้ลูกค้าควบคุม data plane components ในขณะที่ CoreWeave จัดการ control plane CKS ได้รับการกำหนดค่าล่วงหน้าด้วย GPU drivers, network/storage interfaces และ observability plugins โดยรวมเข้ากับเครื่องมือ workload orchestration รวมทั้ง Slurm, KubeFlow และ KServe

SUNK (Slurm on Kubernetes) เชื่อมต่อ paradigms ของ HPC และ cloud โดยการ deploy Slurm เป็น containerized Kubernetes resources ทำให้สามารถแบ่งปัน resource แบบไดนามิกระหว่าง batch jobs และ long-running services ได้ ระบบนี้บรรลุ utilization สูงผ่าน topology-aware scheduling ที่ปรับแต่งสำหรับการกำหนดค่า InfiniBand fabric

เทคโนโลยี Tensorizer เร่งการ deploy model ผ่านการ serialization และ streaming ที่ปรับแต่ง โดยบรรลุความเร็วในการโหลด model ที่เร็วกว่าวิธีการมาตรฐาน 5 เท่าตามการทดสอบของ CoreWeave เครื่องมือ open-source นี้ช่วยให้สามารถโหลดแบบ "zero-copy" ที่ stream models เป็น chunk-by-chunk แทนที่จะโหลด entire models เข้าสู่ RAM

การปรับใช้ที่ล้ำสมัยพร้อมเกณฑ์มาตรฐานประสิทธิภาพที่ได้รับการตรวจสอบ

ความสำเร็จด้านโครงสร้างพื้นฐานของ CoreWeave รวมถึงการส่งผลงาน MLPerf ที่ตรวจสอบได้ซึ่งแสดงให้เห็นถึงขนาดและประสิทธิภาพ การส่งผลงาน MLPerf Training v5.0 ในเดือนมิถุนายน 2025 โดยใช้ GPU NVIDIA GB200 จำนวน 2,496 ตัว สามารถฝึก Llama 3.1 405B ให้เสร็จสิ้นใน 27.3 นาที—เป็นการส่งผลงานขนาดใหญ่ที่สุดจากผู้ให้บริการคลาวด์รายใดๆ และเร็วกว่าขนาดคลัสเตอร์ที่เทียบเคียงได้มากกว่า 2 เท่า

ประสิทธิภาพ Inference ถึง 800 tokens ต่อวินาทีบน Llama 3.1 405B โดยใช้ระบบ GB200 ตามผลลัพธ์ MLPerf Inference v5.0 แสดงการปรับปรุงประสิทธิภาพต่อชิป 2.86 เท่าเมื่อเทียบกับ H200 สถาปัตยกรรม GB200 NVL72 ผสมผสาน GPU Blackwell 72 ตัวกับ CPU Grace 36 ตัวต่อแร็ก ให้ประสิทธิภาพ 1.44 exaFLOPS พร้อมหน่วยความจำขนาด 13.5TB ที่เชื่อมต่อด้วย NVLink

ระบบการจัดอันดับ ClusterMAX ของ SemiAnalysis จัดให้เฉพาะ CoreWeave อยู่ในระดับ Platinum ในการเปิดตัวช่วงมีนาคม-เมษายน 2025 โดยประเมินเทียบกับ AWS, Google Cloud, Azure และผู้ให้บริการอื่นๆ ในด้านข้อกำหนดทางเทคนิคกว่า 50 รายการ การประเมินอิสระนี้ยืนยันความแตกต่างทางเทคนิค แม้ว่าระบบการจัดอันดับจะวางแผนที่จะอัปเดตเป็นประจำเมื่อสภาพการแข่งขันเปลี่ยนแปลงไป

ความร่วมมือด้านเทคโนโลยีช่วยเร่งความสามารถของแพลตฟอร์ม

ความร่วมมือกับ NVIDIA มีมิติที่ลึกกว่าความสัมพันธ์ของผู้จำหน่ายทั่วไป โดย NVIDIA ถือหุ้นประมาณ 6% ซึ่งมีมูลค่าเกือบ 1.6 พันล้านดอลลาร์ ณ เดือนพฤษภาคม 2025 การบูรณาการอย่างลึกซึ้งนี้แสดงออกมาในรูปของการนำ architecture ใหม่ออกสู่ตลาดเป็นรายแรกอย่างสม่ำเสมอ และความร่วมมือในการพัฒนาการปรับแต่งประสิทธิภาพร่วมกัน การส่ง MLPerf ร่วมกันแสดงให้เห็นถึงความร่วมมือด้านเทคนิคนี้

การใช้โครงสร้างพื้นฐานของ CoreWeave ของ IBM สำหรับการฝึกโมเดล Granite ใช้ประโยชน์จากระบบ GB200 พร้อมเครือข่าย Quantum-2 InfiniBand ความร่วมมือด้านโครงสร้างพื้นฐานของ Dell รวมถึงเซิร์ฟเวอร์ PowerEdge XE9712 พร้อม GB200 NVL72 ในแรคระบายความร้อนด้วยของเหลว VAST Data ให้พลังการจัดเก็บข้อมูลทั่วทุกศูนย์ข้อมูลของ CoreWeave ผ่านแพลตฟอร์ม disaggregated architecture

การซื้อกิจการ Weights & Biases มูลค่าประมาณ 1.7 พันล้านดอลลาร์ (เสร็จสิ้นเมื่อ 5 พฤษภาคม 2025) สร้างแพลตฟอร์ม AI แบบบูรณาการที่รวมโครงสร้างพื้นฐานเข้ากับความสามารถด้าน MLOps แพลตฟอร์มที่ใช้โดยองค์กรมากกว่า 1,400 แห่ง รวมถึง OpenAI และ Meta ยังคงการทำงานร่วมกันได้ในขณะที่เพิ่มเครื่องมือพัฒนาและติดตามโมเดล

เส้นทางอนาคตสร้างสมดุลระหว่างการเติบโตกับความยั่งยืนทางการเงิน

โครงการริเริ่มเชิงอนาคตของ CoreWeave ประกอบด้วยการพัฒนาหลักหลายประการ การปรับใช้ GB300 NVL72 (กรกฎาคม 2025) มีแนวโน้มที่จะให้สิ่งที่ NVIDIA โฆษณาว่า "การปรับปรุง 50 เท่าในผลลัพธ์ inference ของโมเดล reasoning" แม้ว่านี่จะแสดงถึงการคาดการณ์จากผู้จำหน่ายมากกว่าเกณฑ์มาตรฐานที่ได้รับการตรวจสอบอย่างอิสระ Spot GPU rental ที่เปิดตัวในปลายปี 2025 จะให้บริการอินสแตนซ์แบบขัดจังหวะต้นทุนต่ำพร้อมการกำหนดราคาแบบไดนามิก

การขยายตัวในยุโรปมูลค่ารวม 3.5 พันล้านดอลลาร์สร้างอำนาจอธิปไตยด้านข้อมูลผ่านสิ่งอำนวยความสะดวกที่ขับเคลื่อนด้วยพลังงานทดแทนเพื่อตอบสนองข้อกำหนด GDPR บริษัทยังคงขยายขนาดไปสู่กำลังการผลิตไฟฟ้าภายใต้สัญญา 1.6 กิกะวัตต์ พร้อมขยายขีดความสามารถของระบบระบายความร้อนด้วยของเหลวเพื่อรองรับฮาร์ดแวร์รุ่นใหม่

ความท้าทายทางการเงินต้องการการนำทางอย่างระมัดระวัง ด้วยหนี้สินมากกว่า 11 พันล้านดอลลาร์ที่สร้างค่าใช้จ่ายดอกเบี้ยประมาณ 1 พันล้านดอลลาร์ต่อปี CoreWeave ต้องสร้างสมดุลระหว่างการเติบโตอย่างก้าวร้าวกับเส้นทางสู่ความสามารถในการทำกำไร ความเสี่ยงจากการกระจุกตัวของลูกค้ายังคงอยู่ในระดับสูงโดยที่ Microsoft เป็นตัวแทน 62% ของรายได้ในปี 2024 บริษัทรายงานการขาดทุนที่เพิ่มขึ้นในไตรมาส 2 ปี 2025 แม้ว่าจะทำรายได้รายไตรมาสได้ 1.21 พันล้านดอลลาร์

โอกาสทางการตลาดยังคงมีขนาดใหญ่ โดย IDC คาดการณ์ว่าการใช้จ่ายในโครงสร้างพื้นฐาน AI จะอยู่ที่ 500 พันล้านดอลลาร์ต่อปีภายในปี 2027 แนวทางเฉพาะทางและข้อได้เปรียบทางเทคนิคของ CoreWeave ทำให้พวกเขาอยู่ในตำแหน่งที่สามารถสร้างมูลค่าที่สำคัญ แม้ว่าความเสี่ยงจากการดำเนินงานจะยังคงอยู่เนื่องจากความต้องการทุน พลวัตการแข่งขัน และความจำเป็นในการกระจายฐานลูกค้าในขณะที่รักษาโมเมนตัมการเติบโตไว้

## สรุป

CoreWeave ได้สร้างโครงสร้างพื้นฐาน AI เฉพาะทางที่ให้ข้อได้เปรียบที่วัดผลได้ผ่านสถาปัตยกรรม bare-metal Kubernetes ระบบระบายความร้อนด้วยของเหลวที่รองรับความหนาแน่นแร็ค 130kW และการปรับใช้เทคโนโลยีล่าสุดของ NVIDIA แบบ first-to-market อย่างสม่ำเสมอ การเปลี่ยนแปลงจากการขุด cryptocurrency มาเป็นผู้ให้บริการเพียงรายเดียวที่ได้รับการจัดอันดับ Platinum ในระบบ ClusterMAX ของ SemiAnalysis (ณ เดือนมีนาคม 2025) แสดงให้เห็นถึงการดำเนินกลยุทธ์ที่มุ่งเน้นอย่างสำเร็จ ด้วยความสำเร็จที่ตรวจสอบได้รวมถึงการส่งผลงาน MLPerf Training ที่ใหญ่ที่สุด—Llama 3.1 405B ใน 27.3 นาทีโดยใช้ GB200 GPU จำนวน 2,496 ตัว—และรายได้ค้างรับตามสัญญา 30.1 พันล้านดอลลาร์ CoreWeave ได้ก่อตั้งตัวเองเป็นโครงสร้างพื้นฐานที่สำคัญสำหรับการพัฒนา AI

อย่างไรก็ตาม เส้นทางข้างหน้าต้องเผชิญกับความท้าทายที่สำคัญ รวมถึงหนี้สินกว่า 11 พันล้านดอลลาร์ การพึ่งพาลูกค้าโดยที่ Microsoft เป็นตัวแทนรายได้ส่วนใหญ่ของปี 2024 และการแข่งขันจากข้อเสนอ hyperscaler ที่มีความสามารถเพิ่มขึ้น ในขณะที่บริษัทขยายขนาดไปสู่กำลังไฟฟ้าตามสัญญาประมาณ 2.2 gigawatt และปรับใช้ระบบรุ่นใหม่ ความสามารถในการรักษาความเป็นผู้นำด้านเทคนิคในขณะที่บรรลุความยั่งยืนทางการเงินจะเป็นตัวกำหนดว่าอดีตนักขุด crypto รายนี้สามารถเปลี่ยนแปลงภูมิทัศน์โครงสร้างพื้นฐาน AI อย่างถาวรได้หรือไม่

ข้อมูลเป็นปัจจุบันถึง 15 สิงหาคม 2025 แหล่งข้อมูลรวมถึงเอกสารของบริษัท เอกสาร SEC การทดสอบ MLPerf และการวิเคราะห์อุตสาหกรรมจาก SemiAnalysis

อ้างอิง

  • CoreWeave, Inc. — Form S‑1 (initial registration statement), U.S. SEC, ยื่นเมื่อ 3 มีนาคม 2025 (ประวัติรายได้; การเติบโต 737% ในปี 2024; ข้อมูลพื้นฐานบริษัท) (SEC)

  • CoreWeave, Inc. — Prospectus (Form 424B4), U.S. SEC, เมษายน 2025 (การกระจุกตัวของลูกค้า; Microsoft = 62% ของรายได้ปี 2024) (SEC)

  • CoreWeave — "CoreWeave Reports Strong Second Quarter 2025 Results", Business Wire/IR, 12 สิงหาคม 2025 (Q2 รายได้ $1.212B, backlog $30.1B; active ~470 MW, contracted ~2.2 GW; OpenAI $11.9B + $4B expansion) (Business Wire)

  • Reuters — "CoreWeave revenue beats estimates on AI boom but shares fall on bigger loss", 12 สิงหาคม 2025 (ผลลัพธ์ Q2; 33 data centers) (Reuters)

  • Reuters — "CoreWeave raises $7.5 billion in debt at $19B valuation", 17 พฤษภาคม 2024 (Private credit; การประเมินมูลค่า $19B)

  • Reuters — "CoreWeave closes $650 million secondary share sale… valued at $23 billion", 13 พฤศจิกายน 2024 (การประเมินมูลค่าตลาดรอง $23B) (Reuters)

  • SemiAnalysis — "Introducing the Cloud GPU Performance Rating System — ClusterMAX (Q2 2025)", เมษายน 2025 (วิธีการ ClusterMAX; CoreWeave = Platinum) (SemiAnalysis)

  • CoreWeave — "Blackwell at Scale: General Availability of GB200 NVL72 on CoreWeave", 4 กุมภาพันธ์ 2025 (ผู้แรกที่มี GA กับ GB200 NVL72) (Reuters)

  • CoreWeave — "First NVIDIA GB300 NVL72 Deployment" (blog), 3 กรกฎาคม 2025 (การ deployment GB300 NVL72 ครั้งแรก) (CoreWeave)

  • NVIDIA Developer Blog — "Blackwell Ultra for the Era of AI Reasoning", 19 มีนาคม 2025 ("10× TPS per user" + "5× TPS per MW" ⇒ "up to 50× output"** คำอ้างทางการตลาด) (NVIDIA Developer)

  • MLCommons — MLPerf Training v5.0 Results (2025) (Llama‑3.1 405B 27.3 นาที บน 2,496 GB200; การส่งผลงานที่ใหญ่ที่สุด) (Microsoft Learn)

  • MLCommons — MLPerf Inference v5.0 (Data Center) Results (2025) (Llama‑3.1 405B throughput/latency รวมการเปรียบเทียบ GB200 vs H200 ที่ใช้ในสรุปของผู้จำหน่าย) (Microsoft Learn)

  • AWS — P5 Instances / EFA Networking (official doc/blog) (เครือข่าย instance สูงสุด 3,200 Gbps บน p5 ด้วย EFA/SR‑IOV) (Amazon Web Services, Inc.)

  • Microsoft Azure — "ND H100 v5‑Series (Preview)" product page (เครือข่าย 1.6–3.2 Tbps‑class) (AWS Documentation)

  • Google Cloud Blog — "A3 Ultra: 3.2 Tbps of GPU networking per VM" (เนื้อหาการเปิดตัว A3/A3 Ultra) (3.2 Tbps ต่อ VM) (Google Cloud)

  • Dell Technologies — "Dell ships first PowerEdge XE9712 servers with NVIDIA GB200 NVL72 to CoreWeave", 20 มิถุนายน 2025 (พาร์ทเนอร์จัดส่งแบบ rack‑scale, liquid‑cooled) (CoreWeave)

  • VAST Data — "Scale‑out AI performance at CoreWeave" (case study/solution page), 2025 (VAST ติดตั้งทั่ว CoreWeave DCs; สถาปัตยกรรม I/O) (CoreWeave)

  • Weights & Biases — "We're joining CoreWeave" (ประกาศการซื้อกิจการ), 5 พฤษภาคม 2025 (การปิดดีล W&B/เวลา; ทิศทางการบูรณาการ) (FinTech Weekly - Home Page)

  • Reuters — "CoreWeave to invest an additional $2.2B in Europe, taking total to $3.5B", 5 มิถุนายน 2024 (ขนาด/สถานที่ขยายตัวในยุโรป) (Reuters)

  • Investor's Business Daily — "Nvidia‑backed CoreWeave's IPO filing shows big revenue jump… Microsoft 62%; Nvidia 6% stake", มีนาคม 2025 (ยืนยัน ~6% NVIDIA stake ตามที่ระบุในเอกสารยื่น/ข่าวประชาสัมพันธ์) (Investors)

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING