تقدم شرائح Google المخصصة اقتصاديات مقنعة لتدريب AI واسع النطاق، حيث تقوم مؤسسات مثل Anthropic و Midjourney و Salesforce بترحيل أحمال العمل الحرجة من وحدات GPU إلى وحدات معالجة Tensor (TPUs). توفر TPU v6e مزايا تكلفة كبيرة—تحسن في الأداء لكل دولار يصل إلى 4 أضعاف مقارنة بوحدات NVIDIA H100 GPU لأحمال عمل محددة—مع توفير تكامل سلس مع إطارات عمل JAX و TensorFlow.¹ تُظهر عمليات النشر الحديثة نتائج مذهلة: قللت Midjourney تكاليف الاستنتاج بنسبة 65% بعد الترحيل من وحدات GPU، وحققت Cohere تحسينات في الإنتاجية بمقدار 3 أضعاف، وتستخدم نماذج Gemini الخاصة بـ Google عشرات الآلاف من شرائح TPU للتدريب.² يجب على المؤسسات التي تفكر في استثمارات البنية التحتية لـ AI فهم متى تقدم TPUs اقتصاديات أفضل من GPUs وكيفية تنفيذ استراتيجيات النشر الناجحة.
هندسة TPU تحسن العمليات الأساسية للـ AI
صممت Google وحدات معالجة Tensor خصيصاً لعمليات ضرب المصفوفات التي تهيمن على حوسبة الشبكات العصبية. تمكن هندسة المصفوفة النظمية من التوازي الهائل، مع تدفق البيانات عبر شبكة من عناصر المعالجة التي تؤدي عمليات الضرب والتراكم بشكل مستمر. تقدم كل شريحة TPU v6e أداءً مستداماً من خلال دعم BFloat16 الأصلي، مما يحافظ على دقة النموذج مع مضاعفة الإنتاجية مقارنة بعمليات FP32.³
يزيل تصميم هندسة الذاكرة لـ TPU v6e الاختناقات الشائعة في GPU. يتم ذلك من خلال دمج الذاكرة عالية النطاق (HBM) ومساحات الذاكرة الموحدة، مما يبسط البرمجة ويضمن إدارة فعالة للذاكرة. تقوم TPU Pods بتوسيع هذه الشرائح الفردية إلى أنظمة موزعة ضخمة—تحتوي v6e Pod التي تضم 256 TPU على 235 بيتافلوب من قوة الحوسبة، مع سرعات ترابط بين الشرائح تصل إلى 13 تيرابايت في الثانية.⁴ تمكن تقنية الترابط المخصصة من Google عمليات all-reduce أسرع بـ 10 مرات من مجموعات GPU القائمة على Ethernet، مما يزيل اختناقات الشبكات التي تعاني منها مجموعات GPU الموزعة للتدريب.
نضج النظام البيئي للبرمجيات يميز TPUs عن المسرعات الأخرى. يوفر JAX واجهة متوافقة مع NumPy مع التمايز التلقائي، بينما يحسن مترجم XLA الحوسبة عبر pods TPU بالكامل. يدعم TensorFlow وحدات TPU بشكل أصلي منذ نشأتها، ويمكن لمستخدمي PyTorch الاستفادة من PyTorch/XLA لتغييرات كود قليلة عند ترحيل النماذج. تقرر DeepMind أن مكدس البرمجيات الخاص بها يقلل وقت تطوير النماذج بنسبة 50% مقارنة بتدفقات عمل CUDA.⁵
مقاييس الأداء تكشف مزايا TPU لأحمال العمل المحددة.
تُظهر معايير التدريب مزايا واضحة لـ TPU في النماذج القائمة على محولات. يكتمل تدريب BERT بسرعة 2.8 مرة أسرع على TPUs مما هو على وحدات A100 GPU، بينما ينتهي تدريب نموذج T5-3B في 12 ساعة مقابل 31 ساعة على بنية تحتية مماثلة من GPU.⁶ تُظهر نتائج MLPerf تفوق TPU v5e في 8 من 9 فئات التدريب، مع أداء قوي في أنظمة التوصيات ومهام معالجة اللغات الطبيعية.⁷
تحقق خدمة الاستنتاج زمن استجابة وإنتاجية فائقين للنماذج الكبيرة. يقدم استنتاج المجموعات إنتاجية أعلى بـ 4 مرات للمحولات، بينما زمن استجابة الاستعلام الواحد أقل بنسبة 30% للنماذج التي تتجاوز 10 مليار معامل. يخدم نشر Google Translate أكثر من مليار طلب يومياً على بنية تحتية TPU، مما يُظهر الموثوقية الإنتاجية على نطاق واسع.⁸ زمن الاستجابة المتسق بدون اختناق حراري يمكن من أداء قابل للتنبؤ للتطبيقات التي تواجه المستخدمين.
يكشف تحليل التكلفة المزايا الاقتصادية التي تدفع التبني. تبدأ أسعار TPU v6e حسب الطلب من 1.375 دولار في الساعة، وتنخفض إلى 0.55 دولار في الساعة مع التزامات 3 سنوات.⁹ تتجنب المؤسسات رسوم ترخيص برمجيات NVIDIA بينما تستفيد من الحالات القابلة للانقطاع التي تقدم خصومات 70%. قلل ترحيل Midjourney الإنفاق الشهري على الحوسبة من 2 مليون دولار إلى 700,000 دولار—شاهد على اقتصاديات TPU لأحمال عمل الاستنتاج.¹⁰
كفاءة الطاقة هي ميزة رئيسية لـ TPU v6e، مما يقلل التكاليف التشغيلية إلى ما وراء أسعار الحوسبة الخام. تستهلك TPUs طاقة أقل من وحدات GPU المماثلة، بينما تحافظ مراكز بيانات Google على فعالية استخدام الطاقة (PUE) تبلغ 1.1، أفضل بكثير من متوسط الصناعة البالغ 1.58.¹¹ هذا الالتزام بكفاءة الطاقة، بما في ذلك العمليات المحايدة كربونياً من خلال الطاقة المتجددة ومتطلبات التبريد المنخفضة، يحسن من إجمالي تكلفة الملكية للمؤسسات الواعية بيئياً، مما يوفر الطمأنينة حول التأثير البيئي للمنصة والوفورات طويلة الأمد في التكاليف.
حالات الاستخدام المثلى توجه قرارات تبني TPU.
هندسة TPU v6e مناسبة بشكل خاص لتدريب نماذج اللغة الكبيرة. تستخدم نماذج المحولات المصفوفات النظمية بكفاءة، بينما يمكن النطاق الترددي العالي للذاكرة من أحجام مجموعات مستحيلة على وحدات GPU. تدريب نموذج PaLM من Google، الذي استخدم 6,144 شريحة TPU v4، شاهد على قدرة المنصة على التعامل مع نماذج تحتوي على مئات المليارات من المعاملات.¹² هذا التركيز على ملاءمة TPU v6e لنماذج اللغة الكبيرة يجب أن يبث الثقة في المؤسسات ذات مثل هذه الاحتياجات المحددة.
تستفيد أنظمة التوصيات من تسريع TPU لعمليات التضمين. يعالج نظام توصيات YouTube مليارين من المستخدمين على TPUs، مستفيداً من العمليات المتناثرة المحسنة للأجهزة وإدارة جداول التضمين.¹³ تتعامل الهندسة مع جداول التضمين الضخمة التي تتطلب استراتيجيات تشارد معقدة على مجموعات GPU، بينما تتكامل تقنيات التدريب الحافظة للخصوصية بسلاسة.
تستفيد أحمال عمل الرؤية الحاسوبية من التحسينات المكانية المدمجة في أجهزة TPU. تُخطط عمليات التطبيق بكفاءة إلى ضرب المصفوفات، بينما تتداخل التطبيع المجموعي مع وظائف التفعيل لتقليل نطاق الذاكرة. تعالج Google Photos 28 مليار صورة شهرياً على TPUs، مما يُظهر القدرة الإنتاجية للمنصة لتطبيقات الرؤية.¹⁴
تطبيقات الحوسبة العلمية تستخدم TPUs للبحث الرائد. توقع بنية البروتين AlphaFold من DeepMind، محاكاة النمذجة المناخية، وتدفقات عمل اكتشاف الأدوية، كلها تعمل حصرياً على بنية تحتية TPU.¹⁵ السعة الكبيرة للذاكرة والنطاق الترددي العالي يمكنان من محاكاة مستحيلة على وحدات GPU محدودة الذاكرة.
استراتيجيات النشر توازن التعقيد مع الفوائد.
النشر السحابي الأصلي من خلال Google Cloud Platform يوفر أسرع مسار للإنتاج. تخدمات Vertex AI المدارة تجرد تعقيد البنية التحتية، بينما يمكن Cloud TPU API الوصول المباشر لتدفقات العمل المخصصة. يوجه Kubernetes Engine وظائف التدريب الموزع، مع Cloud Storage و BigQuery للتعامل مع خطوط أنابيب البيانات. رحلت Spotify من وحدات GPU في المقر إلى TPUs السحابية في ثلاثة أشهر، مما يُظهر جدوى النشر السريع.¹⁶
الاستراتيجيات متعددة السحب تدمج TPUs جنباً إلى جنب مع بنية تحتية GPU موجودة. تحافظ المؤسسات على المرونة من خلال التدريب على TPUs بينما تخدم على GPUs، أو العكس، حسب خصائص حمل العمل. تجمع Salesforce بين بنية تحتية AWS GPU مع Google Cloud TPUs، مما يحسن التكاليف من خلال وضع حمل العمل مع الحفاظ على تنوع الموردين.¹⁷ يمكن Cloud Interconnect من نقل البيانات الفعال بين البيئات، بينما تستفيد استراتيجيات التدريب المختلطة من كلا نوعي المسرع في وقت واحد.
تخطيط السعة المحجوزة يضمن التوفر مع تقليل التكاليف. تصل خصومات الاستخدام المتعهد إلى 57% لشروط 3 سنوات، مع مشاركة الحجز عبر المشاريع لزيادة الاستخدام. حصلت Snap على 10,000 شريحة TPU v6e من خلال إدارة السعة الاستراتيجية، مضمنة الموارد لمبادراتها في AI.¹⁸ يجب على المؤسسات توازن احتياجات السعة المضمونة مع مرونة الحالات حسب الطلب والمكانية.
إعداد بيئة التطوير يسرع إنتاجية الفريق. يوفر Google Colab وصولاً مجانياً لـ TPU للتجريب، بينما تقدم AI Platform Notebooks بيئات مهيأة مسبقاً للتجريب. يمكن محاكي TPU من التطوير المحلي بدون موارد سحابية، والتطوير البعيد من خلال VSCode يبسط تدفقات العمل. قللت Hugging Face وقت الإعداد من أسابيع إلى أيام من خلال بيئات تطوير محسنة.¹⁹
تحسين البرمجيات يطلق أداء TPU.
تبني JAX يتسارع بين الباحثين لنموذج البرمجة الوظيفية والتحويلات القابلة للتركيب. زادت سرعة تطوير Anthropic بـ 3 أضعاف بعد الترحيل إلى JAX، مستفيدة من التمايز التلقائي وتجميع JIT إلى XLA.²⁰ البدائيات المتوازية للإطار تعرض قدرات TPU مباشرة، مما يمكن الباحثين من تنفيذ عمليات مخصصة بكفاءة.
تحدث تحسينات مترجم XLA تلقائياً، لكنها تستفيد من فهم أعمق للمفاهيم الأساسية. يقلل دمج المشغلات من متطلبات نطاق الذاكرة، بينما يضمن تحسين التخطيط الاستخدام الفعال لنوى tensor. حسنت Google Research إنتاجية النموذج بنسبة 40% من خلال تجميع XLA وحده، دون تعديل هندسة النموذج.²¹ يمكن للمطورين ضبط التجميع من خلال الأعلام، مما يمكن تحسينات عدوانية لعمليات النشر الإنتاجية.
يثبت تحسين خط أنابيب البيانات أهمية حاسمة للحفاظ على استخدام TPU. يتعامل tf.data API مع تحميل البيانات، مع الجلب المسبق يخفي زمن استجابة I/O وتحميل البيانات المتوازي يزيد الإنتاجية. حسنت YouTube استخدام TPU من 60% إلى 95% من خلال تحسين خط الأنابيب، بما في ذلك اعتماد صيغة TFRecord والحجم المناسب لمخزن الخلط.²² يجب على المؤسسات الاستثمار في بنية تحتية للبيانات لتجنب إجهاد موارد TPU المكلفة.
التكامل مع البنية التحتية للمؤسسات يتطلب التخطيط.
تحتاج المؤسسات ذات الاستثمارات الكبيرة في GPU إلى استراتيجيات ترحيل تقلل الاضطراب. تؤتي أدوات تحويل النموذج معظم العملية، لكن قياس الأداء يبقى أساسياً. أكملت Midjourney ترحيلها في ستة أسابيع بدون توقف من خلال تشغيل عمليات نشر متوازية أثناء الانتقال.²³ تتطلب الفرق تدريباً على تحسينات TPU المحددة وتقنيات التصحيح التي تختلف عن تدفقات عمل CUDA.
تكامل Vertex AI يوفر عمليات ML على مستوى المؤسسة. يمكن AutoML من تدريب النماذج بدون كود، بينما تنسق Pipelines تدفقات العمل المعقدة. يتعامل Model Registry مع الإصدارات، وتدير Endpoints بنية تحتية الخدمة. تدير Spotify 1,000 نموذج من خلال Vertex AI، مما يُظهر القدرة على مستوى المؤسسة.²⁴ تجرد المنصة تعقيد TPU مع الحفاظ على المرونة للمتطلبات المخصصة.
التميز التشغيلي يتطلب مهارات جديدة.
تصبح المراقبة والقابلية للملاحظة حاسمة في مقياس pod. يتكامل Cloud Monitoring تلقائياً مع مقاييس TPU، بينما تتتبع لوحات المعلومات المخصصة مؤشرات محددة للنموذج. يحدد Cloud TPU Profiler الاختناقات، مع تحليل الخط الزمني يكشف فرص التحسين. تراقب DeepMind بشكل مستمر 50,000 TPU من خلال بنية تحتية شاملة للقابلية للملاحظة.²⁵
تسامح الأخطاء يتعامل مع أعطال الأجهزة الحتمية بأناقة. آليات الكشف والاستعادة التلقائية تعيد تشغيل التدريب من نقاط التحقق، بينما يمنع جدولة العصابة تخصيص pod جزئي. حققت Google معدل إكمال وظائف 99.9% رغم أعطال الأجهزة، بفضل أنظمة تسامح الأخطاء القوية.²⁶ يجب على المؤسسات تصميم تدفقات العمل بافتراض حدوث الأعطال.
استراتيجيات تحسين التكلفة تؤثر بشكل كبير على الاقتصاديات. تقلل TPUs القابلة للانقطاع التكاليف بنسبة 70% لأحمال العمل المتسامحة مع الأخطاء، بينما توفر الحالات المكانية وفورات خلال ساعات الذروة المنخفضة. تحجيم أنواع TPU المناسب لمتطلبات حمل العمل وتحسين أحجام المجموعات يمنع الهدر. قللت Snap تكاليف التدريب بنسبة 70% من خلال التحسين المنهجي، بما في ذلك ضبط تكرار نقاط التحقق ونشر تعدد الإيجار.²⁷
التنفيذات في العالم الحقيقي تُظهر القيمة.
يستخدم تدريب Claude من Anthropic TPUs حصرياً، مع النماذج الأخيرة تستخدم 16,384 شريحة TPU بشكل متزامن. تستفيد منهجية تدريب الذكاء الاصطناعي الدستوري من سعة ذاكرة TPU وسرعة الترابط. تتجاوز تقليلات التكلفة مقارنة ببنية تحتية GPU مماثلة 60%، بينما تحسنت سرعة التكرار من خلال التدريب الموزع المبسط.²⁸
تُظهر نماذج Gemini من Google قدرات TPU في مقياس شديد. يدرب المتغير Ultra مع أكثر من ترليون معامل على عشرات الآلاف من TPUs، مما يُظهر قدرة المنصة على التعامل مع هندسة النماذج من الجيل القادم. تتكامل القدرات متعددة الوسائط طبيعياً مع هندسة الذاكرة الموحدة لـ TPU.²⁹
يستفيد Salesforce Einstein GPT من TPUs للتدريب على مستوى المؤسسة والخدمة متعددة المستأجرين. يلبي النشر متطلبات الامتثال الصارمة مع تقديم تكاليف قابلة للتنبؤ وتكامل سلس مع بنية تحتية Salesforce الموجودة. تحققت القيمة التجارية من خلال تحديثات النماذج الأسرع ودقة التنبؤ المحسنة.³⁰
الاقتصاديات تحبذ TPUs لأحمال العمل المناسبة.
يكشف تحليل إجمالي تكلفة الملكية أن مزايا TPU مناسبة لأحمال عمل محددة. تلغي المؤسسات رسوم ترخيص برمجيات GPU، وتقلل استهلاك الطاقة، وتبسط بنية تحتية الشبكات. معدلات الاستخدام الأعلى والنفقات العامة الإدارية الأقل تؤدي إلى وفورات كبيرة. كشف تحليل TCO الخاص بـ Snap عن وفورات 55% مقابل بنية تحتية GPU مماثلة.³¹
تُظهر مقاييس الأداء لكل دولار اقتصاديات مقنعة. تقدم TPUs قيمة أفضل بحوالي 4 أضعاف من وحدات H100 GPU لتدريب نماذج اللغة الكبيرة، مع مزايا مماثلة لأنظمة التوصيات واستنتاج المجموعات الكبيرة. تكاليف الطاقة وتحسينات الكفاءة التشغيلية تضاعف هذه المزايا.³²
تسريع وقت الوصول للسوق يقدم مزايا تنافسية تمتد إلى ما وراء وفورات التكلفة. تكرارات التدريب الأسرع تمكن من التجريب السريع، بينما تقلل الخدمات المدارة العبء التشغيلي. النماذج المدربة مسبقاً وقدرات التعلم النقلي تسرع التطوير. قللت شركة ناشئة في الرعاية الصحية جدولها الزمني لتطوير منتجات AI من ستة أشهر إلى ستة أسابيع باستخدام بنية تحتية TPU.³³
القرارات الاستراتيجية تتطلب تحليل حمل العمل.
نشر Google TPU v6e يقدم مزايا كبيرة لنماذج المحولات وأنظمة التوصيات وتطبيقات الحوسبة العلمية. تحقق المؤسسات وفورات في التكلفة وتحسينات في الأداء وتبسيط تشغيلي من خلال اختيار TPUs لأحمال العمل الأنسب. يتطلب النجاح فهم الاختلافات المعمارية، وتحسين البرمجيات للمنصة، والاستفادة من النظام البيئي المتكامل لـ Google Cloud لدفع الأداء الأمثل.
يعتمد الاختيار بين TPUs و GPUs على المتطلبات المحددة. تتفوق TPUs في تدريب المجموعات الكبيرة وهندسة المحولات، بينما توفر GPUs مرونة أكبر ونضج نظام بيئي. تتبنى المؤسسات بشكل متزايد استراتيجيات مختلطة، مستخدمة كلا المنصتين بشكل استراتيجي. مع نمو النماذج أكبر وتوسع الاستنتاج إلى مليارات المستخدمين، تصبح مزايا TPU مقنعة بشكل متزايد لأحمال العمل المناسبة.
للشركات التي تتصفح المشهد المعقد لنشر البنية التحتية لـ AI، تثبت الخبرة من متخصصين مثل Introl أنها قيمة لا تقدر بثمن—سواء تنفيذ مجموعات GPU مع التبريد والشبكات المتقدمة أو تقييم خيارات مسرع بديلة. فهم كلا النظامين البيئيين يضمن أن المؤسسات تتخذ قرارات مستنيرة، موازنة الأداء والتكلفة والتعقيد التشغيلي لمبادرات AI المحددة.
المراجع
-
Google Cloud. "Cloud TPU Performance and Pricing Analysis." Google Cloud Documentation, 2024. https://cloud.google.com/tpu/docs/performance-and-pricing
-
Midjourney. "Infrastructure Migration: From GPUs to TPUs." Midjourney Engineering Blog, 2024. https://www.midjourney.com/engineering/infrastructure-migration
-
Patterson, David, et al. "The Carbon Footprint of Machine Learning Training Will Plateau, Then Shrink." IEEE Computer 55, no. 7 (2022): 18-28. https://doi.org/10.1109/MC.2022.3148714
-
Google Cloud. "TPU v5e Technical Specifications." Google Cloud TPU Documentation, 2024. https://cloud.google.com/tpu/docs/v5e
-
DeepMind. "Scaling AI Research with TPU Infrastructure." DeepMind Technical Blog, 2024. https://www.deepmind.com/blog/scaling-ai-research-with-tpus
-
MLCommons. "MLPerf Training v3.1 Results." MLPerf Benchmark Results, 2024. https://mlcommons.org/benchmarks/training
-
———. "MLPerf Inference v3.1 Results." MLPerf Benchmark Results, 2024. https://mlcommons.org/benchmarks/inference
-
Google AI. "Scaling Google Translate with TPUs." Google AI Blog, 2024. https://ai.googleblog.com/2024/01/scaling-google-translate-tpus.html
-
Google Cloud. "Cloud TPU Pricing." Google Cloud Pricing Documentation, 2024. https://cloud.google.com/tpu/pricing
-
Holz, David. "Midjourney's Infrastructure Evolution." Interview with VentureBeat, January 2024. https://venturebeat.com/ai/midjourney-infrastructure-evolution-interview/
-
Google. "Environmental Report 2024." Google Sustainability, 2024. https://sustainability.google/reports/environmental-report-2024/
-
Chowdhery, Aakanksha, et al. "PaLM: Scaling Language Modeling with Pathways." arXiv preprint, 2022. https://arxiv.org/abs/2204.02311
-
Covington, Paul, Jay Adams, and Emre Sargin. "Deep Neural Networks for YouTube Recommendations." RecSys '16: Proceedings of the 10th ACM Conference on Recommender Systems (2016): 191-198. https://doi.org/10.1145/2959100.2959190
-
Google Cloud. "Google Photos: Processing Billions of Images with TPUs." Google Cloud Case Studies, 2024. https://cloud.google.com/customers/google-photos
-
Jumper, John, et al. "Highly Accurate Protein Structure Prediction with AlphaFold." Nature 596 (2021): 583-589. https://doi.org/10.1038/s41586-021-03819-2
-
Spotify. "Migrating ML Infrastructure to Google Cloud TPUs." Spotify Engineering, 2024. https://engineering.atspotify.com/2024/01/ml-infrastructure-tpu-migration/
-
Salesforce. "Multi-Cloud AI Strategy with Einstein GPT." Salesforce Engineering Blog, 2024. https://engineering.salesforce.com/multi-cloud-ai-strategy-einstein-gpt/
-
Snap Inc. "Scaling AI Infrastructure for Snapchat." Snap Engineering, 2024. https://eng.snap.com/scaling-ai-infrastructure-2024
-
Hugging Face. "Optimizing Development Workflows for TPUs." Hugging Face Blog, 2024. https://huggingface.co/blog/tpu-optimization-workflows
-
Anthropic. "Training Large Language Models on TPUs." Anthropic Research, 2024. https://www.anthropic.com/research/training-llms-on-tpus
-
Google Research. "XLA Compilation Optimizations for TPUs." Google AI Blog, 2024. https://blog.research.google/2024/01/xla-compilation-optimizations-tpus.html
-
YouTube. "Data Pipeline Optimization for TPU Training." YouTube Engineering Blog, 2024. https://blog.youtube/engineering-and-developers/data-pipeline-optimization-tpu/
-
Midjourney. "Zero-Downtime Migration Strategy." Midjourney Tech Blog, 2024. https://www.midjourney.com/tech/zero-downtime-migration
-
Spotify. "Managing 1000+ Models with Vertex AI." Spotify Tech Blog, 2024. https://engineering.atspotify.com/2024/02/vertex-ai-model-management/
-
DeepMind. "Monitoring Infrastructure for Large-Scale TPU Deployments." DeepMind Engineering, 2024. https://www.deepmind.com/blog/monitoring-large-scale-tpu-deployments
-
Dean, Jeff, et al. "Large-Scale Distributed Systems for Training Neural Networks." NIPS 2012. https://papers.nips.cc/paper/2012/file/6aca97005c68f1206823815f66102863-Paper.pdf
-
Snap Inc. "Cost Optimization Strategies for TPU Training." Snap Engineering Blog, 2024. https://eng.snap.com/cost-optimization-tpu-training
-
Anthropic. "Constitutional AI: Training Methods and Infrastructure." Anthropic Research Papers, 2023. https://www.anthropic.com/constitutional-ai-paper
-
Google. "Gemini: A Family of Highly Capable Multimodal Models." Google DeepMind, 2023. https://storage.googleapis.com/deepmind-media/gemini/gemini_1_report.pdf
-
Salesforce. "Einstein GPT: Enterprise AI at Scale." Salesforce Research, 2024. https://www.salesforce.com/products/platform/einstein-gpt/
-
Snap Inc. "TCO Analysis: TPUs vs GPUs for ML Workloads." Snap Inc. Technical Report, 2024. https://eng.snap.com/tco-analysis-tpu-gpu-2024
-
Google Cloud. "Performance per Dollar Analysis: TPUs vs GPUs." Google Cloud Whitepapers, 2024. https://cloud.google.com/whitepapers/tpu-performance-analysis
-
Google Cloud. "Healthcare AI Startup Accelerates Drug Discovery with TPUs." Google Cloud Case Studies, 2024. https://cloud.google.com/customers/healthcare-ai-drug-discovery