Infrastructure IA au Japon : La plus grande économie d'Asie s'éveille
Mis à jour le 11 décembre 2025
Mise à jour de décembre 2025 : Le Japon déploie 135 milliards de dollars d'investissements combinés public/privé dans l'IA. Le METI s'engage à hauteur de 10 000 milliards de yens (65 milliards de dollars) jusqu'en 2030. SoftBank exploite le premier DGX SuperPOD au monde avec DGX B200 (plus de 10 000 GPU, 13,7 EXAFLOPS). SAKURA internet étend sa capacité à 10 800 GPU, y compris des HGX B200. ABCI 3.0 délivre 6,2 EXAFLOPS grâce à des milliers de H200.
Le Japon a passé des décennies à regarder la Silicon Valley dominer la révolution de l'IA depuis les coulisses. Aujourd'hui, la quatrième économie mondiale a libéré 135 milliards de dollars d'investissements combinés publics et privés pour développer des capacités souveraines en IA.¹ L'ampleur des déploiements place le Japon sur la voie d'exploiter certains des supercalculateurs IA les plus puissants au monde d'ici 2026, transformant fondamentalement la façon dont les entreprises à travers l'Asie accèdent à la puissance de calcul GPU.
L'approche japonaise diffère du modèle dominé par les hyperscalers dans d'autres marchés. Les subventions gouvernementales sont versées directement aux fournisseurs cloud nationaux, tandis que les mégacorporations comme SoftBank et NTT construisent des installations IA dédiées conçues pour les besoins des entreprises locales. Comprendre le développement de l'infrastructure japonaise révèle des opportunités pour les organisations cherchant des alternatives aux fournisseurs cloud américains et un accès à une informatique IA spécialisée à des tarifs compétitifs.
Accélération de l'infrastructure soutenue par le gouvernement
Le ministère de l'Économie, du Commerce et de l'Industrie du Japon (METI) a engagé 10 000 milliards de yens (65 milliards de dollars) jusqu'en 2030 pour positionner le pays comme leader mondial de l'IA.² Le ministère a alloué 740 millions de dollars en subventions directes à six entreprises nationales construisant des infrastructures de calcul IA, finançant jusqu'à la moitié de l'investissement de chaque entreprise.³
SAKURA internet a reçu la plus grande allocation individuelle de 50,1 milliards de yens (324 millions de dollars) pour étendre les déploiements GPU de 2 000 à environ 10 800 GPU NVIDIA, y compris une infrastructure HGX B200 de nouvelle génération au centre de données d'Ishikari de l'entreprise.⁴ KDDI a suivi avec 10,2 milliards de yens (66 millions de dollars) pour développer des services cloud IA dans les régions métropolitaines du Japon.
Le projet national phare, ABCI 3.0, illustre l'engagement du Japon envers l'infrastructure IA publique. Hewlett-Packard Enterprise a construit le supercalculateur utilisant des milliers de GPU NVIDIA H200 Tensor Core, délivrant 6,2 exaflops de performance théorique maximale.⁵ L'Institut national des sciences industrielles avancées et de la technologie du Japon (AIST) exploite ABCI 3.0 comme infrastructure informatique ouverte accessible aux chercheurs et entreprises à l'échelle nationale.
Les subventions du METI sont assorties de conditions. Le ministère exige désormais que les centres de données construits après 2029 respectent des normes d'efficacité énergétique sous peine de payer des pénalités.⁶ Le cabinet du Premier ministre Shigeru Ishiba a chargé le METI et le MIC de créer un cadre de « Collaboration Watt-Bit » connectant les opérateurs de centres de données aux compagnies d'électricité pour résoudre les goulets d'étranglement infrastructurels avant qu'ils ne contraignent la croissance.
Le pari de SoftBank sur la domination nationale de l'IA
SoftBank exploite le premier DGX SuperPOD NVIDIA au monde construit avec des systèmes DGX B200, visant plus de 10 000 GPU capables de délivrer 13,7 exaflops de puissance de calcul IA.⁷ L'entreprise prévoit d'étendre la capacité de calcul totale à 25,7 exaflops à mesure que des GPU Blackwell supplémentaires seront disponibles.
La stratégie d'infrastructure de SoftBank couvre deux projets transformateurs de centres de données. L'installation de Tomakomai à Hokkaido couvre 700 000 mètres carrés avec une capacité énergétique de plus de 300 MW, tandis que l'usine Sharp Sakai convertie à Osaka offre initialement 150 MW extensibles à 400 MW.⁸ Les deux installations fonctionnent à 100 % d'énergie renouvelable, répondant aux préoccupations croissantes du Japon en matière de durabilité autour de l'infrastructure IA.
L'investissement positionne SoftBank comme la principale alternative nationale aux services IA des hyperscalers. Les entreprises japonaises travaillant avec des données sensibles ou nécessitant une inférence à faible latence peuvent accéder à une infrastructure GPU de pointe sans router le trafic via des fournisseurs étrangers. L'intégration étroite de SoftBank avec l'infrastructure de télécommunications japonaise permet des scénarios de edge computing impossibles avec les alternatives basées aux États-Unis.
L'offensive infrastructurelle de 59 milliards de dollars de NTT
NTT Corporation a engagé 59 milliards de dollars (8 000 milliards de yens) sur cinq ans pour se transformer en entreprise orientée IA.⁹ La stratégie comprend un rachat de 16,4 milliards de dollars de NTT Data pour consolider les capacités de recherche et de déploiement IA sous une direction unifiée.
Le pipeline de construction de NTT Data comprend le campus de centres de données de Shiroi de 50 MW près de Tokyo via une coentreprise avec TEPCO Power Grid.¹⁰ Le projet du parc inter-industriel de Tochigi ajoute environ 100 MW sur 13 hectares, créant une capacité redondante pour les charges de travail d'entreprise nécessitant une diversité géographique au sein de la région métropolitaine de Tokyo.
L'ampleur de l'engagement de NTT rivalise avec les investissements des hyperscalers sur d'autres marchés. Combiné avec l'infrastructure de télécommunications existante couvrant le Japon, NTT peut offrir des services IA avec une optimisation au niveau du réseau indisponible chez les concurrents étrangers. Les entreprises utilisant déjà la connectivité NTT bénéficient d'une intégration transparente avec l'infrastructure GPU sans reconfigurer leur topologie réseau.
La concurrence des hyperscalers s'intensifie
Les hyperscalers mondiaux reconnaissent l'importance stratégique du Japon et ont engagé 28 milliards de dollars d'investissements combinés suite à la désignation par le gouvernement d'Oracle, Google et Microsoft comme fournisseurs cloud officiels.¹¹
Amazon Web Services a annoncé 15,5 milliards de dollars pour étendre la capacité des centres de données, s'appuyant sur une présence établie dans la région de Tokyo depuis 2011 et la région d'Osaka ajoutée en 2021.¹² L'investissement cible les charges de travail d'IA générative alors que les entreprises japonaises passent de l'expérimentation au déploiement en production.
Google a ouvert son premier centre de données japonais à Inzai en 2023 dans le cadre d'un investissement initial de 730 millions de dollars.¹³ L'entreprise a ensuite annoncé l'approvisionnement de 60 MW d'énergie renouvelable via des partenariats avec Clean Energy Connect et Shizen Energy pour alimenter les opérations étendues.
Microsoft a signé son premier contrat d'achat d'électricité japonais avec Shizen Energy, s'approvisionnant en énergie auprès d'une ferme solaire de 25 MW dans la préfecture d'Aichi pour soutenir les charges de travail IA.¹⁴ La présence de l'entreprise au Japon depuis une décennie via les centres de données Azure établis depuis 2014 procure un avantage compétitif dans les relations avec les entreprises.
La présence des hyperscalers crée une saine concurrence bénéficiant aux entreprises japonaises. Les organisations peuvent négocier entre les fournisseurs nationaux comme SoftBank et NTT et les alternatives mondiales, optimisant pour le prix, la performance, la souveraineté des données ou les exigences d'intégration selon les caractéristiques des charges de travail.
Sakana AI et le mouvement des LLM souverains
Sakana AI, basée à Tokyo, a clôturé un tour de financement de série B de 20 milliards de yens (135 millions de dollars) en novembre 2025, atteignant une valorisation de 2,65 milliards de dollars et devenant la licorne IA la plus valorisée du Japon.¹⁵ Fondée par d'anciens chercheurs de Google, dont Llion Jones (co-auteur de l'article original sur le transformer), Sakana développe des modèles optimisés pour la langue et la culture japonaises plutôt que de rivaliser directement avec les modèles frontières américains.
La technique de « fusion de modèles évolutive » de Sakana combine les capacités de différents modèles open source, permettant le développement de systèmes IA spécialisés sans entraînement à partir de zéro.¹⁶ L'approche a produit un LLM mathématique japonais de 7 milliards de paramètres qui dépasse les performances de nombreux modèles de 70 milliards de paramètres sur les benchmarks de langue japonaise.
Les partenariats d'entreprise avec Daiwa Securities et MUFG Bank valident l'approche de Sakana pour les applications financières nécessitant une précision en langue japonaise.¹⁷ L'entreprise prévoit une expansion dans les secteurs manufacturier, gouvernemental et de la défense où les capacités IA optimisées pour le japonais procurent un avantage stratégique par rapport aux alternatives étrangères.
Le mouvement de l'IA souveraine reflète des préoccupations plus larges concernant la dépendance aux fournisseurs de technologie américains et chinois. Les entreprises japonaises traitant des données financières, médicales ou gouvernementales sensibles préfèrent de plus en plus les fournisseurs IA nationaux, créant une opportunité de marché pour des entreprises comme Sakana qui optimisent pour les exigences locales plutôt que pour l'échelle mondiale.
Les défis du réseau électrique menacent l'expansion
L'expansion des centres de données au Japon entraînera 60 % de la croissance totale de la demande électrique du pays, avec une consommation d'électricité projetée pour tripler de 19 TWh en 2024 à entre 57 et 66 TWh d'ici 2034.¹⁸ Répondre à la demande nécessite de résoudre ce que les analystes appellent les « trois inadéquations » entre l'infrastructure IA et l'infrastructure énergétique.
L'inadéquation géographique crée le premier défi. Environ 90 % des centres de données se concentrent dans le corridor Tokyo-Osaka, tandis que la plupart des installations d'énergie renouvelable à grande échelle et des centrales nucléaires opèrent à Hokkaido et Kyushu.¹⁹ Déplacer l'électricité des régions de production vers les centres de demande nécessite une infrastructure de transmission que le Japon n'a pas construite.
L'inadéquation temporelle présente le deuxième obstacle. Les hyperscalers préfèrent des calendriers de déploiement inférieurs à cinq ans, tandis que les projets de turbines à gaz à cycle combiné nécessitent sept à dix ans de la planification à l'exploitation.²⁰ L'écart repousse les grands projets de centres de données à 2029 indépendamment du capital disponible.
L'inadéquation du mix énergétique aggrave le problème. Le charbon et le gaz composeront encore plus de 40 % de la capacité en 2034, les énergies renouvelables n'atteignant que 17 % d'ici 2030.²¹ Les défis structurels, notamment la réticence des services publics à investir dans les renouvelables, les contraintes du réseau et les cadres de transmission inadéquats, ont entravé l'intégration des énergies renouvelables.
Des solutions innovantes émergent pour répondre aux contraintes. Honda, Tokuyama et Mitsubishi Corporation ont lancé une initiative pour construire le premier centre de données alimenté à l'hydrogène du Japon utilisant des piles à combustible recyclées.²² Nippon Yusen, NTT et leurs partenaires construisent un centre de données vert flottant offshore dans le port de Yokohama comme projet de démonstration pour l'infrastructure IA océanique.
Schémas de déploiement GPU régionaux
L'infrastructure GPU du Japon se répartit sur plusieurs régions, chacune offrant des avantages distincts pour différents types de charges de travail.
Hokkaido (Nord du Japon) : L'installation de Tomakomai de SoftBank ancre l'infrastructure nordique avec une capacité de plus de 300 MW et de l'énergie renouvelable provenant de sources éoliennes et géothermiques. Le climat frais réduit considérablement les coûts de refroidissement. La proximité des câbles sous-marins connectant à l'Amérique du Nord offre un accès à faible latence aux marchés américains.
Région métropolitaine de Tokyo : Les installations de Shiroi et Tochigi de NTT Data servent les charges de travail d'entreprise nécessitant une latence minimale vers le quartier financier de Tokyo. Les déploiements GPU étendus de SAKURA internet ciblent l'inférence IA pour les applications métropolitaines. Highreso fournit un accès à 1 600 GPU pour les chercheurs et entreprises nécessitant une capacité de pointe.²³
Région d'Osaka/Kansai : L'usine Sharp Sakai convertie de SoftBank offre une capacité de 150-400 MW desservant la base manufacturière de l'ouest du Japon. Le cloud IA basé à Kyoto de Rutilea fournit plus de 1 000 GPU Hopper pour le développement de LLM avec une connexion culturelle à la communauté de recherche académique japonaise.²⁴
Région d'Ishikari : Le centre de données phare de SAKURA internet héberge l'infrastructure HGX B200 de l'entreprise, visant environ 10 800 GPU au total.²⁵ L'emplacement bénéficie de l'accès aux énergies renouvelables et d'un climat frais tout en maintenant la connectivité aux marchés de Tokyo.
Les organisations déployant une infrastructure IA au Japon peuvent tirer parti de la couverture régionale d'Introl pour le déploiement de matériel, avec 550 ingénieurs de terrain disponibles à travers l'APAC pour soutenir les installations GPU complexes.
Cadre décisionnel pour les entreprises
La sélection d'une infrastructure IA au Japon nécessite d'évaluer les compromis selon plusieurs dimensions :
Exigences de souveraineté des données : Les entreprises traitant des données réglementées devraient évaluer les fournisseurs nationaux (SoftBank, NTT, SAKURA) par rapport aux hyperscalers en fonction des exigences de résidence des données, des protections contractuelles et des capacités d'audit.
Optimisation des modèles de langage : Les applications nécessitant un traitement de la langue japonaise peuvent bénéficier de fournisseurs LLM nationaux comme Sakana AI plutôt que d'affiner des modèles étrangers. L'optimisation native du langage surpasse souvent les modèles multilingues sur des cas d'usage culturellement s
[Contenu tronqué pour la traduction]