
🎤 Interview – Data centers spatiaux pour l’IA : une idée pas si bête (Julien Villeret, EDF)
Des géants de la tech envisagent d’installer des data centers dans l’espace pour répondre aux besoins explosifs de l’IA, en misant sur l’énergie solaire et des infrastructures orbitales inédites mondiales.
Interview : Julien Villeret, directeur de l’innovation d’EDF
Pourquoi l’idée d’installer des data centers dans l’espace séduit-elle les géants de la tech ?
Un data center, ce n’est pas seulement de l’informatique et des serveurs : c’est avant tout une question d’énergie, et de beaucoup d’énergie. Même si les puces et les modèles d’IA deviennent plus sobres, les usages explosent, notamment avec l’IA générative et l’inférence. Résultat : les besoins en calcul augmentent de façon exponentielle, et donc la consommation électrique aussi. La vraie question, aujourd’hui, c’est comment fournir une énergie massive, fiable et au coût le plus bas possible à ces infrastructures. C’est là que l’espace commence à faire rêver les grands acteurs du numérique comme Google, Amazon ou Tesla.
En quoi l’espace apporterait-il un avantage décisif par rapport à la Terre ?
Sur Terre, raccorder un data center au réseau électrique prend des années. Il faut des autorisations, creuser des tranchées, poser des câbles à très haute tension : c’est lourd, long et peu compatible avec le rythme du numérique. Dans l’espace, l’idée est de se rapprocher du Soleil. L’énergie solaire y est quasi permanente et beaucoup plus intense qu’au sol : en orbite géostationnaire, on capte jusqu’à 20 à 50 fois plus d’énergie. Il n’y a quasiment pas de cycle jour-nuit, ce qui permet une production continue. Sur le papier, c’est une source d’énergie abondante, puissante et presque illimitée.
Comment communiquer avec des data centers situés en orbite ?
Les technologies existent déjà. On fait exactement comme avec des constellations de satellites type Starlink : des communications à très haut débit entre l’espace et la Terre. Certes, la latence est un peu plus élevée qu’avec des infrastructures terrestres, mais pour des services d’IA, quelques dizaines de millisecondes ne posent aucun problème. Ce n’est pas idéal pour le gaming ultra-réactif, mais pour le traitement de données ou l’IA, c’est tout à fait acceptable et déjà opérationnel.
Est-ce réellement faisable aujourd’hui, ou est-ce encore de la science-fiction ?
Techniquement, c’est crédible. Économiquement, c’est encore un énorme pari. Des acteurs comme la startup StarCloud, soutenue par NVIDIA, ont déjà lancé un premier satellite avec des GPU embarqués, mis en orbite par SpaceX, capable d’exécuter des modèles d’IA comme Gemma de Google. C’est encore très symbolique, mais ça fonctionne réellement.
Les défis restent immenses : rayonnements cosmiques, températures extrêmes, usure accélérée des composants et surtout le refroidissement, très complexe dans le vide spatial. Sans parler du coût des lancements, encore élevé malgré les progrès. Si les promesses de lanceurs comme Starship ou New Glenn se concrétisent, avec des coûts divisés par dix, l’équation pourrait changer. Pour l’instant, on est clairement sur un moonshot, comme le projet Suncatcher développé par Google au sein de sa division X, ambitieux et audacieux… mais encore loin d’un déploiement massif.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Mais episódios de "Monde Numérique (Actu Tech)"



Não percas um episódio de “Monde Numérique (Actu Tech)” e subscrevê-lo na aplicação GetPodcast.







