Google annonce Project Suncatcher : envoyer des puces d’IA en orbite pour ouvrir une nouvelle ère du calcul spatial

November 06, 2025
Google
6 min

Résumé

Le 4 novembre 2025 (heure de l’Est des États-Unis), Google a annoncé son programme de recherche « Project Suncatcher », visant à envoyer dans l’orbite terrestre des satellites solaires équipés de puces TPU afin de constituer un centre de données spatiales dédié à l’intelligence artificielle. La société prévoit, en collaboration avec Planet Labs, de lancer deux satellites expérimentaux en 2027, chacun embarquant quatre puces TPU. Cette initiative innovante marque une tentative majeure d’étendre les infrastructures de l’IA depuis la Terre vers l’espace, dans le but de résoudre les problèmes liés à la consommation énergétique et aux émissions de carbone des centres de données terrestres.


L’informatique IA s’envole vers l’espace : Google propose des centres de données spatiaux alimentés par l’énergie solaire

Le 4 novembre 2025 (heure de l’Est des États-Unis), Google a officiellement lancé « Project Suncatcher », un projet de recherche de pointe dirigé par Travis Beals, Directeur principal des paradigmes intelligents chez Google. Ce projet propose d’embarquer les puces d’intelligence artificielle Tensor Processing Unit (TPU) de l’entreprise sur des satellites solaires afin de créer une infrastructure spatiale dédiée au calcul pour l’apprentissage automatique.

Solution technique et percées innovantes

Le système repose sur une constellation compacte de satellites placés sur une orbite héliosynchrone basse, orientée matin-soir, garantissant une exposition quasi continue au soleil. Sur une telle orbite, les panneaux solaires peuvent atteindre une efficacité de production jusqu’à huit fois supérieure à celle au sol, permettant une génération d’électricité presque ininterrompue et réduisant considérablement les besoins en batteries.

Pour atteindre des performances comparables à celles des centres de données terrestres, les satellites doivent établir entre eux des liaisons à très haut débit, capables de transmettre plusieurs dizaines de téraoctets par seconde. L’équipe de Google a déjà validé expérimentalement cette faisabilité, en atteignant une vitesse de transmission de 1,6 téraoctet par seconde avec une seule paire d’émetteurs-récepteurs.

Le système utilisera des liaisons optiques sans fil, avec des satellites espacés de seulement quelques centaines de mètres – bien moins que dans les constellations existantes comme Starlink (environ 120 km d’écart). Les modèles physiques montrent que, sur une orbite moyenne à 650 km d’altitude avec un rayon de grappe de 1 km, la distance entre satellites voisins variera entre 100 et 200 mètres, nécessitant uniquement des manœuvres orbitales modérées pour maintenir une configuration stable.

Tests de résistance aux radiations

Google a soumis ses dernières puces cloud TPU Trillium v6e à un faisceau de protons de 67 MeV. Les résultats montrent que le sous-système de mémoire à haute bande passante ne présente d’anomalies qu’à partir d’une dose cumulée de 2 000 rad (silicium), soit près de trois fois la dose attendue sur une mission de cinq ans (750 rad en silicium). Aucune défaillance permanente attribuable à la dose totale d’ionisation n’a été observée même à la dose maximale testée de 15 000 rad (silicium).

Analyse économique

Historiquement, les coûts élevés de lancement ont constitué le principal obstacle au déploiement de systèmes spatiaux à grande échelle. Toutefois, l’analyse par Google des données historiques et prévisionnelles sur les tarifs de lancement indique qu’en appliquant un taux d’apprentissage constant, les prix pourraient descendre sous la barre des 200 dollars par kilogramme d’ici le milieu des années 2030. À ce niveau de coût, le prix annuel du lancement et de l’exploitation d’un centre de données spatial, exprimé en dollars par kilowatt/an, pourrait devenir comparable au coût énergétique des centres de données terrestres.

Première mission expérimentale

La prochaine étape clé de Google consiste en une mission expérimentale menée en partenariat avec Planet, prévue pour le début de l’année 2027, avec le lancement de deux satellites prototypes. Cette expérience testera le fonctionnement des modèles et du matériel TPU dans l’environnement spatial, ainsi que la faisabilité des liaisons optiques inter-satellites pour des tâches d’apprentissage automatique distribué.

Contexte et importance du projet

Les centres de données traditionnels consomment d’énormes quantités d’électricité, entraînant une augmentation des émissions de gaz à effet de serre et suscitant des critiques de la part des défenseurs de l’environnement. En transférant une partie du calcul vers l’espace, Google cherche à exploiter une énergie solaire quasi ininterrompue tout en réduisant l’impact sur les ressources terrestres.

Dans un article de blog, Google affirme : « À l’avenir, l’espace pourrait être le meilleur endroit pour étendre le calcul de l’IA. Le Soleil est la source ultime d’énergie dans le système solaire, rayonnant plus de 100 billions de fois la puissance électrique totale produite par l’humanité. »

Défis à relever

Bien que les analyses initiales montrent que les concepts fondamentaux du calcul spatial pour l’apprentissage automatique ne sont limités ni par des contraintes physiques fondamentales ni par des obstacles économiques insurmontables, de grands défis techniques subsistent, notamment en matière de gestion thermique, de communication à haut débit avec la Terre et de fiabilité des systèmes en orbite.

L’absence d’air dans l’espace implique que la chaleur générée par les puces doit être transférée via des matériaux solides vers des radiateurs qui la dissipent dans le vide spatial. L’équipe prévoit d’utiliser des matériaux avancés d’interface thermique permettant un transfert efficace de chaleur sans recourir à des composants mécaniques.

Par ailleurs, les débris orbitaux représentent un risque de collision. Les déchets spatiaux existants constituent déjà une menace pour les satellites actifs, et une configuration plus dense de satellites accroît la probabilité de collisions, exigeant des systèmes robustes d’évitement ainsi qu’une surveillance continue des débris orbitaux.

Vision à long terme

Google indique qu’une future constellation à l’échelle du gigawatt pourrait tirer parti de conceptions satellitaires plus radicales, intégrant potentiellement de nouvelles architectures informatiques mieux adaptées à l’environnement spatial, ainsi que des conceptions mécaniques combinant étroitement la collecte solaire, le calcul et la gestion thermique.

Ce projet ambitieux s’inscrit dans la tradition de Google d’explorer des technologies de pointe, à l’instar de ses efforts il y a dix ans pour construire des ordinateurs quantiques à grande échelle ou du lancement, il y a quinze ans, du projet de voiture autonome ayant donné naissance à Waymo. Project Suncatcher incarne une nouvelle orientation pour le développement des infrastructures de l’IA et pourrait ouvrir une voie entièrement nouvelle pour le calcul intensif de demain.