Nuove frontiere

Google pensa ai data center nello spazio

Con Project Suncatcher, la società esplora l’uso del calcolo orbitale per l’intelligenza artificiale come leva per contenere i costi e diversificare l’infrastruttura del cloud globale

di Stefano Silvestri 7 Novembre 2025 09:12

financialounge -  economia google intelligenza artificiale Technology
L’intelligenza artificiale è ormai una tecnologia imprescindibile ma è anche una delle più energivore e costose. Per questa ragione Google ha deciso di guardare oltre la Terra con Project Suncatcher, un progetto che mira, un giorno, a portare il machine learning nello spazio.

I DATA CENTER NELLO SPAZIO


L’idea è creare una rete interconnessa di satelliti, dotati ovviamente con le TPU (Tensor Processing Unit) di Google, in grado di sfruttare in modo continuo la potenza dell’energia solare per addestrare e far funzionare modelli di intelligenza artificiale su scala planetaria. Il colosso di Mountain View ha pubblicato un documento in cui illustra i principi di progettazione, controllo e comunicazione della costellazione di satelliti, oltre ai risultati dei primi test di resistenza alle radiazioni condotti sui propri chip.
Il prossimo passo sarà una missione sperimentale in collaborazione con Planet Labs, che prevede il lancio di due satelliti prototipo entro l’inizio del 2027 per testare l’hardware in orbita. L’obiettivo, spiega Google, è “porre le basi di una nuova era di calcolo massivo nello spazio”.

ENERGIA SOLARE CONTINUA E NUOVE ARCHITETTURE DI RETE


Project Suncatcher nasce dalla consapevolezza che i data center terrestri stanno raggiungendo limiti fisici e ambientali. Nello spazio, invece, i pannelli solari possono operare in orbita solare-sincrona “dawn-dusk”, dove la luce è praticamente continua e fino a otto volte più intensa rispetto alle condizioni medie a terra. In teoria, questo consentirebbe di alimentare i server senza interruzioni e senza dipendere da reti elettriche locali. I satelliti Suncatcher voleranno poi in formazioni compatte, a poche centinaia di metri di distanza, collegati da canali ottici in grado di trasferire dati a decine di terabit al secondo. In pratica, stiamo parlando di un supercomputer distribuito in orbita, dove ogni satellite rappresenta un nodo del sistema.

UN NUOVO PARADIGMA ECONOMICO PER L’AI


Sotto il profilo economico, Suncatcher può essere letto come una risposta strutturale all’aumento vertiginoso dei capex dell’intelligenza artificiale.
Secondo le stime di Bloomberg e Morgan Stanley, i costi infrastrutturali cumulativi di Microsoft, Amazon, Meta e Google nel solo 2024 hanno superato i 200 miliardi di dollari, in gran parte destinati a data center e chip di calcolo.
Google ritiene che entro la metà degli anni Trenta, grazie al calo dei costi di lancio sotto i 200 dollari per chilogrammo, il calcolo orbitale potrebbe diventare competitivo rispetto a quello terrestre, con vantaggi anche sul fronte della sostenibilità energetica.
C’è poi anche un aspetto strategico. Spostare parte della capacità di calcolo in orbita significa diversificare il rischio infrastrutturale: le aziende globali dell’IA, sempre più dipendenti da energia, acqua e normative locali, potrebbero trovare nello spazio un ambiente meno vincolato.

IL PRIMO PROBLEMA: LA MANUTENZIONE ORBITALE


Dietro la visione futuristica di Project Suncatcher si nascondono sfide molto concrete. La prima è la manutenzione: in orbita bassa, a circa seicento chilometri di quota, riparare o aggiornare un satellite non è un’opzione praticabile. Ogni componente deve quindi essere progettato per resistere autonomamente, senza possibilità di intervento umano. E per Google, questo significa ripensare il concetto stesso di affidabilità: non manutenzione ma resilienza distribuita.
Senza volerci sostituire agli ingegneri di Google, immaginiamo che, qualora un satellite si guasti, esso venga semplicemente spento o sostituito. L’integrità dell’intero sistema dipenderà dalla ridondanza e dalla modularità della rete, più che dalla longevità dei singoli nodi (non a caso Google parla di “rete interconnessa di satelliti”).

LE ALTRE INCOGNITE


La manutenzione non è però l’unico ostacolo. Le comunicazioni ottiche inter-satellite promettono velocità ragguardevoli ma il collegamento finale con la superficie terrestre resta soggetto a limiti atmosferici e infrastrutturali. Il che suggerisce un progetto adatto più all’addestramento che non all’inferenza.
A ciò s’aggiunge il problema del traffico orbitale, col rischio crescente di collisioni in formazioni compatte. Infine, ci sarà presumibilmente un problema di governance dei dati: le normative attuali sull’attività spaziale sono state pensate principalmente per gli Stati, non per infrastrutture private su larga scala che operano in orbita come “data-center spaziali”. L’idea di Google farà emergere nuove zone grigie regolatorie che solo il tempo e la politica potranno chiarire.

Trending