Pubblicato il: 10-2-2026
Condividi
Condividi

La piattaforma AMELIA ne è l’esito più tangibile e per il suo sviluppo, il ruolo di Cineca è tutt’altro che accessorio. Consorzio pubblico, punto di riferimento nazionale per il supercalcolo e la gestione avanzata dei dati, Cineca è uno dei pilastri dell’ecosistema digitale italiano ed europeo.
Ne parliamo con Gabriella Scipione, responsabile dell’area HPC Data Management and Data Analytics, che in Grins ha seguito da vicino lo sviluppo infrastrutturale della piattaforma AMELIA.

L’area che coordino ha il compito di supportare gli utenti che necessitano di risorse di supercalcolo offrendo servizi avanzati per la gestione dei big data e per la realizzazione di vere e proprie piattaforme digitali. Il ruolo del Cineca e del dipartimento di supercalcolo in Grins è stato innanzitutto quello di mettere a disposizione le infrastrutture Cloud e HPC su cui la piattaforma AMELIA è stata sviluppata, e che oggi ne garantiscono l’operatività. Cineca, inoltre, ha fornito attività di consulenza specialistica e ha contribuito allo sviluppo di modelli volti ad assicurare, all’interno di AMELIA l’anonimizzazione e l’oscuramento dei dati sensibili.
Molto. Si tratta della stessa infrastruttura che offriamo ad altre piattaforme realizzate all’interno di progetti PNRR, così come per il servizio MeteoHub dell’Agenzia ItaliaMeteo, che fornisce previsioni meteo e dati osservativi sul territorio nazionale estremamente dettagliate. I dati di AMELIA risiedono in un unico data lake centrale, accessibile e condiviso da tutti i nostri sistemi, a cominciare dal supercomputer Leonardo.
Il servizio AMELIA è ospitato su un cluster virtualizzato on-prem di CINECA. Si tratta di un’architettura innovativa, che rappresenta un vero e proprio salto di qualità in termini di integrazione, efficienza e scalabilità. In caso di necessità è possibile scalare sul sistema di supercalcolo Leonardo, che oggi è il decimo supercomputer per potenza al mondo, per sviluppare modelli di AI generativa basati sui dati che la piattaforma AMELIA è in grado di raccogliere.
Una delle principali criticità nello sviluppo di servizi basati sull’intelligenza artificiale riguarda la disponibilità e usabilità dei dati: possiamo affermare senza problemi che senza dati non si fa intelligenza artificiale. Oggi i dati spesso esistono, ma sono ancora fortemente frammentati, sono distribuiti in repository appartenenti a organizzazioni che non dialogano tra loro e che, talvolta, non sono pienamente consapevoli del loro potenziale di utilizzo.Viene, quindi, a mancare la cosiddetta interoperabilità.
La prima sfida, in questo senso, è mettere assieme le informazioni e prepararle per l’intelligenza artificiale. Vuol dire rendere i dati di qualità, ben descritti, interoperabili, tracciabili, sicuri e computazionalmente accessibili, così da poterli usare per addestrare e interrogare modelli di intelligenza artificiale in modo affidabile..
Un’altra sfida importante riguarda la disponibilità di un’infrastruttura integrata: spesso i dati vengono generati in un luogo, ma devono essere processati e analizzati utilizzando risorse di calcolo collocate altrove. Il problema è che il trasferimento di dati complessi, in particolare quelli satellitari, può richiedere giorni. Lo sforzo attuale è quindi volto a creare un’infrastruttura integrata in cui gli utenti possano accedere allo stesso tempo a supercalcolo — come il sistema Leonardo —, a sistemi di storage adeguati e a risorse cloud, tutto in un unico ambiente. Al Tecnopolo di Bologna, il Cineca sta sviluppando una soluzione di questo tipo, concepita per essere anche trasparente, così da ridurre al minimo queste criticità.
È interessante notare come il progetto AMELIA intervenga proprio su alcuni di questi nodi critici —frammentazione dei dati, mancanza di interoperabilità e distanza tra produzione e capacità di calcolo. La piattaforma nasce infatti per integrare fonti eterogenee in un unico data lake, rendere i dati tracciabili e interoperabili attraverso metadati condivisi e metterli a disposizione, in modo sicuro, di modelli analitici e di intelligenza artificiale che sfruttano infrastrutture di supercalcolo nazionali come quelle di Cineca.
Dal mio punto di vista, il vero rischio è non essere autonomi tecnologicamente, la cosiddetta digital sovereignity, che io peraltro preferisco chiamare “autonomia digitale”. In Europa non abbiamo ancora eccellenze pienamente competitive lungo tutta la catena dell’intelligenza artificiale: dai modelli alle piattaforme, fino alle infrastrutture.
Questo apre un tema centrale, che è quello dell’autonomia – o della sovranità digitale.
E non essere autonomi, anche digitalmente, è un rischio enorme, come ci ha insegnato il Covid con le mascherine. Ma se, da un lato, si tratta di una sfida, dall’altro costituisce una grande opportunità per cercare di sviluppare modelli linguistici di qualità continentali che siano concorrenti ai grandi attori del mercato americani e cinesi.
Il controllo, cioè la garanzia che i dati finiscano in repository che seguono regole europee e italiane. Significa evitare di dipendere in modo eccessivo da aziende non europee e mantenere il controllo su dati, infrastrutture e tecnologie strategiche. In concreto, vuol dire sapere dove sono i nostri dati, chi li gestisce e come vengono protetti; disporre di infrastrutture digitali – come HPC cloud e reti – che operano sotto la nostra giurisdizione; e sviluppare tecnologie che ci permettano di ridurre i rischi legati a decisioni o vincoli imposti dall’esterno.
Aziende e pubblica amministrazione devono avere certezze, in questo senso. Si tratta di una sfida, e ci stiamo lavorando.
Per farle un esempio concreto, Leonardo, il supercomputer che inizialmente era al quarto posto al mondo e ora al decimo per potenza di calcolo, viene impiegato nel settore meteo-climatico per risolvere problematiche di vario tipo, a cominciare dallo sviluppo di modelli previsionali più accurati.
Ciò è possibile, ad esempio, aumentando la risoluzione spaziale e temporale dei modelli: dati più dettagliati permettono di individuare eventi estremi anche su scale molto ridotte, inferiori al chilometro. Ma non solo: Leonardo viene utilizzato anche per creare un “gemello digitale” della Terra dalle capacità straordinariamente avanzate.
Grazie al supercalcolo è possibile lo sviluppo di gemelli digitali di città e territori, così come dell’intero pianeta, integrando dati climatici, ambientali, infrastrutturali e socio-economici. Consente di estrarre scenari complessi utili a pianificare interventi di mitigazione dei rischi, simulare scenari futuri e valutare ex-ante l’impatto di politiche pubbliche, interventi urbanistici o strategie di adattamento climatico.
Negli ultimi due anni abbiamo visto che nel settore del meteo e del clima è cresciuto molto l’uso di modelli AI per ottenere previsioni basate solo sui dati degli ultimi 50 anni e non esclusivamente su modelli fisici. Le prestazioni oggi sono comparabili.
Dal mio punto di vista abbiamo assistito alla convergenza tra tre diverse tecnologie abilitanti: big data, supercalcolo e intelligenza artificiale. Mi sembra senz’altro che si intraveda la volontà dell’Italia di risolvere problemi scientifici, economici e aziendali usandoli. Ciò può avvenire anche grazie ai finanziamenti governativi ed europei.
Fondazione GRINS
Growing Resilient,
Inclusive and Sustainable
Galleria Ugo Bassi 1, 40121, Bologna, IT
C.F/P.IVA 91451720378
Finanziato dal Piano Nazionale di Ripresa e Resilienza (PNRR), Missione 4 (Infrastruttura e ricerca), Componente 2 (Dalla Ricerca all’Impresa), Investimento 1.3 (Partnership Estese), Tematica 9 (Sostenibilità economica e finanziaria di sistemi e territori).


