L’Europa del secondo dopoguerra aveva un problema: i principali centri di ricerca in fisica si trovavano negli Stati Uniti, dove i talenti avevano accesso a fondi e strumenti per portare avanti esperimenti anche piuttosto costosi. Un tipo di risorse che i singoli stati europei non erano in grado di offrire, ma che un ente internazionale avrebbe potuto mettere insieme. Un’idea che la delegazione francese alle Nazioni Unite aveva già sollevato nel 1946, in un’escalation politica che porterà alla nascita dell’odierno CERN.

L’Europa del 2025 si trova di fronte a un problema dalle caratteristiche simili. Quasi un anno fa, in un’intervista al settimanale greco To Vima, l’allora commissario europeo per il mercato interno Thierry Breton sottolineava come si dovesse garantire a start-up e centri di ricerca europei accesso ai quattro “ingredienti chiave” per l’intelligenza artificiale: dati, potere computazionale, algoritmi e talenti. Risorse che abbondano nelle mani delle grandi multinazionali come Meta o Google, ma a cui invece piccole start-up e istituzioni pubbliche faticano ad accedere, soprattutto in termini di dati, potere computazionale e talenti.

Le grandi aziende che producono modelli di intelligenza artificiale, infatti, hanno spesso un altro tipo di business come cuore delle loro attività, che permette loro di ottenere quantità di dati molto più grandi di quelle disponibili per il settore pubblico o per compagnie più piccole. Pensiamo a Meta, Microsoft o Google: le loro normali attività commerciali producono ingenti quantità di dati tramite i servizi che forniscono agli utenti. Su questi dati possono poi essere allenati modelli di intelligenza artificiale (soprattutto, in questo caso, generativa). Un articolo in uscita a giugno 2025 su Technology in Society analizza 8000 preprint in intelligenza artificiale, portando a galla le notevoli differenze in risultati che le aziende riescono a ottenere utilizzando dati esclusivi a cui il pubblico non ha accesso.

Allo stesso modo, allenare e operare un modello di intelligenza artificiale come GPT-4.1 (rilasciato poche settimane fa da OpenAI) richiede ingenti quantità di potere computazionale ed energia. Questo a sua volta si traduce nella necessità di un gran numero di processori, una risorsa piuttosto costosa, prodotta solo da un numero ridotto di aziende perlopiù americane, come Nvidia e AMD. L’hardware in questione, inoltre, richiede spesso un tipo di competenza ingegneristica specialistica che manca nel mondo accademico. Al contrario, molte delle grandi aziende che producono modelli di intelligenza artificiale offrono da tempo anche servizi di cloud computing e hanno, dunque, accesso al potere computazionale e al talento umano necessari. Un preprint di gennaio 2024 analizza 650 modelli di machine learning per stimare l’impatto che la differenza di accesso alle risorse computazionali ha sulla ricerca: se si guarda a quelli cosiddetti large scale (che stanno, cioè, nel primo quartile del potere computazionale richiesto), la percentuale prodotta da laboratori universitari cala drasticamente negli anni, dal 65% degli anni Dieci del 2000 fino al 10% all’inizio degli anni Venti.

Parallelo al divario pubblico-privato in sviluppo e sperimentazione con l’intelligenza artificiale si apre quello fra Europa e resto del mondo, in particolare Stati Uniti e Cina. I più celebri modelli di intelligenza artificiale, soprattutto generativa, sono stati sviluppati da aziende statunitensi e cinesi, con l’eccezione della francese Mistral. Nella corsa per l’accesso a questa tecnologia rivoluzionaria, con i conseguenti vantaggi economici e geopolitici, l’Europa sembra rimanere indietro.

«Too often, I hear that Europe is late to the race — while the US and China have already gotten ahead», ha detto Ursula von der Leyen all’AI Action Summit del 10 febbraio 2025. «I disagree».

La conferenza parigina è il momento in cui la presidente della Commissione Europea ha annunciato InvestAI, l’iniziativa europea che punta a smuovere 200 miliardi di euro di investimenti per l’intelligenza artificiale. Di questi, 20 dovrebbero essere dedicati alla creazione di quattro cosiddette AI gigafactories, grossi centri di ricerca (l’annuncio parla di “centomila chip di nuova generazione”) per lo sviluppo e la sperimentazione con modelli di intelligenza artificiale. Nel suo discorso, von der Leyen parla di «replicare il successo del CERN di Ginevra», fornendo l’infrastruttura necessaria perché ricercatori e start-up europee possano giocare sullo stesso piano delle loro controparti fuori dall’Unione.

Un annuncio che lascia molti insoddisfatti. Tra questi, Giuseppe Attardi, già professore di Informatica dell’Università di Pisa e proponente di un’iniziativa europea per un “CERN per l’intelligenza artificiale”. Una proposta sollevata assieme a decine di altri ricercatori ed esperti del continente con la creazione del network CAIRNE, che già nel 2018 (quando si chiamava CLAIRE) portava avanti esplicitamente l’idea di centralizzare risorse e talenti per non rimanere indietro nella corsa allo sviluppo e l’applicazione dell’IA.

«Per stare al passo è necessario accelerare, è necessario un intervento straordinario», ha commentato Attardi. La creazione delle AI Gigafactories non sarebbe sufficiente: all’atto pratico, si tratterebbe di trasformare i centri di ricerca di EuroHPC (l’infrastruttura europea di supercomputer) in centri che sviluppino modelli e svolgano esperimenti sull’intelligenza artificiale. Ma tanto le tecnologie quanto le metodologie sperimentali di questi centri sono molto diverse da quelle richieste per tenere il passo con l’evoluzione dell’IA. Per poter utilizzare Leonardo, il supercomputer EuroHPC ospitato a Bologna da Cineca, è necessario trovare i fondi per il progetto, farlo approvare da Cineca, e infine attendere che si liberi una parte di macchina su cui far girare il proprio esperimento. «Gli esperimenti su modelli di intelligenza artificiale richiedono molta più flessibilità e rapidità», spiega Attardi. «Per un CERN dell’IA è necessario mettere insieme competenze altamente specializzate e molto diverse, che a oggi non esistono all’interno dei centri di EuroHPC». E che l’evoluzione in AI Gigafactories difficilmente introdurrà.

Non è la prima volta che la strategia della Commissione europea delude gli esperti di intelligenza artificiale. «Le precedenti call del programma Horizon non contenevano nemmeno le parole ‘intelligenza artificiale’», ha notato Attardi, «a riprova della lentezza e incapacità dei funzionari politici nel rispondere a una tecnologia che evolve a velocità mai viste prima». Un vero CERN dell’IA, puntualizza il professore, dovrebbe centralizzare le risorse e i talenti, offrendo stipendi competitivi e mettendo la governance in mano ai ricercatori stessi. Come il CERN di Ginevra, infatti, un centro europeo per l’intelligenza artificiale dovrebbe sottostare alla direzione strategica degli esperti, senza rimettersi ai tempi e agli interessi dei politici. Solo in questo modo potrebbe concentrarsi sullo sviluppo scientifico e tecnologico in maniera dinamica e concreta, senza inseguire l’ultima moda o le tendenze di mercato ma portando a vera innovazione.

Attardi mette in guardia dal rischio di perdere opportunità importanti. L’Europa ne ha già perse due: le rivoluzioni dei personal computer e del cloud computing, entrambe fermamente in campo statunitense. Un predominio che però ora sembra essere messo in discussione dall’evoluzione politica nordamericana: si apre una grossa opportunità per l’Unione Europea, dato che «tre quarti delle startup americane sono fondate da immigrati, che nell’attuale clima politico potrebbero voler lasciare il paese e portare le loro competenze e idee altrove». Per esempio, in Europa. Un invito che sembra essere stato raccolto dalla Commissione europea: il 5 maggio, alla Sorbona di Parigi, Ursula von der Leyen ha infatti annunciato un investimento da 500 milioni di euro per l’iniziativa Choose Europe, che punta ad attirare ricercatori verso l’Unione con grant particolarmente vantaggiosi. L’occhio, è chiaro, è rivolto a tutti coloro che fuggono da Stati Uniti sempre più instabili e la cui ricerca è sempre meno finanziata. E che potrebbero portare al vecchio continente le competenze necessarie per l’auspicato intervento straordinario.