L’intelligenza artificiale non è un destino, un’imposizione o una promessa, ma uno strumento che possiamo attivamente progettare, governare e orientare. Luciano Floridi, professore universitario a Yale e all’Università di Bologna e pioniere della moderna branca della filosofia dell’informazione, riflette su design, controllo ed etica dell’AI. Offrendo non speculazioni cavillose, ma questioni concrete. Non mondi (im)possibili, ma il mondo di oggi e domani. Non “dove andremo a finire”, ma “dove vogliamo andare”.

Il mondo delle possibilità logiche sull’intelligenza artificiale è affascinante, e tanto gli entusiasmi quanto i pessimismi tecnologici fanno clamore e infiammano il dibattito pubblico. Ma ci sono modi più appropriati di affrontare la questione.

In queste poche parole è possibile riassumere l’approccio di Floridi all’intelligenza artificiale, una tecnologia – o meglio, una famiglia di tecnologie – un po’ sulla bocca di tutti, ma ancora sfuggente e indefinita per molti. Floridi si interroga in modo critico su questa tecnologia, con la prospettiva globale del filosofo e al tempo stesso con lo sguardo attento alle specifiche sfide che quotidianamente l’AI pone nei diversi ambiti. 

È infatti necessario considerarne concretamente sviluppi, opportunità e sfide sia a livello settoriale (sanità, educazione, industria) sia a livello generale (regolamentazione, principi etici dello sviluppo, esplicabilità dei sistemi) con un atteggiamento propositivo, costruttivo, “attivo”: non vivendola come qualcosa che “ci investe”, conducendoci verso utopie fatate o distopie orwelliane, ma neanche – rimanendo su un piano più neutro – verso un unico futuro possibile. L’innovazione (e l’AI non fa eccezione) è qualcosa che possiamo disegnare, creando modelli, immaginando orizzonti e ponendoci obiettivi da raggiungere.

Il tutto, avendo bene in testa linee guida etiche che non ci dicano solo cosa non fare, ma anche – e soprattutto – cosa si può fare.

In che senso l’intelligenza artificiale è una tecnologia rivoluzionaria?

«Quando si parla di intelligenza artificiale, purtroppo si scade spesso in affermazioni sensazionalistiche, sia in chiave ottimista sia in chiave pessimista: “L’IA salverà l’ambiente”, “L’IA migliorerà la democrazia”, “Schiavizzerà l’umanità”, “Distruggerà  milioni di lavori” e così via. Questo tipo di esagerazioni, che nascono anche da un’influenza californiana solo in parte giustificata, hanno il demerito di rappresentare questa tecnologia come fantascienza.  Quel che è vero è che questa tecnologia – sicuramente molto disruptive, dirompente – sfida molte nostre precedenti concezioni su ciò che pensavamo fossero nostre peculiarità: guidare un’automobile, giocare a scacchi, scrivere un testo, risolvere un problema decisionale o teorico complesso, produrre una app. Quello che però resta sottovalutato, a mio avviso, è quanta intelligenza umana serva per gestire questi strumenti: tanto più potente la tecnologia, tanto maggiori devono essere le abilità di chi la usa. Specie nel caso di una tecnologia che automatizza molti processi, il rischio è di finire a esserne gli spettatori o utenti passivi. Invece, chi la sa usare non può che trarne vantaggio.

Come dobbiamo concepire l’AI, e come dobbiamo concepirci in rapporto a essa?

Anche qui, il rischio è sempre quello di andare sui piani assoluti: ci sono persone che nell’AI “ci credono”, e che ne hanno visioni così astratte che diventano inconfutabili; in questi casi, non c’è logica che tenga. Tuttavia, è sicuramente una tecnologia rivoluzionaria e con un impatto vasto e profondo, con ampi margini di operatività autonoma: per questo è corretto definirla uno strumento attivo. È un po’ come avere un cavallo, non una semplice bicicletta: se non presto attenzione è probabile che dopo un po’ andrà dove vuole lui. Per fare un esempio concreto dall’ambito del prompt design (l’arte di scrivere un prompt accurato a un LLM): se io formulo male una richiesta a un chatbot, quello tenderà a restituirmi ciò che voglio sentire, amplificando bias preesistenti o producendo allucinazioni. In questo caso, la responsabilità non è dello strumento ma solo mia, perché mi sono espresso in modo impreciso, non ho verificato le fonti, ho preso per buona la prima risposta che ricevo, e così via. Insomma, per rimanere sulla metafora del cavallo, se finisco nel posto sbagliato, la colpa non sarà sua ma solo mia. A mio modo di vedere, a oggi non siamo all’altezza della tecnologia che abbiamo sviluppato. Dobbiamo quindi portarci all’altezza di questa stessa strumentazione, capire concretamente le nuove forme di capacità d’azione che abilita, e definire il livello di controllo e progettazione che possiamo esercitare.

Di fronte a uno strumento dotato di un margine operativo autonomo così ampio, viene da chiedersi: quanto noi ci stiamo adattando all’AI, e quanto stiamo riuscendo ad adattarla a noi? 

La risposta sta nel mezzo. Potremmo dire che c’è una sorta di valzer fra le due tendenze: un po’ si adattano le macchine, un po’ ci adattiamo noi. Per citare un esempio di questo secondo caso: nell’ambito della ricerca scientifica, a oggi c’è uno sforzo, nella scrittura dei paper, nel non utilizzare determinate parole, specifiche formulazioni sintattiche e certi segni di punteggiatura, perché sono ormai riconosciuti come caratteristici della scrittura di un chatbot. Si pensi a parole come delve oppure a drawing from: sono tipiche del vocabolario LLM. Quello che mi auguro, in futuro, è che si tenda sempre di più ad adattare le tecnologie alle nostre esigenze. Penso in particolare agli LLM, che sono una tecnologia molto giovane: oggi non vedo ancora molte realtà significative dedicate all’automazione nel prompt design. Tuttavia, mi è facile immaginare che, in un futuro non lontano, emergeranno aziende che si proporranno come interfaccia tra noi e gli LLM, semplificando e guidando la costruzione dei prompt.

Ci sono poi tecnologie AI che sono già profondamente adattate a noi: prendiamo l’ambito delle piattaforme musicali e video, come Spotify e YouTube, che sono governate da algoritmi in grado di indovinare e proporci canzoni che rispecchiano i nostri gusti. Quando è la tecnologia ad adattarsi a noi, non ce ne accorgiamo nemmeno; e questo accade perché ormai è perfettamente incorporata nelle nostre abitudini. C’è poi un altro discorso da fare, relativo a quanto noi, come individui, decidiamo di adattarci, o meglio accomodarci all’AI; o quanto invece riusciamo a utilizzarla – come si diceva prima – come uno strumento attivo. Torniamo sull’esempio degli LLM: una cosa che io stesso vedo fra i miei studenti è la differenza fra chi scrive avendo idee, intuizioni e linguaggio proprio, magari avvalendosi anche di Gemini o ChatGPT (ma pur sempre in modo critico) e chi invece si adagia a scrivere una tesina quasi completamente con l’AI generativa. In questi casi, non siamo noi ad adattarci allo strumento; lo stiamo semplicemente usando male. Non è l’AI che appiattisce idee, linguaggio e scrittura: siamo noi che la usiamo per farci appiattire. Se uno strumento porta i più bravi a fare meglio e i più pigri a fare peggio, sappiamo a chi imputare la responsabilità. Diciamo che l’auto che ti fa ingrassare è la stessa che ti porta in palestra.

Si sente spesso parlare di sistemi AI come scatole nere, il cui processo interno per arrivare a un risultato rimane opaco agli stessi sviluppatori. Quanto c’è di vero?

Poco. Noi sappiamo esattamente cosa stiamo facendo e come lo facciamo: tecniche statistiche, raccolta dati, programmazione, algoritmi sono tutte cose che conosciamo a fondo e padroneggiamo. Il fraintendimento di fondo – e la narrazione della scatola nera che ne consegue – è che si pretende una spiegazione meccanicistica del percorso che porta un sistema AI a un determinato output: questo è possibile con un algoritmo classico, in cui è possibile individuare, ed eventualmente modificare, la specifica linea di codice che ha condotto a quel risultato. Nei sistemi stocastici a rete neurale invece la complessità dei processi interni è tale da non poter individuare a ritroso lo specifico passaggio che ha condotto a un certo risultato. Tuttavia, se il risultato è quello che vogliamo, questo dovrebbe essere sufficiente: se da spiegazioni deterministiche ci spostassimo sul piano delle spiegazioni teleologiche (“Che tipo di scopo devono perseguire questi agenti?”), le spiegazioni in questo caso si fanno più semplici, più chiare e banali; nel momento in cui un sistema produce l’output per cui l’ho pensato, ho le spiegazioni di cui ho bisogno.  C’è un filone all’interno dell’AI, il cosiddetto machine unlearning, che si occupa di rimuovere, correggere o ricalibrare comportamenti indesiderati: se l’output non è quello atteso, si agisce su dati, obiettivi e parametri del sistema al fine di raggiungere quello che desideriamo. La narrativa sulla scatola nera in qualche modo deresponsabilizza: la responsabilità di un controllo sui comportamenti di un sistema è sempre e comunque – e giustamente – sull’essere umano che la sviluppa.

Quali principi etici devono guidare lo sviluppo dell’AI? E quali sono gli spazi in cui discuterli?

Il ruolo dell’etica nel digitale è – o almeno, dovrebbe essere – un ruolo attivo e costruttivo.  Nel corso della storia, molte crisi e/o rivoluzioni hanno generato un’etica negativa, improntata sul “cosa non fare”; pensiamo alle numerose prescrizioni comportamentali negative dell’etica ambientale, improntate sul “cosa non fare per non inquinare”. Nel caso del digitale ci può e ci deve essere non solo un’etica negativa (deleghe che non dovremmo dare, strumenti che non dovremmo disegnare, dati per l’addestramento che non dovremmo usare) ma anche un’etica positiva. Rispetto ad altri grandi momenti di rottura nella storia, il digitale ha aperto un tale spazio di possibilità d’azione che diventa doveroso un ragionamento anche sul “che cosa dover fare, perché si può fare” e “che cosa dover implementare”: sul mondo che dovremmo – e potremmo – avere. Un’etica del design.

Purtroppo, gli spazi in cui si parla di ciò sono pochi, e in questo periodo, dopo una fase di sviluppo, si stanno restringendo sempre di più: a fronte di una tale apertura di spazi di possibilità, politicamente stiamo assistendo in tutto il mondo a un’involuzione reazionaria, conservatrice e spesso violenta. Basta dare un’occhiata anche solo a quanto sta succedendo in questo inizio 2026. Proprio nel momento in cui ci sarebbe un maggior bisogno di dialogo fra gli attori internazionali, per orientare in modo concertato questa innovazione, i paesi produttori di tecnologia rischiano di rinchiudersi nell’angusta nicchia dei propri interessi personali. Alle opportunità tecnologiche che abbiamo manca una controparte politica in grado di coglierle.  È una dinamica, questa, che si verifica spesso nella storia: quanto più ci sarebbe l’esigenza di affrontare certe questioni, e cogliere certe opportunità, tanto più in ambito politico si creano divisioni. Tuttavia, resto ottimista sul lungo periodo: il bello e il brutto di certi problemi (penso, per esempio, anche al cambiamento climatico) è che prima o poi, per la loro urgenza, si impongono; e devono per forza venire affrontati collettivamente. La questione non è mai “se” ma sempre “quando”. E la risposta è: il prima possibile.