«Preoccupiamoci innanzitutto di sapere se l’uomo diventa più sciocco, più ingenuo, più debole intellettualmente quando vi è una crisi della comprensione o dell’invenzione». Leggere oggi questa riflessione non fa pensare al fatto che è stata espressa esattamente un secolo fa da Paul Valéry nel saggio Sur la crise de l’Intelligence (1925). Per Valéry, una crisi dell’intelligenza umana si verificherebbe quando questa non riesce a interpretare, a elaborare giudizi positivi o negativi, sui progressi messi in atto dall’essere umano stesso. E maggiore è l’avanzamento tecnologico, più sembrerebbe indebolirsi la capacità umana di riflettere analiticamente su questo processo. Al tempo stesso, sembrerebbe che dietro il pensiero di Valéry si nasconda anche un timore relativo al comportamento dell’essere umano di affidarsi, di delegare funzioni e compiti specifici della sua natura, a strumenti che potrebbero ridurre l’importanza individuale e sociale del contributo umano.

L’innovazione tecnologica nel campo dell’intelligenza artificiale (IA), di cui quella generativa costituisce l’esempio più recente, sta progredendo esponenzialmente e i suoi risultati impattano immediatamente sulla società. Questa dinamica instaura negli individui una reazione a metà tra la fascinazione per le nuove scoperte e il turbamento per i molteplici risvolti che queste hanno nella nostra vita quotidiana. La paura che si prova è riconducibile al fatto che i sistemi dotati di IA sembrano aver ereditato e replicato i nostri modi di pensare, di agire, di pianificare, in sostanza parte dell’identità umana e del ruolo, specialmente sociale, che abbiamo. Anche se non sembra spaventare tutti allo stesso modo. Infatti, come dimostra uno studio condotto da alcuni ricercatori tedeschi dell’Università di Aachen, emerge una differenza importante tra la percezione che hanno il popolo tedesco e quello cinese riguardo i rischi derivanti dall’interazione con tali sistemi. Se per i tedeschi l’uso di strumenti generativi impatta negativamente sulla privacy e sull’autonomia degli individui, diversa è la percezione del popolo cinese, che sembra avere più fiducia nei benefici apportati dall’IA, soprattutto in relazione alla possibilità di generare progresso sociale. Origine di tali risposte sarebbe, ipotizzano i ricercatori, la diversa cultura della tutela dei diritti umani dei due Paesi, ma potrebbero incidere su questa differenza culturale anche le alte competenze, specialmente scientifiche, degli studenti cinesi, come dimostrano i risultati dei test del Programme for International Student Assessment (PISA) internazionali.

Viene da chiedersi: può questo tipo di fiducia essere causata dal grado di competenze che si possiedono? Avere più competenze renderebbe più controllato e consapevole l’uso delle tecnologie basate sui sistemi di IA?

Secondo l’ultimo rapporto PIAAC dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) del 2024, in Italia più di una persona su tre, tra i 16 e i 65 anni, non riesce a comprendere ciò che legge, non riesce a far di conto e a risolvere problemi di base, e per questi motivi è considerabile un analfabeta funzionale. L’Unesco definisce l’analfabetismo funzionale come «[…] la condizione di una persona incapace di comprendere, valutare, usare e farsi coinvolgere da testi scritti per intervenire attivamente nella società, per raggiungere i propri obiettivi e per sviluppare le proprie conoscenze e potenzialità». Un analfabeta funzionale si distingue da un semplice analfabeta perché sa leggere e scrivere, ha cioè competenze di base, ma allo stesso tempo non riesce a utilizzare le informazioni che riceve. Quindi chi è in questa condizione ha molte difficoltà a elaborare una propria lettura della realtà, a strutturare un proprio pensiero critico, a partecipare comunitariamente e attivamente con le proprie idee e soprattutto ad applicare filtri di giudizio su contenuti veri o falsi (come nel caso delle fake news). Inoltre, si percepisce in uno stato di isolamento sociale e per questo tende a favorire l’ambiente del mondo virtuale.

Stupisce, leggendo i dati emersi da questo rapporto, come non sia molto diversa la situazione degli studenti universitari: nonostante l’89% degli studenti italiani utilizzi strumenti di IA per agevolare lo studio, solo il 32% si ritiene in grado di gestire le soluzioni basate sull’IA, mentre il resto si affida completamente ai risultati proposti. Interessante anche il recentissimo esperimento del MIT Media Lab effettuato con l’intento di valutare l’impatto cognitivo di ChatGPT in tre gruppi di studenti durante lo svolgimento di una prova scritta. I risultati hanno dimostrato che il gruppo dei soggetti che non ha usato ChatGPT per completare il testo ha mostrato un’attività cerebrale maggiore rispetto agli altri due gruppi. I ricercatori hanno sottolineato quanto sia negativamente impattante l’IA su alcune funzioni cerebrali come la memorizzazione e l’apprendimento a lungo termine e invitano a una seria riflessione su quali misure adottare per limitare i danni causati dall’IA in ambito didattico e per lo sviluppo delle capacità cognitive in generale.

La digitalizzazione di servizi, per esempio, è un altro fattore che impatta negativamente sugli individui meno competenti e contribuisce inoltre ad amplificare le disuguaglianze sociali già esistenti. Pensiamo infatti cosa possa significare applicare le proprie competenze, se poco strutturate, alla digitalizzazione di funzioni che non prevedono un’interfaccia umana o che prevedono passaggi digitali preliminari (per esempio prenotarsi su portali online).

Ma se da un lato il livello di competenze riduce la possibilità di servirsi adeguatamente degli strumenti digitali, dall’altro questa condizione aumenta il rapporto di uso di software basati su IA, come per esempio ChatGPT, e di assistenza virtuali come Alexa per ottenere informazioni, che corrono però il rischio di essere accettate acriticamente. Quest’ultimo aspetto è rilevante perché facilita il gioco di trasformazione di una convinzione personale in una conoscenza oggettiva e causerebbe anche la sovrastima o sottostima delle proprie e altrui competenze, come dimostrato anche dall’effetto Dunning-Kruger. E qui è intuibile quanto questo fenomeno si verifica maggiormente oggi che abbiamo a disposizione una quantità enorme di dati e informazioni disponibili online.

Per questo, è necessario intervenire per contrastare il fenomeno dell’analfabetismo funzionale agendo anche sul piano dell’alfabetizzazione digitale, come dimostrano i dati dell’indice DESI (Digital Economy and Society Index). Infatti, il nostro Paese è al diciannovesimo posto della classifica dei paesi europei per competenze digitali (l’abilità di navigare in rete e saper valutare i contenuti): solo il 42% degli italiani possiedono competenze digitali di base, diversamente dalla media europea che è al 56%.

Lo scopo principale dell’avere competenze (es. linguistiche, logiche, digitali) è quello di poterle applicare praticamente e funzionalmente alla vita quotidiana. Per questo quando si parla di competenze il discorso si lega anche a quello delle cosiddette life skills, che secondo la definizione data dall’Organizzazione mondiale della sanità sono abilità trasversali necessarie per affrontare meglio il rapporto intra e interpersonale. Sono «tutte quelle abilità e competenze che è necessario apprendere per mettersi in relazione con gli altri, per affrontare i problemi, le pressioni e gli stress della vita quotidiana» (Bollettino OMS, Skills for Life, n.1, 1992). Qui entra in gioco il compito che l’istituzione scolastica del sistema nazionale dovrebbe avere, ossia promuovere uno sviluppo integrale e autonomo della persona e non limitarsi a valutare il merito degli alunni. Infatti, l’alfabetizzazione non riguarda soltanto l’apprendimento di conoscenze e abilità basilari ma deve contribuire realmente allo sviluppo dell’essere umano, perché scopo ultimo dell’istruzione è quello di dare a tutti la stessa possibilità di sentirsi in grado di poter contribuire attivamente alla società di cui fa parte, di sentirsene parte attiva, di «far sorgere nei giovani la coscienza dei problemi (coscienza, non solo conoscenza), far sapere loro che esistono certi problemi e che ognuno di noi è chiamato a risolverli» (Alberto Manzi). Specialmente in questo momento storico dove sembriamo assistere a uno scontro tra l’intelligenza umana e quella artificiale per primeggiare sul piano della performance.

La sempre maggiore forza computazionale dell’IA sta gradualmente sottraendo l’importanza ontologica del suo stesso creatore, l’essere umano, prefigurando l’avverarsi del mito di Prometeo a cui si rifà Mary Shelley in Frankenstein. L’essere umano è un animale sociale e politico, e per questo non è possibile trascendere la sua reale dimensione fisica.

Se l’IA sta trasformando la nostra realtà, la nostra socialità e le nostre abilità cognitive è anche perché noi stiamo contribuendo attivamente ad un cambiamento che facciamo fatica a regolare. In quanto strumento l’IA deve darci una mano, non sostituire le nostre mani (e la nostra attività decisionale) e per questa ragione è necessario trovare delle strategie funzionali che aiutino gli individui ad avere competenze e a sentirsi competenti, cioè a sentirsi partecipi.