Mi siedo in poltrona, le luci si abbassano e lo spettacolo inizia.
Dopo un’ora e mezza – anzi, facciamo un’ora e quarantacinque, a causa delle domande sempre presenti dei più curiosi – il trambusto ricomincia.
Prendo la mia borsa di tela. Vanto una collezione piuttosto fitta, proveniente da molti festival italiani. Sono tutte stropicciate, alcune sporche di terra, qualcuna ha macchie di inchiostro o di cibo. Eppure, le amo molto. Riempiono un’intera anta del mio armadio. Le indosso con fierezza, come un marchio identitario che mi fa sentire parte di un gruppo a cui tengo, una comunità fatta di persone curiose, sedute su sedie scomode, disposte a farsi venire dubbi.
Mi alzo ed esco. Poi mi fermo. E mi chiedo come dire agli organizzatori di questo festival che il talk a cui ho appena assistito mi è piaciuto moltissimo, mentre quello precedente mi ha annoiata a morte. Come faccio a restituire questa sensazione, questo giudizio personale che forse, se condiviso da molti, potrebbe essere utile a migliorare le edizioni future?

Inizia così la mia riflessione sulla valutazione dell’impatto dei festival scientifici.

Quando ho cominciato a interessarmi a questo tema avevo molte domande, alcune molto ingenue: cos’è davvero l’impatto? Come si valuta? A cosa serve? I festival scientifici la fanno, questa valutazione? Durante la mia tesi di master in Comunicazione della Scienza alla SISSA sono riuscita a rispondere ad alcune di queste domande. Per altre ho scoperto che non esiste una risposta univoca e che va bene così. Nel corso dei mesi che hanno preceduto la mia “masterizzazione” ho intervistato i comparti organizzativi di diversi festival scientifici italiani, chiedendo se svolgessero o meno una valutazione dell’impatto delle loro attività. Nella stragrande maggioranza dei casi la risposta è stata no. A quel punto ho cercato di capire perché.

Le motivazioni emerse erano spesso molto concrete; tra queste, mancanza di tempo, di risorse economiche, di personale formato. Organizzare un festival è già di per sé una corsa a ostacoli. Strutturare un’indagine che si chieda davvero se il festival è piaciuto, cosa si può migliorare e quale potrebbe essere il suo impatto futuro sembra, a molti, un lusso.

E poi c’è la questione più spinosa, quella che riguarda il tipo di impatto che vogliamo misurare. Se Gianfilippo o Genoveffa partecipano a un festival scientifico, è più probabile che in futuro si iscrivano a una laurea STEM? Che sviluppino un rapporto più consapevole con la scienza? E soprattutto, come faccio a dimostrarlo? Come posso stabilire una relazione di causa-effetto?
La verità è che non posso. O meglio, non posso farlo nel modo “pulito” a cui siamo abituati nelle scienze sperimentali. Il problema si chiama controfattuale, un concetto sociologico tanto affascinante quanto frustrante, che prova a rispondere alla domanda: cosa sarebbe successo se quel dato evento non fosse mai accaduto?

Provengo da una formazione microbiologica e so che, per valutare la crescita di una coltura, si prepara sempre un controllo, detto anche bianco. È un terreno sterile dove, in teoria, i microrganismi non dovrebbero crescere. Ma come faccio a creare il mio controllo quando lavoro con una popolazione umana? Dovrei quindi prendere gli stessi Gianfilippo e Genoveffa, impedirgli di partecipare al festival e poi seguirli per il resto della loro vita, confrontandoli con le loro versioni alternative che invece al festival ci sono andate. Un po’ impegnativo, a meno che io non sia il Grande Fratello di Orwell o non voglia essere denunciata per stalking.

Arrivata a questo punto ho deciso che non mi bastava sapere quanto fosse difficile organizzare una valutazione di impatto. Volevo sperimentare quella difficoltà in prima persona. Così ho provato a farne una durante il festival di scienza ed editoria organizzato dalla SISSA, Scienza e Virgola. Ho costruito questionari pensati per indagare aspetti diversi. La curiosità, la voglia di continuare a informarsi su temi scientifici, ma anche il senso di noia, di esclusione, di estraniazione.

Sono riuscita a raccogliere circa mille questionari. Ero sinceramente incredula che così tante persone avessero deciso di fermarsi e raccontarmi cosa ne pensavano. Diciamoci la verità: quanto ci piace compilare moduli? Probabilmente meno di zero. Per questo, per me, quella disponibilità era già un primo segnale di partecipazione attiva. Tralascio chi invece mi ha guardata con occhi quasi sfidanti e ha restituito il questionario dopo pochi nanosecondi.

Nei mesi successivi ho digitalizzato tutto e mi sono ritrovata davanti a una banca dati piena di “molto”, “poco”, “abbastanza”, scale da 0 a 5 con tanti 3. All’inizio non sapevo bene come trattarli, né cosa potessero davvero raccontarmi, finché non ho iniziato a considerarli per quello che erano: dati soggettivi. In quel periodo ho letto il libro di Donata Columbro Ti spiego il dato, che mi ha convinta ancora di più del fatto che i dati non siano mai neutri. Sono situati, contestuali e spesso, anche involontariamente, discriminanti. Chi sto escludendo con il mio festival? A chi mi sto rivolgendo davvero? Di chi sto raccogliendo l’opinione e, quando restituisco quei dati sotto forma di grafici e percentuali, quale narrazione sto costruendo?

Con queste consapevolezze sono riuscita a uscire dal baratro dei dati sterili e apparentemente oggettivi. Ho capito che molte cose non possono essere misurate ma che molte altre sì. E che la valutazione di impatto, se fatta con attenzione e onestà, può diventare non uno strumento di giudizio, ma di ascolto. È proprio qui che la valutazione di impatto smette di essere una questione tecnica e diventa una questione sociale. Perché valutare non significa solo misurare se è piaciuto, ma decidere di porgere un microfono.

Un festival scientifico non è mai neutro. Non lo è per i temi che sceglie, per il linguaggio che usa, per i luoghi che occupa, per il pubblico che riesce – o non riesce – a intercettare. Eppure, spesso lo raccontiamo come se fosse uno spazio aperto a tutti, accessibile per definizione, quasi naturalmente inclusivo. La valutazione di impatto serve anche a incrinare questa narrazione rassicurante.          Quando raccogliamo dati, anche quelli più semplici, anche un questionario compilato in fretta prima di correre a un altro evento, stiamo implicitamente decidendo cosa conta. Se chiedo solo se un evento è stato “interessante”, sto dando per scontato che tutti abbiano potuto seguirlo allo stesso modo. Se invece chiedo se qualcuno si è sentito escluso, spaesato, fuori posto, sto aprendo uno spazio diverso, meno comodo ma molto più informativo. In questo senso la valutazione di impatto è uno strumento profondamente democratico. Non perché produca verità assolute, ma perché può redistribuire la possibilità di parola. Può far emergere voci che normalmente restano ai margini. Chi non ha familiarità con il linguaggio scientifico, chi non si riconosce nei format tradizionali, chi entra in un festival sentendosi “non il pubblico giusto”.

Naturalmente non basta raccogliere i dati ma bisogna decidere cosa farne. Qui entra in gioco un altro aspetto fondamentale, la responsabilità. Valutare l’impatto significa assumersi il rischio di scoprire che qualcosa non funziona, che alcune scelte escludono invece di includere, che certi format parlano sempre alle stesse persone. Significa accettare che il successo non si misuri solo contando le presenze o i sold out, ma interrogandosi su chi riempie quelle sale. Durante la mia analisi mi sono resa conto che spesso temiamo la valutazione di impatto perché la immaginiamo come un giudizio finale, una pagella. In realtà potrebbe essere l’esatto opposto. Uno strumento di apprendimento collettivo. Un modo per costruire festival che non siano solo vetrine, ma spazi di relazione, di confronto, persino di conflitto produttivo.

C’è poi un’ultima dimensione, forse la più difficile da affrontare: quella temporale. Molti degli effetti più interessanti dei festival scientifici non sono immediati, non si manifestano alla fine del talk, né il giorno dopo. Emergono lentamente, magari anni dopo, sotto forma di nuove domande, scelte di studio, cambiamenti di atteggiamento. La valutazione di impatto non potrà mai catturare tutto questo, ma può almeno dichiarare i propri limiti e rendere esplicito ciò che resta fuori campo. Ed è proprio questa onestà il suo valore più grande. Accettare che non tutto sia misurabile, ma che ciò che è misurabile vada trattato con cura.

Forse allora la domanda iniziale cambia forma. Non è più solo: come faccio a dire agli organizzatori cosa mi è piaciuto e cosa no? Ma: come possiamo, insieme, costruire strumenti per ascoltare meglio?

La valutazione di impatto non risolve tutto, non rende automaticamente i festival più giusti, più inclusivi o più efficaci. Tuttavia, può essere un primo passo per smettere di dare queste cose per scontate. E, in un contesto culturale e scientifico che rischia di parlare al pubblico più che con il pubblico, non è poco.