Parliamo di un tema sollevato in un recente libro dal professor Gianfranco Pacchioni, chimico teorico e computazionale nel nostro ateneo. Per introdurlo citiamo alcuni dati tratti dal libro stesso: nel 2024 il premio Nobel per la chimica è stato assegnato a Demis Hassabis e John M. Jumper, pionieri dell’uso dell’IA nel campo della biologia molecolare. Entrambi lavorano per Deepmind, società facente capo al gruppo Alphabet (Google). Il premio Nobel per la fisica è stato assegnato a Geoffrey Hinton, fondatore della DNNresearch ed eminenza grigia negli studi sul deep learning. La sua azienda è stata acquisita da Google nel 2013. Nel 2022 Amazon ha investito in ricerca e sviluppo più di 73 miliardi di dollari. Nello stesso anno, per capire l’ordine di grandezza, il fondo di finanziamento ordinario delle università italiane è stato di 8,6 miliardi di euro.
Parliamo della scienza che lei nel definisce “chiara” in contrapposizione a quella “oscura”
Negli ultimi due decenni è stata data una certa enfasi in abito accademico al concetto di “scienza aperta”, che vuol dire in sintesi una scienza trasparente nelle metodologie e nei dati ottenuti e disponibile alla condivisione: di fatto significa permettere la riproducibilità dei risultati di una ricerca. Sono cose che a noi sembrano scontate ma non lo sono sempre, ci sono territori in cui questi principi non valgono: la ricerca industriale per esempio, ma anche la ricerca e l’innovazione in ambito militare.
Io credo in realtà che l’impresa scientifica sia sempre stata per sua natura “aperta”. Quando sono nate le prime riviste scientifiche - parliamo della metà del XVII secolo - è stato per condividere i risultati dei primi lavori di ricerca, per consentire uno scambio di informazioni, non da ultimo per attribuire la paternità delle scoperte fatte. Semmai il problema che si riscontra oggi è che ogni ricercatore lavora con linguaggi talmente specialistici e complessi che io stesso a volte faccio fatica a leggere i dati generati dai miei collaboratori, figuriamoci quelli prodotti da altri laboratori. Chi invece riesce a farlo con grande efficacia sono i software di intelligenza artificiale. A chi li implementa regaliamo una mole di dati pregiati, nel senso che sono informazioni rilevanti, verificate, costruite con metodologia scientifica e disponibili gratuitamente. Quando però chiediamo a ChatGPT quali sono le ultime ricerche in un determinato campo, lui ci risponde trascurando di riconoscere la paternità intellettuale di queste informazioni.
Che caratteristiche ha la scienza che nel suo libro definisce “oscura”?
Da una parte c’è la ricerca in ambito militare, a cui abbiamo già accennato. Non se ne sa molto perché è per definizione segreta; bisogna riconoscere che è stata spesso uno dei motori dell’innovazione: mi riferisco ovviamente non ai sistemi di arma, ma a internet, al GPS o tante altre applicazioni “dual use” che ne sono scaturite.
Oltre a questo ambito ci sono vaste aree della ricerca scientifica che sono entrate nel campo di interesse delle cosiddette “Big Tech”. Questi attori economici stanno investendo in tutte le tecnologie rivoluzionarie del prossimo futuro: dall’intelligenza artificiale alle biotecnologie, dai computer quantistici alle telecomunicazioni, dalla crittografia alle interfacce neurali, fino alle applicazioni in campo medico. Hanno dato vita a centri di ricerca con enormi risorse e fanno a gara per accaparrarsi i migliori cervelli. Anche quando non riescono ad arrivare per prime a determinate innovazioni, portano avanti strategie di acquisizione delle start up, o delle nuove società ad alta tecnologia, acquisendo i loro brevetti, il know-how e affermandosi a scapito dei concorrenti.
Da un lato quindi c’è un problema di sostanziale monopolio della conoscenza in determinati settori, e dall’altro c’è il tema della non trasparenza: questi attori non pubblicano o lo fanno in misura davvero minima rispetto a quanto producono, tutto è coperto da una spessa cortina di riservatezza. In altre parole, nei loro laboratori nascono le prossime innovazioni, con tutto il portato di profonde trasformazioni sociali, ma né sulle finalità né tantomeno sui metodi abbiamo alcun tipo di controllo democratico.
Secondo lei c’è consapevolezza nell’ambito del mondo accademico di queste dinamiche?
Credo di no. È anche vero che la scienza accademica continua ad essere un motore di innovazione, anche perché si occupa della ricerca di base; però laddove si verificano quelli che potremmo chiamare gli “eventi trasformativi”, non è più l’accademia a fare la differenza. Esemplare in questo senso è il caso del Nobel per la Chimica, conferito per il software AlphaFold, che è in grado di prevedere la struttura delle proteine, uno strumento che avrà un ruolo decisivo nella progettazione di nuovi farmaci. Sono state messe a disposizione delle versioni preliminari del programma, e i relativi articoli sono stati pubblicati; quando però si è arrivati alla versione compiuta, l’articolo è stato pubblicato su Nature ma non il software. Il comitato editoriale di Nature ha risposto alle critiche che ormai le trasformazioni più profonde avvengono nel settore privato, se non offriamo neanche la possibilità di farci sapere su che cosa questo sta lavorando, rimarremmo completamente all’oscuro, il che sarebbe ancora peggio.
Cos’è stato secondo lei a far cambiare il paradigma che ha governato per decenni il sistema di costruzione della scienza?
Forse è cambiato un po’ il mondo, perché non dimentichiamo che ancora all’inizio degli anni Novanta lo standard del World Wide Web fu reso disponibile gratuitamente a tutti ed è diventato uno strumento di comunicazione universale, così pure ad esempio il sistema operativo Linux. Sempre negli anni Novanta c’erano colossi monopolistici che sono stati spezzati per favorire la concorrenza: pensiamo all’IBM o all’AT&T, che era l’azienda che gestiva tutta la telefonia negli Stati Uniti. All’inizio di questo secolo invece, le attuali Big Tech negli Stati Uniti erano già grandi, ma non ancora colossi come adesso. Allora era ancora possibile intervenire, ora è difficile perché dispongono di un enorme potere economico e politico e hanno una quotazione di borsa non di rado superiore al prodotto interno lordo di interi paesi.
Al di là dello spostamento di baricentro dal pubblico al privato, che cosa si rischia in termini di credibilità pubblica della scienza?
Il problema della credibilità della scienza è fondamentale, perché la scienza altro non è che conoscenza, ed è stata un catalizzatore straordinario che ha portato al miglioramento delle nostre condizioni di vita, basti pensare a come si viveva 100 anni fa. Oggi una serie di elementi indebolisce l’immagine della scienza. Certamente il fatto di vederla usata per arricchire pochi e darle il controllo sui tanti - perché è questo quello che può avvenire - non aiuterà la sua reputazione. Tuttavia non è la scienza che ha colpe, il tema è come viene utilizzata. Io cerco di essere sempre ottimista. Anche recentemente alcune ricerche hanno dimostrato che l’immagine della scienza nell’opinione pubblica è largamente positiva. Bisogna partire da lì e cercare al tempo stesso di essere consapevoli di quello che sta accadendo, perché solo attraverso questa via è possibile gestire il processo, garantendo che la scienza sia motore di sviluppo e contribuisca a ridurre le disuguaglianze, non ad aumentarle.