Il reale impatto dell'intelligenza artificiale
Ormai tutti dovrebbero sapere che i recenti progressi dell'intelligenza artificiale stanno producendo un impatto significativo su molti settori delle nostre società. L'IA ha infatti ottenuto risultati spettacolari che sarebbero stati considerati impossibili quindici anni fa. Ora può elaborare le immagini automaticamente, identificare i volti, segmentare le immagini e fornire una descrizione semantica del loro contenuto, aprendo la strada alle auto o ai camion che si guidano da soli. Nell'ultimo decennio, il riconoscimento vocale e la traduzione automatica hanno fatto più progressi che nei cinque precedenti. Gli algoritmi stanno competendo con i migliori professionisti nell'analisi dei sintomi del cancro della pelle o nell'individuazione di specifiche anomalie in radiologia.
I recenti algoritmi di IA hanno mostrato una sorprendente capacità di rilevare correlazioni nascoste così come variabili e modelli rilevanti in serie massicce di dati complessi. In un certo senso, forniscono un modo efficiente per estendere gli strumenti di base della statistica a spazi "di grandi dimensioni" dove si vogliono identificare molte variabili di controllo e la loro rilevanza, utilizzando grandi insiemi di dati. Da qui la loro crescente importanza in tutti i tipi di compiti di profilazione, che vanno dai sistemi di raccomandazione per i clienti, alla medicina personalizzata. Per esempio, l'applicazione dell'IA ai dati individuali che vengono generati nei massicci sviluppi dei dati "omici" in biologia (analisi del genoma, del trascrittoma -l'espressione dei geni-, delle proteine e delle loro interazioni) sta facendo compiere un nuovo importante passo nella lunga ricerca della medicina verso diagnosi e trattamenti più individualizzati.
Infatti, il notevole salto di prestazioni raggiunto dall'IA nell'ultimo decennio è ben documentato in alcuni problemi scientifici di riferimento. Il più notevole di essi sembra essere il ripiegamento delle proteine. Trovare la forma di una proteina (e quindi l'organizzazione dei suoi siti attivi che regolano le sue interazioni con altre molecole) è stato uno dei principali problemi scientifici degli ultimi decenni. E proprio l'anno scorso, un algoritmo di IA, AlphaFold, ha vinto una sfida mondiale sul ripiegamento delle proteine con un margine così decisivo che molti lo considerano una vera rivoluzione in biologia.
Anche se la ricerca sull'IA è iniziata 70 anni fa, la sua svolta in tutte queste applicazioni - e molte altre - è iniziata solo nel 2012, con l'uso delle "reti profonde" per la classificazione delle immagini. L'architettura di base di queste reti è sorprendentemente semplice. Ispirandosi all'organizzazione del cervello, consistono in strati successivi di "neuroni artificiali", unità logiche che ricevono informazioni dai neuroni dello strato precedente, eseguono un semplice calcolo e, a loro volta, inviano alcuni bit di informazioni allo strato successivo. Se nel primo strato, per esempio, alla rete viene presentata l'immagine di una lesione cutanea, nell'ultimo dovrebbe dire quanto è probabile che questa lesione sia un cancro.
Infatti, una moderna rete "profonda" con centinaia di strati, analizzando una grande immagine, può contenere centinaia di milioni di parametri adattabili che governano questi calcoli elementari. Per determinare questi numerosi parametri, si utilizza l'apprendimento automatico: si addestra la rete presentando un grande "set di allenamento" di esempi per i quali i risultati sono noti, e i parametri vengono adattati fino a quando la rete esegue il compito desiderato su questo set di allenamento. La performance di generalizzazione della macchina ottenuta viene poi testata su nuovi dati che la macchina non ha ancora visto.
Il paradigma delle reti neurali stratificate esiste da oltre 50 anni. Finora, non aveva avuto successo in applicazioni pratiche di dimensioni reali. La sua rinascita è dovuta principalmente all'aumento della potenza di calcolo, alla disponibilità di insiemi di dati molto grandi - ed etichettati - per l'addestramento, e a molti trucchi di pre-elaborazione e addestramento sviluppati negli anni 2000.
Al contrario, la comprensione scientifica delle reti profonde è molto indietro. In primo luogo, il processo di apprendimento, in cui si trovano centinaia di milioni di parametri adattando i dati, rimane poco compreso. Ancora peggio, il successo del fitting con così tanti parametri dovrebbe portare a un "overfitting", cioè a generalizzazioni scarse su nuovi dati. Ad un livello più astratto, ciò che rimane un'affascinante sfida scientifica è capire come l'informazione, immagazzinata collettivamente dai neuroni all'interno di ogni strato, diventa più globale e più astratta quando si va più in profondità negli strati. Infatti, le reti profonde ben addestrate eseguono compiti sorprendenti, e si conosce ogni singolo dettaglio dei loro neuroni artificiali. In un certo senso, diventano il sogno dei neurobiologi, "cervelli" in cui si conoscono tutti i neuroni e l'efficacia di tutte le sinapsi... Eppure, nonostante questa conoscenza dettagliata, non capiamo come il compito finale emerga dal comportamento collettivo di molti neuroni; inoltre, non possiamo spiegarlo in termini semplici. Risolvere questa sfida richiederà input dalla statistica, dalla teoria dell'informazione, dall'informatica, dalla fisica teorica, dalla teoria della probabilità, dalle neuroscienze computazionali, tra gli altri...
Oltre a queste questioni scientifiche, la rapida rivoluzione tecnologica dell'IA sfida l'organizzazione delle nostre società e pone molte questioni etiche che richiedono nuovi regolamenti. Tuttavia, per quanto riguarda l'intelligenza globale, queste macchine non hanno fatto molti progressi. Possono realizzare compiti specifici, caratterizzati da risposte semplici, ma sono lontani dal costruire una rappresentazione del mondo, o da qualsiasi tipo di ragionamento creativo. Nella scienza, le reti profonde e i nuovi algoritmi di scienza dei dati sono diventati aggiunte estremamente utili alla nostra cassetta degli attrezzi, paragonabili alla comparsa delle simulazioni numeriche alcuni decenni fa. Tuttavia, queste macchine non possono sostituire la modellazione, cioè la costruzione di una rappresentazione concisa, funzionale e predittiva del mondo. Contrariamente ad alcune affermazioni audaci, non uccideranno i metodi scientifici che abbiamo usato per cinque secoli. Piuttosto, lo aiuteranno.