Einstein, l'esempio da seguire
Il mondo scientifico sta discutendo intensamente su come rendere più trasparente l'intelligenza artificiale. Le aziende stanno introducendo l'IA e gli strumenti statistici di apprendimento automatico a un ritmo sempre più sostenuto in tutti gli aspetti della loro attività. Se da un lato queste innovazioni tendono a portarci grandi benefici, dall'altro scienziati, filosofi e scrittori sollevano serie preoccupazioni sulle minacce che un impiego acritico degli strumenti di IA pone all'umanità. Gli studiosi evidenziano la tensione tra automazione e aumento. Con l'automazione, deleghiamo i compiti alle macchine e possibilmente permettiamo agli esseri umani di dedicare tempo e risorse a compiti più creativi. Con l'aumento, promuoviamo la cooperazione tra esseri umani e macchine, con macchine che rendono più potente l'intelletto umano. Tuttavia, l'impatto dell'intelligenza artificiale può essere dirompente: il rilascio incontrollato di chat GPT ha causato allarmi senza precedenti nelle scuole e nelle istituzioni educative di ogni livello, in tutto il mondo. Allora: dobbiamo temere questa rivoluzione dell'IA o abbracciarla con entusiasmo? Certamente, se l'IA rimane un insieme di calcoli oscuri, allora la paura e le critiche severe che si oppongono a una diffusione incontrollata dell'IA dovrebbero essere la reazione naturale.
Già in un articolo del 1970 sull'interazione tra i manager e i modelli numerici, John C. Little del MIT aveva detto che i manager rifiutavano le indicazioni numeriche quando queste derivavano da modelli che rimanevano oscuri per il manager. Oggi la nostra mentalità è molto più aperta all'uso dei dati e dei modelli statistici e matematici che estraggono informazioni. Ciononostante, gli analisti corrono ancora il rischio di vedere i loro sforzi rifiutati dagli stakeholder. Ci sono diversi esempi famosi di fallimenti di algoritmi, dovuti a previsioni macroscopicamente errate o a raccomandazioni ingiuste o discriminatorie. Un'azione sollecitata dal mondo scientifico è quella di rendere gli strumenti di IA il più possibile trasparenti. Come raggiungere questo obiettivo? Innanzitutto, evitando di utilizzare modelli complessi quando modelli interpretabili producono la stessa o una simile accuratezza per il problema in questione. In questo caso, per interpretabili intendiamo che un utente esterno ha una chiara comprensione di come un modello esegue i suoi calcoli. L'opinione pregiudiziale secondo cui l'alta precisione può essere ottenuta in tutti i domini solo con architetture numeriche complesse è sempre più messa in discussione da ricercatori e professionisti. Spin off e startup dedicate all'IA interpretabile trovano sempre più successo sul mercato. Tuttavia, c'è ancora molto da fare per eliminare la minaccia delle black-box e risolvere il problema dell'"assenza di teoria". In un perfetto costrutto scientifico, abbiamo una teoria (assiomi da principi primi da cui si possono derivare teoremi) che produce equazioni (modelli), e questi modelli descrivono esattamente un fenomeno di interesse nel mondo reale. Un esempio meraviglioso è il calcolo esatto di Einstein della curvatura della luce solare, calcolato ancor prima delle misure reali.
Questa configurazione è raramente (se non mai) disponibile nelle applicazioni di IA. In questo contesto, si considerano i dati (o le misurazioni) e si crea un modello matematico che collega un insieme di caratteristiche (o input) all'obiettivo (output) di interesse.
Tuttavia, diverse funzioni matematiche potenziali possono svolgere il ruolo di modello per un dato set di dati. La scelta del modello migliore è solo il primo passo. Il modello deve essere esaminato attraverso un'adeguata quantificazione dell'incertezza, la stabilità e l'analisi della sensibilità. Prendendo ancora una volta in prestito da John C. Little, è necessario avviare un processo per scoprire cosa c'era negli input che ha fatto sì che i risultati venissero ottenuti. Questo processo necessita di una combinazione di strumenti che ci permettano di capire quali caratteristiche sono importanti nella risposta di un modello di apprendimento automatico, se il modello si comporta in base a un'intuizione fisica o commerciale (o alla teoria, se possibile) e, idealmente, di eseguire una radiografia del modello. Questo processo dovrebbe diventare parte integrante del processo di rilascio prima che gli algoritmi vengano presentati al pubblico; ciò è essenziale per evitare i danni sociali di un uso acritico di queste tecnologie.