Macchine che imparano, ma a cui manca il buon senso
Ci sono Alexa e Siri, i più famosi, ma anche Replika, Sunny, Juliet, Amelia, Andy e molti altri. Si tratta dei chatbot, sistemi basati su intelligenze artificiali in grado di dialogare con gli utenti, solitamente per rispondere a domande relativamente semplici e standardizzate. E poi c'è ChatGPT, che a differenza di altri bot è in grado di scrivere testi elaborati con un grado di coerenza e complessità mai viste prima da parte di una macchina. Ma facciamo un passo indietro e cerchiamo di capire come funzionano questi sistemi, per poi capire che sviluppo potrebbero avere, insieme a Luca Trevisan, professore di Computer Science all'Università Bocconi.
Come funzionano i chatbot e che differenza c'è tra sistemi come Alexa o Siri e ChatGPT?
Le intelligenze artificiali come Alexa o Siri devono trasformare frasi in linguaggio naturale in comandi da eseguire ("Accendi la luce, metti un timer"), quindi operano in un contesto ristretto e ben definito e la loro capacità di interpretare il testo è limitata. In questo caso la componente di AI è ciò che consente al programma di capire anche una frase mal posta o che contiene un refuso. La difficoltà per la macchina risiede nel fatto che la stessa cosa può essere detta in modi diversi. Servono dunque algoritmi di Natural Language Processing (NPL) per risolvere queste ambiguità e una certa componente di machine learning per consentire al sistema di apprendere. ChatGPT, a differenza degli altri chatbot, è in grado di produrre testi di grande complessità, coerenza e stile, in ambiti molto diversi, dalla poesia, alla medicina.
Come è riuscita OpenAI ad arrivare a questo risultato?
Dando in pasto al sistema un'enorme quantità di testi e documenti di tutti i tipi, come avviene di solito nel training di queste macchine, ma anche attraverso un task ulteriore: chiedendo al chatbot di completare frasi in base ai documenti già elaborati. Un compito che comprende in sé già una capacità evoluta di comprensione ed elaborazione del testo. I sistemi precedenti non avevamo la capacità di mantenere la coerenza anche in testi lunghi: un po' come Nonno Simpson, tendevano a perdere il filo del discorso. Il modello su cui si basa ChatGPT, che in gergo tecnico si chiama Transformer, è in grado di farlo. Più di tutto, però, ciò che non ci si aspettava era di arrivare a un tale risultato in tempi così brevi.
Cioè?
La grande differenza di ChatGPT è che, nel rispondere alle richieste e nel dialogo che ne scaturisce con l'interlocutore, è in grado di dare risposte molto più generalizzate, ossia non strettamente legate alla richiesta di eseguire un comando. Per fare un paragone, la differenza che intercorre tra le risposte di uno studente che ha imparato la lezione a memoria, ma che non è in grado di andare oltre, e lo studente che, compreso ciò che ha studiato, è in grado di fare collegamenti. Sviluppare sistemi così complessi è come dare valore a un'equazione con milioni, se non miliardi, di variabili. Questi sistemi sono così grandi e con così tante variabili che non c'è un unico modo di trovare una soluzione. Certo, non sono ancora sistemi perfetti: lo stesso ChatGPT a volte fa errori madornali, a dimostrazione che il sistema deve ancora maturare.
Come si evolveranno?
Non è chiaro se il nostro metodo di training delle macchine sia effettivamente quello più adatto per farle evolvere ulteriormente in futuro. Lo scetticismo nasce dal fatto che le AI mostrano strani 'blind spot' inaspettati, ossia falliscono compiti che non diresti mai possano fallire. Commettono errori che gli umani non commetterebbero mai. Come il sistema di self-driving della Tesla che scambia un camion per un ponte e non arresta l'auto. Quello che ancora manca alle macchine è una cosa che è difficile da definire in termini matematici: quel 'buon senso' che consente agli umani di comprendere situazioni inaspettate e di cavarsela trovando soluzioni alternative. Di non fare certi errori grossolani.
Macchine colte, ma non ancora intelligenti, dunque
Ciò che sistemi come ChatGPT sembrano dimostrare è che si possono avere AI che operino come persone istruite, che possano fungere da meri esecutori per compiti magari complessi, ma non come un decisore.
Arriveremo a sviluppare un'intelligenza artificiale in grado di superare le capacità umane, di arrivare a ciò che viene definita 'singolarità'?
Finora il progresso tecnologico dell'hardware ha proceduto in termini esponenziali, ma nessun processo può restare esponenziale troppo a lungo e un rallentamento a un certo punto è inevitabile. Se lo sviluppo tecnologico avrà una fase di arresto prima o dopo la creazione di un'AI inimmaginabilmente più intelligente dell'essere umano, non è dato sapere. Tuttavia, forse, per come sta evolvendo il progresso tecnologico, che già mostra segni di rallentamento, è più probabile che arriveremo ad avere macchine con un livello di intelligenza simile a quello umano.
Parlare di evoluzione delle Ai porta con sé anche il timore che queste diventino in qualche modo pericolose per l'uomo
L'evoluzione tecnologica non è di per sé né buona è cattiva, si sa. Tuttavia, le implicazioni e le ramificazioni di un'evoluzione tecnica così profonda – e di conseguenza anche il loro impatto sulla società – diventano impossibili da prevedere. Più che pensare a uno scenario catastrofico in cui una AI decida di annientare l'uomo, è meglio pensare piuttosto a come queste intelligenze artificiali possano essere utilizzate per destabilizzare le democrazie e fare disinformazione. Sarà sempre più difficile distinguere testi prodotti da umani o da chatbot, con tutte le conseguenze del caso.
Più in generale, servirebbero accordi internazionali per stabilire delle regole sulle AI?
Sì, per esempio come avviene per la clonazione con il divieto di clonare l'uomo. L'Unione europea sta lavorando ad un Ai Act, ed è bene cominciare a pensare a una regolamentazione. Vedrei un accordo a livello globale come un punto di arrivo: al momento è troppo presto per decidere cosa vietare e realizzarne uno adesso sarebbe prematuro.