A guidare la “triade dell’IA” è l’uomo
In un mondo sempre più guidato dalla tecnologia, l'intelligenza artificiale (IA) si distingue come una forza trasformativa, proprio come il fuoco nei tempi antichi. L'IA ha il potere di promuovere scoperte scientifiche, migliorare la nostra vita quotidiana e persino rivoluzionare interi settori. Tuttavia, porta con sé anche rischi, come l'accentuarsi delle divisioni sociali e l'escalation delle tensioni geopolitiche. La metafora del fuoco cattura perfettamente questa dualità, illustrando sia i potenziali benefici che i pericoli insiti in questa tecnologia in rapida evoluzione.
Andrew Imbrie, professore associato presso la School of Foreign Service della Georgetown University, approfondisce questi temi nel suo ultimo libro, Il nuovo fuoco, di cui è coautore insieme a Ben Buchanan (edito in italiano da Bocconi University Press, 2024, 368 pagg., €29,50). Se l’IA diventerà uno strumento di progresso o una fonte di distruzione dipenderà da come l'umanità sceglie di utilizzarla. Come afferma Imbrie, "Il modo in cui pensiamo e parliamo dell'IA è importante. Plasma i nostri giudizi e condiziona il nostro senso delle possibilità".
Il titolo del suo libro, "Il nuovo fuoco", richiama una potente metafora. Può spiegare come l'IA rappresenta un nuovo tipo di fuoco per l'umanità?
Anche se le metafore sono strumenti imperfetti per affrontare una tecnologia in rapida evoluzione, il libro sostiene che il fuoco è una guida adatta per comprendere il futuro a breve e medio termine dell'IA. Proprio come il fuoco, l'IA può riscaldare le nostre società e alimentare progressi rivoluzionari nella scienza e nell'innovazione. Ma, come il fuoco, l'IA può anche essere utilizzata come arma di guerra o addirittura sfuggire al controllo se non viene usata responsabilmente. La gamma di possibili esiti è vasta, e i benefici e i rischi sono difficili da districare, motivo per cui la lungimiranza strategica, l'impegno civico e le strette collaborazioni tra governi, industria e istituzioni accademiche sono così importanti.
Nel libro lei parla delle tre scintille dell'IA: dati, algoritmi e potenza di calcolo. Come si combinano questi tre elementi per alimentare l'innovazione tecnologica?
Le moderne capacità dell'IA richiedono dati per l'addestramento, innovazioni algoritmiche per migliorare l'efficienza e una massiccia potenza di calcolo per eseguire i calcoli. Per alcuni aspetti, questi componenti fondamentali sono cresciuti esponenzialmente negli ultimi anni, ma oggi si discute se stiamo affrontando rendimenti decrescenti sulla disponibilità di dati di alta qualità e potenza di calcolo per addestrare i modelli più grandi e, in tal caso, quali siano i fattori di cambiamento. Questi dibattiti ci ricordano una verità importante: alla base di tutti e tre i componenti della cosiddetta "triade dell'IA" ci sono le persone che progettano, sviluppano e implementano la tecnologia. Sono le persone che stanno facendo scelte sul futuro corso di questa tecnologia, e sono le persone — politici, legislatori, dirigenti e cittadini — che devono affrontare e gestire i rischi affinché possiamo alla fine beneficiare del suo uso responsabile.
L'IA ha il potenziale di trasformare la democrazia, ma anche di rafforzare l'autocrazia. Quali sono i principali rischi e opportunità in questo dualismo?
Se l'IA possa funzionare per la democrazia è una proposizione che i cittadini devono dimostrare insieme attraverso sforzi concertati e politiche sagge. Se gestita male, l'IA potrebbe radicare divisioni nelle nostre società, alimentare la polarizzazione, perturbare i mercati del lavoro e alimentare le fiamme della disinformazione e delle fake news, minando così un elemento vitale del principio di autogoverno: la fiducia. Se gestita responsabilmente, l'IA potrebbe ampliare l'accesso alle opportunità, guidare le innovazioni scientifiche, rivitalizzare i nostri sistemi educativi e permettere a più persone di partecipare al processo democratico. Non sorprende che l'IA sia diventata il fulcro della competizione geopolitica. Alcuni temono che l'IA si rivelerà una freccia nella faretra autoritaria, accelerando la centralizzazione del controllo interno e fornendo nuovi strumenti ai regimi autoritari per avvantaggiarsi all'estero.
Non c'è dubbio che oggi le democrazie siano sotto stress. Ma non dovremmo sottovalutare la capacità delle democrazie di sfruttare i loro ecosistemi di innovazione dinamica, adattarsi ai cambiamenti tecnologici e plasmare la traiettoria dell'IA in modi che sollevano e potenziano le persone. Una delle principali forze delle democrazie è che sono in ultima analisi responsabili nei confronti dei loro cittadini e governano nell'interesse di questi. Ciò significa che, sebbene le democrazie possano commettere errori, possono auto-correggersi e beneficiare della diversità di voci e prospettive nel processo decisionale. Sono più forti grazie al loro impegno per i diritti umani, la trasparenza e la partecipazione pubblica ampia. E possono collaborare con altre democrazie in modi più duraturi e meno transazionali rispetto a quanto spesso si dimostra con forme di governo più autoritarie. Come le democrazie gestiranno i rischi e coglieranno le opportunità dell'IA dipenderà dalle scelte che faremo e dalla volontà dei cittadini di rimanere coinvolti nel processo democratico.
Ha menzionato come le democrazie potrebbero rimanere indietro rispetto alle autocrazie nell'adozione dell'IA. Quali strategie possono adottare le democrazie per evitare di rimanere indietro?
Già ora, le democrazie stanno agendo per plasmare la traiettoria dell'IA in modi che sono consoni ai valori democratici. Stanno investendo nella ricerca di base e applicata, supportando le innovazioni nella produzione di semiconduttori, forgiando partnership creative in tutto il mondo per modellare le norme e gli standard per l'uso responsabile, e ampliando l'accesso a dati e risorse di calcolo condivisi. Il rischio che l'IA alimenti la disinformazione e le fake news è già evidente, ma i governi, i ricercatori accademici e l'industria possono lavorare insieme per adottare strumenti di autenticità dei contenuti, investire nella filigrana digitale e nel rilevamento dei deepfake e promuovere il lavoro a lungo termine di alfabetizzazione digitale e rinnovamento civico che sarà al centro di qualsiasi sforzo per rafforzare la resilienza delle società democratiche. Le democrazie stanno anche lavorando insieme per investire nella formazione sulla sicurezza, nella segnalazione degli incidenti e nei metodi di test e valutazione affinché l'IA possa essere sviluppata in modo responsabile e possiamo anticipare e mitigare i rischi, rimanendo allo stesso tempo adattabili ai cambiamenti nel campo. Non esiste una soluzione unica, e alla fine le soluzioni dovranno essere adattate alle realtà locali e poi condivise con altri affinché possiamo imparare gli uni dagli altri.
Lei parla di evangelisti dell'IA, guerrieri e Cassandre. Può descrivere brevemente queste categorie e spiegare come si intersecano nel dibattito sull'IA?
È importante centrare la dimensione umana nei dibattiti sull'intelligenza artificiale: stiamo facendo scelte ogni giorno che plasmeranno il futuro corso di questa tecnologia. Alcune di queste scelte riflettono la visione che l'IA sarà, in generale, un bene netto per le società, che ispirerà innovazioni nella scienza e ci aiuterà a far progredire la diagnosi medica e la scoperta di farmaci che renderanno le nostre società più sane e produttive. Altri sono pronti a sottolineare che la tecnologia non può essere separata dalla geopolitica e che le innovazioni di oggi appariranno presto sul campo di battaglia e potrebbero decidere le guerre del futuro. Altri ancora si concentrano sui rischi dell'IA, la sua propensione a fallire e il mix di incertezza ed entusiasmo che può portare a esiti pericolosi. I confini tra queste tre prospettive si sovrappongono nella pratica: puoi credere nel potenziale dell'IA di far progredire la scienza e vedere comunque i rischi, e puoi concentrarti su ciò che l'IA significherà per la sicurezza nazionale e internazionale e tuttavia supportare investimenti in test, valutazioni e pratiche di sicurezza. È importante riconoscere che tutte e tre le prospettive sono importanti. Tutti e tre i punti di vista sono legittimi e aiutano ad arricchire il dibattito nelle nostre società. Come troveremo un equilibrio tra di loro e gestiremo i compromessi complessi definirà il panorama dei rischi e dei benefici che tutti noi dovremo navigare negli anni a venire.
Come il suo background accademico e professionale ha influenzato le sue visioni sull'IA e la geopolitica?
Sono cresciuto come figlio di un diplomatico, quindi sono sempre stato interessato allo stato del mondo e a come le questioni apparivano dal punto di vista di diversi paesi e culture. L'IA è una tecnologia di uso generale, il che significa che nessun paese può comandare tutti i suoi benefici o ripararsi dai potenziali rischi. Invece, dovremo investire in una diplomazia saggia affinché, anche se le nazioni competono su tecnologie come l'IA, possano anche cooperare per promuovere la stabilità, ampliare l'accesso alle opportunità e risolvere problemi globali, dal cambiamento climatico alla sicurezza alimentare alla non proliferazione. Ciò richiederà una geometria complessa di diplomazia e investimenti nello sviluppo, e richiederà ai paesi di impegnarsi non solo bilateralmente e plurilateralmente, ma anche in forum multilaterali e con leader nei governi, nell'industria e nella società civile. La posta in gioco è alta e non c'è un momento da perdere per la prossima generazione per far sentire la propria voce in questi dibattiti.