
Oltre il limite: il nuovo volto dell’intelligenza artificiale
L’intelligenza artificiale generale, o AGI (Artificial General Intelligence), è un tipo di intelligenza artificiale che mira a replicare la capacità umana di risolvere problemi in una vasta gamma di domini e contesti.
A differenza dell’IA specializzata, progettata per compiti specifici, un’AGI dovrebbe essere in grado di adattarsi a nuove situazioni e affrontare problemi per i quali non è stata esplicitamente programmata, mostrando un livello di flessibilità simile a quello umano.
Negli ultimi anni, i progressi nell’IA generativa con i modelli di linguaggio di grandi dimensioni (Large Language Models, LLM), come ChatGPT, sono stati straordinari. Tuttavia, fino a poco tempo fa, molti ritenevano che questa non fosse la strada per raggiungere l’AGI. Negli ultimi mesi, però, il dibattito globale sulla somiglianza tra macchine e intelligenza umana si è intensificato grazie a due sviluppi significativi.
Primo, OpenAI ha presentato il suo nuovo modello di problem-solving O3 (non ancora disponibile al pubblico), un’implementazione avanzata di ChatGPT.
Secondo, l’emergere dei cosiddetti Large Concept Models (LCM), che invece di usare parole per generare risposte concatenano brevi frasi che esprimono concetti in modo diretto, ha mostrato prestazioni promettenti.
Siamo davvero alle soglie di un'intelligenza artificiale simile a quella umana o siamo semplicemente sorpresi dai progressi incrementali della tecnologia IA?
Il caso di O3
Proviamo a rispondere considerando il caso di O3. L’annuncio di OpenAI ha ispirato molte speculazioni e dichiarazioni ambiziose basate su alcune sue caratteristiche:
- Ha ottenuto una performance notevole nel ragionamento matematico avanzato nel test FrontierMath, sviluppato da un team di matematici. Fino a poco tempo fa, i sistemi di IA raggiungevano un tasso di successo del 2%, mentre O3 ha ottenuto il 25%.
- Ha compiuto enormi progressi nei compiti di programmazione. Gli sviluppatori hanno osservato che può produrre codice in modo più rapido e con un costo computazionale inferiore rispetto ai suoi predecessori.
- L’aspetto più sorprendente: ha raggiunto risultati inaspettati nel test ARC-AGI (Abstract and Reasoning Corpus for Artificial General Intelligence). Questo test misura le capacità di ragionamento e astrazione attraverso enigmi grafici. I modelli precedenti avevano ottenuto circa il 55%, mentre O3 ha raggiunto un impressionante 75% con un basso costo computazionale (pochi dollari di elettricità per risposta) e l’87% con un costo elevato (qualche migliaio di dollari), superando il punteggio medio umano del 76%.
Cosa rende questi modelli diversi dai modelli di linguaggio di grandi dimensioni a cui siamo abituati, come ChatGPT?
In realtà, non molto.
La caratteristica chiave di O3 (una versione avanzata del modello O1 già disponibile) è la sua capacità di generare internamente molteplici percorsi di soluzione e confrontarli, selezionando il migliore: una strategia nota come chain thinking. In sintesi, il sistema confronta diverse soluzioni e, utilizzando altre IA, effettua una selezione automatica. Questo lo rende estremamente interessante sia dal punto di vista concettuale che applicativo.
Tuttavia, non possiamo ancora affermare che assomigli davvero all’AGI, almeno non nella sua interpretazione più vicina all’intelligenza umana.
Cos'è l'intelligenza?
Il quesito sulla somiglianza con l’intelligenza umana è mal posto.
L’AGI consiste nel riuscire a risolvere qualsiasi problema che un essere umano potrebbe potenzialmente risolvere? Oppure si tratta di capacità cognitive che superano quelle umane in un certo numero di problemi? Questa ambiguità porta a confondere progressi notevoli in aree specifiche, come ARC-AGI, con il raggiungimento di un’intelligenza generale.
Gli esseri umani riescono a risolvere problemi ARC-AGI senza una particolare esposizione a compiti simili, mentre O3 si basa su soluzioni offerte da LLM addestrati su vasti dataset. Se avessimo davvero un’AGI, questa sarebbe in grado di risolvere i test ARC-AGI come un caso speciale, ma il fatto che un sistema specifico sappia risolvere questi test non implica che sia una forma di AGI.
Un esempio spesso citato da Yann LeCun, vincitore del premio Turing e VP di Meta, riguarda la guida: i giovani imparano a guidare in qualsiasi situazione con circa 20 ore di lezioni di guida, mentre i sistemi di IA riescono a farlo in modo simile solo in condizioni di traffico semplici, nonostante vengano addestrati con l’equivalente di milioni di ore di guida.
I sostenitori della cosiddetta scalability hypothesis credono che, utilizzando risorse computazionali per creare abbastanza dati e generare soluzioni (compute into data), i sistemi di IA alla fine supereranno l’intelligenza umana.
I critici sostengono che la scalabilità da sola non può colmare il divario con l’intelligenza umana, poiché i sistemi di IA faticano a generalizzare le conoscenze tra domini, adattarsi a situazioni nuove o apprendere da pochi esempi.
Tuttavia, entrambe le fazioni concordano sul fatto che una qualche forma di AGI sarà raggiunta in un orizzonte temporale finito.
Come affrontare il progresso dell’intelligenza artificiale
La corsa alla supremazia nell’IA sta mobilitando enormi risorse negli Stati Uniti e, in seconda battuta, in Cina.
L’Europa, invece, resta ferma: il tempo delle discussioni e delle leggi su regolamentazione ed etica – per quanto legittime – è stato superato dalla realtà. È necessario passare a una fase diversa, in cui venga creata un’IA europea competitiva. I numeri parlano chiaro: per creare centri di ricerca e sviluppo all’altezza servono decine di miliardi di euro all’anno (Microsoft da sola investe 80 miliardi di euro all’anno).
Non c’è dubbio che il dominio nell’IA corrisponderà al dominio economico. Ma c’è di più: controllare l’IA sarà una gigantesca forma di potere politico.
Al momento, questo potere è nelle mani di poche grandi aziende tecnologiche, e già vediamo quanto influenzino il sistema politico.
L’esperienza Deepseek mostra quanto sia delicata questa questione e come la battaglia tra software di IA Open Source e Proprietari sarà cruciale nei prossimi anni.
I politici europei devono urgentemente comprendere la necessità di agire a livello dell’Unione Europea: i singoli Stati non possono affrontare questa sfida da soli.
Esiste un modello di collaborazione europea: il CERN di Ginevra. Il prossimo acceleratore di particelle costerà decine di miliardi di euro. Bene, evitiamo di costruirlo e convertiamo il CERN in un centro europeo per l’IA, sfruttando la gestione e l’esperienza tecnologica di livello mondiale accumulata in decenni.
I ricercatori europei sono pronti. Esistono reti scientifiche europee di alto profilo che collaborano strettamente con Canada e Regno Unito.
L’esperienza Deepseek mostra che la Cina ha fatto progressi sostanziali.
I politici dell’UE sapranno agire?