
Un’intelligenza artificiale più grande non garantisce un’influenza più forte
Mentre il mondo si dirige verso un futuro in cui l’intelligenza artificiale (IA) avrà un forte peso, ci sono molte ragioni di inquietudine: una delle più pressanti è il timore che i modelli linguistici di grandi dimensioni (LLM) possano diventare abbastanza persuasivi da influenzare le elezioni, spostare l’opinione pubblica o inondare Internet di propaganda di origine robotica.
Nel 2024, questa domanda non sembrava già più solo teorica. Con quasi la metà della popolazione mondiale chiamata alle urne, le preoccupazioni per i contenuti politici scritti dall’intelligenza artificiale sono diventate tangibili. I titoli dei giornali mettevano in guardia da campagne di influenza sponsorizzate da certi governi usando strumenti simili a ChatGPT. Alcuni esperti hanno parlato di “persuasione sovrumana”. E molti si sono chiesti: fino a che punto si può arrivare?
In un nuovo studio pubblicato negli autorevoli Proceedings of the National Academy of Sciences (PNAS) nel marzo 2025, Paul Röttger (Dipartimento di Scienze Computazionali Bocconi), Ben Tappin (London School of Economics), Kobi Hackenburg, Scott Hale, Jonathan Bright e Helen Margetts (tutti dell’Università di Oxford) hanno cercato di dare una risposta. La loro conclusione: l’apocalisse della persuasione dell’intelligenza artificiale potrebbe non essere imminente, almeno non per il semplice fatto che i modelli diventano sempre più grandi.
Un esperimento enorme, un messaggio alla volta
Il team ha condotto uno degli esperimenti più ambiziosi sulla persuasione generata dall’intelligenza artificiale. Ha raccolto 24 modelli linguistici, da quelli piccoli (70 milioni di parametri) a quelli enormi (Claude-3-Opus e GPT-4), e ha chiesto a ciascuno di scrivere brevi messaggi persuasivi (circa 200 parole) su questioni politiche di grande attualità negli USA come l’immigrazione, la sanità e la giustizia penale.
Poi hanno mostrato questi messaggi a circa 26.000 rispondenti americani, confrontando l’evoluzione dei loro atteggiamenti dopo la lettura di contenuti scritti dall’IA rispetto a quelli scritti da umani o a nessun messaggio.
Il risultato? L’intelligenza artificiale può effettivamente persuadere. In media, l’esposizione a un singolo messaggio scritto dall’intelligenza artificiale ha spostato le opinioni delle persone di 5,77 punti percentuali verso la posizione che veniva promossa. Si tratta di uno spostamento pari a quello provocato da un messaggio scritto da un essere umano.
Ma, soprattutto, l’aumento delle dimensioni dei modelli ha portato solo a guadagni modesti. Come ha commentato Paul Röttger, “Gli attuali modelli di frontiera sono solo leggermente più persuasivi rispetto a modelli di dimensioni inferiori di un ordine di grandezza o più.”
Più grande non è necessariamente meglio
A prima vista, questo risultato potrebbe sembrare inatteso. Dopo tutto, i LLM tendono a migliorare nella maggior parte dei compiti man mano che diventano più grandi. Perché non accade in questo caso?
La risposta sembra risiedere in quello che i ricercatori chiamano “task completion”: il grado in cui il messaggio è coerente, in linea con l’argomento e grammaticalmente corretto. In sostanza, una volta che un modello è in grado di scrivere un argomento solido, leggibile e pertinente di 200 parole, ingrandirlo non serve a molto. I modelli migliori raggiungono già il massimo in questa abilità di base.
Quando gli autori hanno tenuto conto statisticamente di questo fattore, la relazione tra dimensione del modello e persuasività è scomparsa. Il vantaggio dei modelli di frontiera non era dovuto a qualche magia retorica, ma solo al fatto che avevano maggiori probabilità di scrivere un messaggio leggibile e mirato.
Il massimo della persuasività?
Questo non significa che siamo al sicuro dai contenuti manipolativi dell’IA. Anche i modelli più piccoli possono già persuadere come gli esseri umani. Ma significa che l’idea di scalare la persuasione, cioè di ingrandire i modelli e aspettarsi un’influenza radicalmente maggiore, potrebbe non essere verosimile. I ricercatori hanno utilizzato diversi modelli matematici per indagare la forma di questa curva di “rendimento decrescente”. Il modello più adatto dice che, anche se passiamo dagli attuali giganti da 300 miliardi di parametri a modelli da 3.000 miliardi o più, potremmo guadagnare meno di un punto percentuale in termini di potere persuasivo: non abbastanza percambiare le carte in tavola.
Ciò ha implicazioni politiche. Nel momento in cui i governi e le aziende sviluppano misure di salvaguardia contro l’influenza dell’IA sul dibattito pubblico, potrebbero doversi preoccupare meno delle dimensioni del modello e più delle strategie di diffusione, come il targeting dei messaggi, la ripetizione o il dialogo interattivo.
Perché è importante ora
In un mondo in cui le persone ricevono sempre più spesso i loro contenuti politici da feed algoritmici, anche le piccole spinte persuasive contano, soprattutto su ampia scala. Un’oscillazione di 5 punti, applicata a milioni di elettori, può decidere le elezioni. La scoperta che i piccoli modelli possono già eguagliare gli esseri umani nella persuasione di un singolo messaggio è ad un tempo impressionante e preoccupante. Ma c’è un rovescio della medaglia: se conosciamo il limite massimo, possiamo prepararci. Questo studio aggiunge un’importante dose di chiarezza empirica a un dibattito spesso dominato da illazioni e paure fantascientifiche.
Inoltre, come notano gli autori, i loro messaggi non erano stati calibrati per la persuasione. Con tecniche più sofisticate — ad esempio adattando le argomentazioni ai valori di una persona o proponendole nel corso di una conversazione — i limiti potrebbero cambiare. Gli studi futuri dovranno verificare come la personalizzazione, l’interattività e la ripetizione modellino la persuasione dei LLM.
Un pensiero finale
Forse l’aspetto più sorprendente del documento non è la limitazione dell’IA, ma la sua accessibilità. Il team ha scoperto che anche modelli open-source di dimensioni modeste, addestrati su un set di dati relativamente piccolo, possono rivaleggiare con i modelli più avanzati e con gli esseri umani in termini di potere persuasivo.
La barriera d’ingresso per la costruzione di un’intelligenza artificiale persuasiva si sta abbassando rapidamente. Come avvertono gli autori, ciò significa che “il costo e la complessità dell’addestramento o dell’accesso a un modello linguistico persuasivo sono inferiori a quanto si pensava in precedenza.”