Contatti
Opinioni

All'inizio era Cambridge Analytica…

, di Gaia Rubera - ordinaria presso il Dipartimento di marketing
Bot e AI generativa possono minare le democrazie manipolando gli elettori facendogli credere che un'idea e' popolare e condivisa. Proprio come nelle campagne di marketing su singoli prodotti

Nel dicembre 2012, un sorridente Bono, sulla copertina di una famosa rivista, profetizzava "I Big Data salveranno la politica". L'illusione era che l'accesso diretto alle informazioni attraverso i social network avrebbe reso più difficile per i politici manipolare il pensiero degli elettori. Nel 2018 la stessa rivista titolava preoccupata: "La tecnologia sta minacciando la nostra democrazia. Cosa possiamo fare per salvarci?" Cosa è successo e cosa potrà succedere?
In principio fu Cambridge Analytica che, grazie a un modello di Machine Learning, riusciva a dedurre il profilo psicologico di un individuo dalla sua attività su Facebook. Con questo modello, Cambridge Analytica ha influenzato le elezioni politiche in decine di Paesi, mostrando annunci pubblicitari diversi per la stessa questione politica, personalizzati sulla base del profilo psicologico di ciascun utente. Per esempio, con annunci diversi a supporto del diritto di portare armi negli USA, che enfatizzavano la difesa della sicurezza per i nevrotici e il rispetto delle usanze per i tradizionalisti.

Cambridge Analytica fu fondata da Robert Mercer, miliardario tra i maggiori donor del partito repubblicano e del sito di estrema destra Breitbart. Del suo consiglio di amministrazione ha fatto parte anche Steve Bannon, consigliere strategico di Trump per qualche tempo e sponsor di politici nostrani.
Chiunque studi marketing sa che per convincere un individuo a comprare un prodotto è necessario fargli credere che quel prodotto sia popolare. Allo stesso modo, per spingere un elettore ad abbracciare un'idea politica, è necessario convincerlo che una ampia fetta della popolazione condivida quella idea, facendolo entrare in contatto ripetutamente con altri individui con la stessa idea. Sui social network, tale pressione viene esercitata dai bot: applicazioni programmate per eseguire automaticamente certe attività senza interazione umana.

Scopo dei bot è amplificare un certo messaggio per indirizzare, lentamente, ma sistematicamente, l'opinione pubblica in una specifica direzione. Diverse ricerche hanno identificato reti di bot controllati da un unico burattinaio in concomitanza di eventi politicamente rilevanti. Per esempio, è stata identificata una rete di bot molto attivi prima delle elezioni USA nel 2016, silenti fino a tre giorni prima del ballottaggio Macron-LePen del 2017, improvvisamente attivi nell'amplificare la campagna (di disinformazione) #MacronLeaks – circa presunti scandali di Macron – e nuovamente dormienti per mesi.
Gli ultimi sviluppi in ambito di Intelligenza Artificiale hanno reso molto difficile identificare, e quindi contrastare, tali bot. Per esempio, fino a qualche anno fa, i bot usavano come immagine del proprio profilo volti di persone reali, rubati da fotografie sul web. Una semplice ricerca su Google permetteva di identificare il furto e il bot. Oggi l'intelligenza artificiale generativa permette di creare volti umani non esistenti, ma del tutto realistici, rendendo impossibile identificare un bot dalla foto del suo profilo. O ancora, prima questi bot si limitavano a condividere i messaggi del proprio creatore, poiché era difficile crearne di originali.

Era quindi relativamente facile capire di essersi imbattuti in un bot. Purtroppo, gli attuali modelli di intelligenza artificiale sono ormai in grado di ragionare in maniera strategica e di esprimere il proprio pensiero in maniera convincente. Un recente studio[1] ha dimostrato come i messaggi scritti dall'Intelligenza Artificiale siano persuasivi tanto quanto quelli scritti dagli esseri umani. È facile immaginare le conseguenze di tale tecnologia nelle mani di soggetti interessati a destabilizzare le democrazie. [1] https://osf.io/stakv/