
Quando i modelli parlano: la nuova frontiera delle scienze sociali
Se c’è una cosa su cui possiamo tutti concordare, è che lo sviluppo dell’IA generativa, in particolare dei modelli di linguaggio di grandi dimensioni (LLM), sta avanzando a una velocità vertiginosa. Questo rapido progresso si fa già sentire nelle scienze sociali. Oltre alle loro applicazioni più evidenti, come la revisione della letteratura e l’assistenza nella redazione di documenti, i LLM stanno trasformando la raccolta, l’analisi e l’interpretazione dei dati. Offrono ai ricercatori sociali nuove possibilità per generare intuizioni precise sul comportamento umano, sulle tendenze sociali e sugli impatti delle politiche.
Ad esempio, i LLM hanno il potenziale di simulare il comportamento umano a fini di ricerca. Ciò include la generazione di risposte realistiche ai sondaggi, la creazione di stimoli sperimentali e la modellazione di interazioni dinamiche in esperimenti online. Nel 2024, abbiamo pubblicato uno studio sulla rivista Proceedings of the National Academy of Sciences (PNAS) in cui abbiamo chiesto a partecipanti provenienti da otto paesi a bassa fertilità le loro percezioni sulla famiglia ideale. Ai partecipanti sono state presentate descrizioni di famiglie ipotetiche e chiesto di valutarle su una scala da 1 (per nulla ideale) a 10 (perfettamente ideale). Utilizzando un'analisi di regressione, abbiamo scoperto che il numero di figli non era un fattore particolarmente rilevante nella percezione individuale della famiglia ideale (una scoperta che potrebbe spiegare il calo della fertilità a livello globale), mentre la comunicazione e il rispetto nella comunità si sono rivelati elementi altamente significativi.
Sulla base di questo lavoro, abbiamo esplorato se i LLM potessero fornire classificazioni simili. Utilizzando diversi modelli consolidati, abbiamo raccolto dati sintetici generati da questi LLM. Sorprendentemente, i risultati dell’analisi di regressione hanno rispecchiato da vicino quelli ottenuti dai partecipanti reali. Questo suggerisce che i LLM possono approssimare le risposte umane in modo considerevole, anche quando lo strumento di sondaggio è piuttosto sofisticato.
I modelli basati su agenti (Agent-Based Models, ABM) sono da tempo utilizzati per creare mondi artificiali popolati da agenti interagenti. Questi modelli possono essere resi più realistici integrando metadati per riflettere tendenze e caratteristiche reali. Tuttavia, una critica comune agli ABM è che i ricercatori devono specificare le regole decisionali degli agenti, il che può introdurre bias o riflettere le agende dei ricercatori stessi. L’avvento dei LLM offre l’opportunità di sostituire queste regole predefinite con agenti generativi di IA capaci di interazioni autonome e dinamiche.
Sorge però una domanda critica: possiamo fidarci dei LLM per fornire comportamenti realistici agli agenti generativi di IA e per derivare tendenze e schemi affidabili? Questi modelli vengono addestrati su vasti dataset di contenuti generati dagli esseri umani, il che significa che ereditano – e talvolta amplificano – i bias sociali esistenti. Un'ulteriore preoccupazione riguarda l’aumento della diffusione di contenuti generati dall’IA online, che potrebbe portare i modelli futuri a perpetuare e persino esacerbare tali bias.
Pertanto, è improbabile che i sondaggi tradizionali diventino obsoleti. La validazione delle conclusioni derivate dall’IA con misurazioni reali delle preferenze e dei comportamenti resterà essenziale. Inoltre, ci sono considerazioni etiche da affrontare. Questioni come la privacy e la trasparenza richiedono un’attenzione urgente. Molti LLM operano come "scatole nere", con algoritmi proprietari inaccessibili ai ricercatori. Ma anche quando i modelli sono trasparenti, la loro complessità li rende difficili da comprendere appieno per gli studiosi delle scienze sociali.
Per mitigare queste sfide, i ricercatori sociali devono adottare alcune best practice. Un passaggio fondamentale è analizzare le ipotesi di ricerca utilizzando una gamma di LLM per garantire la robustezza dei risultati. Un’altra direzione promettente è lo sviluppo di LLM “personalizzati” tramite fine-tuning: sebbene la maggior parte dei LLM dimostri una buona performance generale, tendono a essere meno affidabili quando applicati a problemi specifici e mirati – un aspetto particolarmente rilevante per i ricercatori che lavorano con ipotesi focalizzate. Il fine-tuning prevede l’addestramento di un LLM esistente su dataset specifici per un determinato compito, permettendo al modello di fornire risultati più mirati e affidabili.
L’integrazione dell’IA nelle scienze sociali richiederà inevitabilmente aggiornamenti significativi nei nostri metodi di insegnamento. Dotando gli studenti delle competenze necessarie per usare, criticare e ottimizzare i LLM, possiamo sbloccare il pieno potenziale dell’IA, mantenendo al contempo standard scientifici rigorosi. Tuttavia, sebbene i LLM offrano enormi possibilità per le scienze sociali, devono essere affrontati con la stessa serietà. Considerazioni etiche, trasparenza e validazione rispetto ai dati reali rimangono fondamentali.