Il limite della tossicità
La penna è più potente della spada, ma può essere altrettanto a doppio taglio. E, proprio come una penna, i social media possono essere sia uno strumento di potenziamento che un'arma per nuocere. La stessa tecnologia che ha contribuito a mobilitare le proteste della Primavera araba ha ospitato anche i contenuti che l'anno scorso hanno molestato un terzo degli adulti americani.
Questo duplice ruolo pone la questione di come preservare gli usi benefici dei social media riducendo al contempo la diffusione di discorsi di odio, disinformazione e altri contenuti dannosi. Un punto di partenza per rispondere a questa domanda è seguire il denaro e chiedersi se le piattaforme siano incentivate a esporre gli utenti a contenuti dannosi. Come vedremo, la risposta a questa domanda non è così ovvia.
Prendiamo il caso dei discorsi d'odio, delle molestie e dei discorsi offensivi, in seguito denominati contenuti "tossici", in mancanza di un termine migliore. Da un lato, ci sono ragioni per credere che le aziende di social media orientate al profitto vogliano ridurre al minimo questo tipo di contenuti. Dopo tutto, una delle proprietà dei discorsi tossici è quella di minare il bene pubblico dell'inclusione, riducendo plausibilmente la disponibilità di alcuni individui a conversare con altri. E meno conversazioni online significano meno soldi per le piattaforme. Inoltre, gli inserzionisti hanno boicottato le società di social media e le autorità di regolamentazione le hanno multate per la mancata rimozione del discorso tossico.
D'altra parte, gli addetti ai lavori che conoscono il funzionamento degli algoritmi dei social media hanno espresso preoccupazioni opposte. Frances Haugen - whistleblower di Facebook - ha dichiarato che le piattaforme che cercano di ottimizzare il coinvolgimento daranno priorità ai contenuti odiosi e polarizzanti.
Le prove sembrano, in un primo momento, favorire gli addetti ai lavori. Un esperimento che chiedeva agli utenti dei social media di installare un'estensione del browser che nascondesse i contenuti tossici dai loro feed ha ridotto il loro coinvolgimento con i contenuti superstiti. Questo minore coinvolgimento si è tradotto in un minor numero di impressioni e clic sugli annunci, con una probabile riduzione dei ricavi pubblicitari. Inoltre, gli utenti che hanno visto meno contenuti tossici hanno anche postato meno contenuti tossici in seguito, a sostegno dell'ipotesi, da tempo sostenuta, che la tossicità sia contagiosa. Queste prove suggeriscono un compromesso per le piattaforme: Devono tollerare una certa diminuzione del coinvolgimento degli utenti per limitare la diffusione della tossicità.
Le piattaforme stanno solo assecondando la volontà degli utenti di vedere la tossicità nei loro feed? Non necessariamente. Le piattaforme possono essere il risultato di un incentivo perverso, in parte guidato dal popolare modello di business basato sulla pubblicità. In particolare, l'ottimizzazione del coinvolgimento degli utenti può essere tangenziale o addirittura in contrasto con l'ottimizzazione del benessere degli utenti. Paradossalmente, esporre gli utenti a contenuti tossici sui social media può danneggiarli, aumentando al contempo il tempo che trascorrono sulla piattaforma o il numero di post che consumano. Ad esempio, gli utenti potrebbero non gradire di imbattersi in post offensivi, ma una volta che li hanno visti potrebbero voler approfondire, leggere la sezione dei commenti e persino partecipare alla discussione. Un algoritmo che ottimizza il coinvolgimento (per massimizzare gli introiti pubblicitari) risponderebbe a questi segnali esponendo ulteriormente gli utenti a contenuti tossici, anche se preferirebbero non vederli.
Sulla base di queste evidenze, si potrebbe essere tentati di concludere che le piattaforme non sono incentivate a moderare i contenuti, rimuovendo troppo pochi post o account che violano i loro termini di servizio. Tuttavia, questa conclusione non spiegherebbe perché le piattaforme abbiano moderato i contenuti fin dalla loro nascita, prima dei boicottaggi degli inserzionisti o delle multe delle autorità. Basta indirizzare la Wayback Machine a SixDegrees.com nel 1998 per scoprire che questo antenato dei moderni siti di social media aveva termini di servizio che imitano da vicino le regole dei suoi discendenti. Inoltre, prove sperimentali e quasi sperimentali confermano che la moderazione dei contenuti può aumentare il coinvolgimento.
Come possono coesistere queste prove apparentemente contraddittorie? Può darsi - e la ricerca futura lo confermerà - che una strategia redditizia consista nel consentire i contenuti tossici e nel mostrare agli utenti che alcuni di essi vengono puniti. Dopotutto, l'economia comportamentale ha dimostrato che la richiesta di punire le azioni sbagliate è profondamente radicata nella nostra psiche.