Le opinioni di una macchina
Siamo diffidenti nei confronti delle intelligenze artificiali per le ragioni sbagliate. La possibilità che una di loro prenda il controllo del mondo, come in un film di Hollywood, è piccolissima, ma possono comunque danneggiare ampie fette del genere umano (ad esempio le donne) o alcune minoranze (per etnia, preferenze sessuali o altro) attraverso il cosiddetto algorithmic bias.
In The Opinionated Machine, sesto episodio del podcast THINK DIVERSE, Luca Trevisan, professore ordinario di Informatica alla Bocconi, chiarisce come il Machine Learning (un tipo di Intelligenza Artificiale) possa perpetuare i bias della società o rivelarsi tanto inefficace nel trattare le minoranze da finire per discriminarle a tutti gli effetti.
"L'uso dei sistemi di Machine Learning può sembrare per ora limitato," avverte Trevisan, "ma il loro tasso di adozione sta aumentando a un ritmo esponenziale, e dobbiamo affrontare la questione al più presto. A tal fine, abbiamo bisogno di uno sforzo multidisciplinare che includa informatici, matematici, politologi, avvocati e altri scienziati."
Quando vogliamo che un sistema di Machine Learning prenda delle decisioni, li alleniamo attarverso una serie di dati (decisioni prese in passato) e lasciamo che si calibri (cioè capisca quali sono le variabili rilevanti) fino a quando non prende all'incirca le stesse decisioni.
Se le decisioni passate sono distorte, dice Trevisan alla conduttrice Catherine De Vries, tale distorsione si perpetua. Può essere il caso di giudici che discriminano contro le persone di colore nelle decisioni per la cauzione, o di datori di lavoro che discriminano le donne quando selezionano i curriculum.
Le minoranze possono essere danneggiate anche in modi più sottili. Se sono sottorappresentate nel set di dati usati per il training, per esempio, un sistema di riconoscimento facciale può essere inefficace con loro. Ma anche quando sono adeguatamente rappresentati, la soluzione di calibrazione ottimale per un sistema può essere quella di risultare molto accurata con la maggioranza e molto meno accurata, o completamente inaccurata, con la piccola minoranza. "Questo tipo di bias è più difficile da rilevare e da correggere," dice Trevisan.
Ascolta l'episodio e segui la serie su:
Spotify
Apple Podcasts
Spreaker
Google Podcasts