Come proteggere i diritti dell'utente di fronte a un algoritmo
Chi subisce le conseguenze di una decisione presa da un algoritmo avrebbe il diritto di conoscerne le motivazioni (il cosiddetto right to explanation o right to explicability) e il General Data Protection Regulation (GDPR) dell'Unione Europea, infatti, lo prevede.
"L'effettiva applicabilità della clausola è però controversa per almeno due motivi," avverte Oreste Pollicino, professore di Diritto Costituzionale alla Bocconi, anticipando alcuni dei contenuti del suo intervento al workshop Fairness in AI del 27 giugno. "Il primo motivo è il linguaggio: gli algoritmi sono prodotti con un linguaggio tecnico, che li rende opachi alla stragrande maggioranza dei cittadini. Il secondo concerne il segreto industriale: quando si tratta di algoritmi proprietari, può non esistere l'obbligo di disclosure."
La legislazione europea, con il Digital Services Act di prossima introduzione, mira allora a rafforzare la posizione dell'utente attraverso l'introduzione di obblighi procedurali per le piattaforme, e soprattutto per le cosiddette "very large platforms" che, raccogliendo più dati, hanno anche maggiori possibilità di profilazione.
Tra gli obblighi supplementari ai quali saranno sottoposti questi operatori, ci sono soprattutto una valutazione preliminare del rischio di danneggiare i diritti degli utenti; la possibilità di un contraddittorio effettivo, che si concretizzerà con possibilità di ricorso e interlocuzioni obbligatorie tra piattaforma e utente; la necessità di intraprendere azioni positive (e non solo la rimozione dei contenuti contestati) per rimediare agli eventuali danni apportati dalla discriminazione algoritmica.
In alcune legislazioni, gli algoritmi cominciano a essere utilizzati anche in campo giuridico per prendere decisioni, ad esempio, sulla libertà condizionata o quella su cauzione. Oreste Pollicino osserva una diversa sensibilità negli Stati Uniti, dove la fiducia in questi strumenti è notevole, e in Europa. "In particolare," conclude, "per l'Italia parlerei di umanesimo digitale: la giurisprudenza del Consiglio di Stato chiarisce che un algoritmo non può essere l'elemento esclusivo di valutazione in nessun giudizio, rimettendo sempre la decisione finale alla 'prudente valutazione' di un giudice."