Contatti
Opinioni

L'eta' della disinformazione

, di Oreste Pollicino - ordinario presso di Dipartimento di studi giuridici
ChatGPT e l'Ai generativa rischiano di amplificare anche i fenomeni di hate speech e diffamazione online aprendo questioni sia sotto il profilo etico che energetico. Oltre che giuridico

Il dialogo con un'intelligenza artificiale è lo sport del momento. Gli investimenti colossali, i risultati sorprendenti, le preoccupazioni crescenti hanno posto le tecnologie del tipo di ChatGPT - intelligenza artificiale generativa - sulla cresta dell'onda dell'entusiasmo digitale.
Uno dei problemi più significativi che si pone al riguardo è la possibilità di amplificare ulteriormente il fenomeno della disinformazione online, perché l'accesso alla conoscenza potrebbe essere condizionato da testi spesso convincenti e persuasivi, ma non del tutto veritieri.
Un riferimento imprescindibile nel ragionamento giuridico è quello costituito dai diritti fondamentali che sono tutelati dalle nostre carte costituzionali, analogiche ma ancora attualissime. In particolare, si fa riferimento al diritto ad essere informati, se non in modo veritiero, quantomeno attendibile; al principio di habeas data nella sua evidente proiezione digitale e al diritto all'equa remunerazione per i titolari del diritto d'autore.
Queste prime riflessioni ci portano a poter sostenere come, al di là della normativa in cantiere, e in particolare della proposta di Artificial Intelligence ACT, il principio personalistico che caratterizza tutto l'impianto della nostra Carta costituzionale e della Carta dei diritti fondamentali dell'Unione europea offre già un sicuro orientamento, con particolare riferimento alla protezione della dignità della persona, da tutelare come singolo e nella sua partecipazione alle comunità sociali intermedie, che rischia di essere sottoposta a un incessante processo di frammentazione e sgretolamento a causa dell'esplosione delle tecniche di intelligenza artificiale.

Oltre alle questioni giuridiche che, come quelle relative alla tutela, prima evocata, del diritto d'autore, occuperanno piacevolmente le giornate di giudici, avvocati e studiosi, ci sono però almeno due questioni da porre. La prima è di carattere etico, la seconda è relativa al problema energetico.

Quanto alla prima questione, vi è l'errata convinzione che, trattandosi di un meccanismo di intelligenza artificiale, seppure non della più sofisticata, i processi di automazione che vanno ad estrarre, dal serbatoio costituito dalla sconfinata quantità di dati presenti su internet, una narrativa testuale apparentemente originale e convincente, spesso accompagnata da un taglio buonista e assai diplomatico, siano "autosufficienti" e che quindi la componente umana sia del tutto assente. Nulla di più falso. Per avere quel risultato, come fatto emergere in uno scritto recente da Roberto Battiston e Massimo Sideri sul Corriere della sera, c'è un lavoro di migliaia di "operai" dell'intelligenza artificiale generativa, che potrebbero essere anche chiamati i "nuovi schiavi", se si pensa che, spesso in Asia o in Africa, per poco più di un dollaro al giorno, effettuano un lavoro di ricerca e di classificazione all'interno di uno dei mondi virtuali più inquietanti e alienanti, come è il dark web, proprio per addomesticare l'aggressività verbale e visiva delle prime versioni di ChatGPT. È evidente che si sollevino a questo riguardo parecchi interrogativi di carattere etico non solo legati al processo di sfruttamento - e, si potrebbe aggiungere, di vera e propria alienazione cui sono sottoposti tali individui -, ma anche relativi a possibili scenari in cui, modificandosi le intenzioni di chi controlla la cornice verbale e linguistica all'interno della quale prendono corpo le risposte alle nostre domande, le prime potrebbero assumere un tono provocatorio, aggressivo o anche offensivo. Risposte in cui, ai problemi di disinformazione, si aggiungerebbero quelli di hate speech e di diffamazione online.

La seconda questione tocca invece profili legati a profili energetici, quanto mai rilevanti nella attuale, ben nota, contingenza storica. Come notato di recente dalla presidente del CNR Maria Chiara Carrozza, non è affatto a costo zero l'utilizzo delle tecniche di intelligenza artificiale generativa. Quest'ultima, infatti, ha una capacità di consumo e quindi, in certi casi, di spreco energetico assai significativa, perché, come si diceva, per il proprio funzionamento necessita dell'attivazione di una quantità sconfinata di dati insieme a una forza computazionale rilevante.
Attenzione però a non essere eccessivamente pessimisti. L'AI generativa costituisce, dal punto di vista della teoria del linguaggio, il vero ponte, come notato dalla stessa Carrozza, tra cultura umanistica e scienza informatica, in quanto utilizza una tecnica di linguistica computazionale che costruisce una narrativa di matrice umanistica sulla base di un calcolo probabilistico tipico delle scienze dure.