L'Europa e la sfida della regolamentazione dell'intelligenza artificiale nel settore finanziario
Il progresso dell'Intelligenza Artificiale (IA) promette enormi benefici per la società e l'economia, ma comporta anche rischi significativi. Questi rischi, dovuti alla complessità, opacità e autonomia dei sistemi IA, rendono difficile per le autorità di regolamentazione garantire la conformità alle leggi esistenti e determinare la responsabilità in caso di malfunzionamenti. Questo problema è particolarmente acuto nei mercati finanziari, dove un errore di un sistema IA può avere conseguenze disastrose sia per gli individui che per la stabilità del mercato.
L'Unione Europea sta cercando di colmare il divario tra il quadro giuridico esistente e l'evoluzione dell'IA. Gli strumenti legislative attuali includono l'AI Act, che introduce obblighi preventivi, e la proposta di Direttiva sulla Responsabilità dell'IA, che mira a creare un quadro di responsabilità. Queste normative mirano a garantire che i sistemi IA siano centrati sull'uomo, etici, spiegabili, sostenibili e rispettosi dei diritti fondamentali.
Il recente paper di Maria Lillà Montagnani, Marie-Claire Najjar e Antonio Davola, intitolato “The EU Regulatory approach(es) to AI liability, and its Application to the financial services market”, esplora proprio queste tematiche. Gli autori evidenziano come l'IA possa portare benefici significativi, ma anche rischi considerevoli, soprattutto in settori complessi come i servizi finanziari. Essi sottolineano l'importanza di un quadro giuridico che possa bilanciare l'innovazione tecnologica con la necessità di proteggere i diritti degli individui e la stabilità del mercato.
Un caso emblematico che illustra i rischi dell'IA nei mercati finanziari è quello di Tyndaris SAM e VWM Limited. Nel 2017, Tyndaris aveva firmato un accordo con VWM per gestire un conto utilizzando un supercomputer IA, il K1, capace di prevedere il sentimento del mercato e fornire segnali di trading basati su notizie in tempo reale e dati dai social media. Tuttavia, il sistema ha subito perdite significative, portando VWM a chiedere la sospensione delle operazioni e a intraprendere azioni legali contro Tyndaris. Questo caso, analizzato nel paper, mette in luce come l'IA, se non adeguatamente supervisionata, possa comportare gravi rischi.
Il settore finanziario è particolarmente vulnerabile all'IA a causa della sua dipendenza da dati esterni e della necessità di adattarsi rapidamente a nuovi input. Le caratteristiche dell'IA, come la capacità di autoapprendimento e l'opacità dei processi decisionali, rendono difficile attribuire la responsabilità in caso di danni. Ad esempio, un sistema di scoring del credito basato sull'IA può discriminare ingiustamente alcuni gruppi di persone, o un algoritmo di trading ad alta frequenza può amplificare la volatilità del mercato, con effetti a catena sull'economia.
Per affrontare questi problemi, l'UE ha introdotto l'AI Act, che distingue tra sistemi IA a rischio alto e basso, e impone obblighi specifici per garantire la trasparenza, la robustezza e la sicurezza dei sistemi IA. In caso di violazioni, sono previste sanzioni severe per incentivare la conformità.
Parallelamente, la proposta di Direttiva sulla Responsabilità dell'IA prevede meccanismi per alleggerire l'onere della prova per le vittime di danni causati da sistemi IA. Ad esempio, le corti nazionali possono ordinare la divulgazione di prove rilevanti per sostenere i reclami di responsabilità. Inoltre, sono introdotte presunzioni legali per facilitare la dimostrazione del nesso causale tra l’uso di un sistema di IA e il danno subito per effetto di quell’uso.
Queste normative avranno un impatto significativo sui mercati finanziari, dove l'uso intensivo di tecnologie basate sull'IA richiede una supervisione rigorosa per prevenire danni sistemici. La regolamentazione dell'IA in ambito finanziario deve quindi essere coordinata con le normative settoriali esistenti, come il regolamento DORA, che mira a garantire la resilienza operativa digitale delle entità finanziarie.
Maria Lillà Montagnani, Professoressa di Diritto Commerciale all'Università Bocconi di Milano, afferma: “La sfida principale per i legislatori è trovare un equilibrio tra l'innovazione tecnologica e la protezione dei diritti fondamentali. La regolamentazione dell'IA deve essere rigorosa per garantire sicurezza e trasparenza, ma anche flessibile per non soffocare l'innovazione.”
In conclusione, l'approccio dell'UE alla regolamentazione dell'IA, come evidenziato nel paper di Montagnani, Najjar e Davola, cerca di bilanciare l'innovazione con la protezione dei consumatori, creando un ambiente di fiducia necessario per lo sviluppo dell'IA. Questa strategia è cruciale per garantire che l'IA possa portare benefici alla società senza compromettere i diritti fondamentali e la stabilità economica.