Contatti

Riccardo Zecchina, l'uomo che insegna alle macchine come imparare

, di Claudio Todesco
Machine learning e deep learning sono tra gli interessi scientifici del nuovo professore ordinario del Dipartimento di scienze delle decisioni

Il machine learning ci sta cambiando la vita. La capacità delle reti neurali artificiali di apprendere, sul modello delle loro controparti umane, ispira i ricercatori a concepire l'intelligenza artificiale in modo inedito, per non parlare di come il deep learning abbia innescato la competizione tra i giganti tecnologici e il lancio di startup in ogni parte del globo. Molti ritengono, però, che il deep learning sia ancora in buona parte un settore empirico e che vi sia un bisogno impellente di analisi teorica approfondita e di un continuo progresso nella progettazione di algoritmi. È qui che si colloca il lavoro di Riccardo Zecchina, nuovo professore ordinario del Dipartimento di scienze delle decisioni. L'opera di Zecchina si situa al crocevia tra computer science, teoria dell'informazione, fisica statistica, biologia computazionale. "Le scienze naturali e sociali", dice, "stanno attraversando un periodo di rapidissima evoluzione".

Esplosione informativa
L'esplosione dei big data pone nuove sfide e ispira la scienza a porsi domande inedite. È possibile estrarre informazioni significative dai dati? E come farlo in modo efficiente? Come si fa a imparare e generalizzare dagli esempi? Come costruire nessi causali? Oggigiorno i computer sono in grado di riconoscere oggetti all'interno di scene complesse, processare un discorso e rispondere a domande, estrarre caratteristiche rilevanti da una gran quantità di dati o partecipare a giochi che richiedono una qualche forma di strategia sofisticata. In molte applicazioni, l'intelligenza artificiale (IA) sta raggiungendo capacità paragonabili se non superiori a quelle umane. "A dispetto del battage da cui sono stati circondati negli ultimi decenni", dice Zecchina, "questi studi e applicazioni sarebbero stati impossibili da realizzare anche solo una decina d'anni fa. Il vero progresso è stato innescato dallo sviluppo congiunto di nuove tecnologie per la produzione e l'acquisizione dei dati, di potenti piattaforme informatiche e di algoritmi innovativi per il machine learning. Attualmente gli strumenti principali dell'IA sono le reti neurali artificiali profonde (deep networks) ispirate ai sistemi neurali umani".

Problemi di ottimizzazione
Zecchina ha fornito contributi essenziali nello sviluppo di schemi concettuali e algoritmici in problemi di ottimizzazione che dipendono da milioni o persino dozzine di milioni di variabili. È un tipo di approccio algoritmico che di recente è stato adottato nel campo del machine learning. "La caratteristica distintiva della mia attività di ricerca è l'identificazione di controparti algoritmiche delle tecniche analitiche avanzate che sono state sviluppate nel contesto della fisica statistica dei sistemi complessi. Questo ha portato a nuovi algoritmi distribuiti che hanno esteso i confini dell'ottimizzazione e dei problemi di inferenza tradizionalmente considerati intrattabili". Grazie a questi risultati, Zecchina ha ricevuto vari riconoscimenti internazionali fra cui un ERC Advanced Grant per il progetto di ricerca Optimization and inference algorithms from the theory of disordered systems e nel 2016 il Lars Onsager Prize conferito dalla American Physical Society.

Machine learning
Negli ultimi anni Zecchina si è dedicato allo studio del machine learning e di problemi inversi di data science, che potremmo definire grossolanamente come strategie per inferire modelli dai dati. Uno degli ultimi risultati, ottenuto con Carlo Baldassi, nuovo assistant professor al Dipartimento di scienze delle decisioni, è stata la comprensione analitica e algoritmica di alcuni meccanismi all'origine del successo del deep learning. "La speranza è che il lavoro svolto dal gruppo Bocconi possa attirare esperti provenienti da varie discipline per affrontare gli sviluppi più interessanti della data science. Uno dei problemi chiave da affrontare è l'apprendimento non supervisionato, ovvero la capacità di realizzare modelli di un qualche ambiente e di fare previsioni tramite l'osservazione di dati non etichettati e di interazioni con l'ambiente stesso".


Per saperne di più
R. Monasson, R. Zecchina, S. Kirkpatrick, B. Selman, L.Troyansky, Determining computational complexity from characteristic 'phase transitions', Nature 400, 1999.

M. Mezard, G. Parisi, R. Zecchina, Analytic and Algorithmic Solution of Random Satisfiability Problems, Science 297, 2002.

A. Braunstein, M. Mezard, R. Zecchina, Survey Propagation: an algorithm for satisfiability, Random Structures and Algorithms 27, 2005

C. Baldassi, A. Ingrosso, C. Lucibello, L. Saglietti, R. Zecchina, Subdominant dense clusters allow for simple learning and high computational performance in neural networks with discrete synapses, Physical Review Letters 115, 2015.

C. Baldassi, A. Ingrosso, C. Lucibello, L. Saglietti, R. Zecchina, Local entropy as a measure for sampling solutions in constraint satisfaction problems, Journal of Statistical Mechanics: Theory and Experiment, 2016.

C. Baldassi, C. Borgs, J.T. Chayes, A. Ingrosso, C. Lucibello, L. Saglietti, R. Zecchina, Unreasonable effectiveness of learning neural networks: From accessible states and robust ensembles to basic algorithmic schemes, Proceedings of the National Academy of Sciences 113, 2016.

H.C. Nguyen, R. Zecchina, J. Berg, Inverse statistical problems: from the inverse Ising problem to data science, 2017.