Il decollo dei big data
Le missioni spaziali sono probabilmente le imprese più complesse mai progettate dall'uomo. Gli studenti della Bocconi hanno recentemente avuto modo di apprezzare come temi quali i big data, l'intelligenza artificiale e la modellazione scientifica, che sono al centro dell'attenzione di molti ricercatori bocconiani, trovino applicazione anche nella progettazione delle missioni spaziali.
Giuseppe Cataldo, responsabile della NASA per la protezione planetaria del Mars Sample Return Capture, Containment and Return System, nella sua lezione all'Università Bocconi, tenuta nell'ambito del corso "Big Data for Business Analytics" diretto da Emanuele Borgonovo, direttore del Dipartimento di Scienze delle Decisioni, ha illustrato come la modellazione scientifica e l'intelligenza artificiale siano integrate da scienziati e ingegneri della NASA nella progettazione delle missioni spaziali. Cataldo ha descritto le applicazioni della modellazione scientifica alle missioni NASA che hanno conquistato le prime pagine dei media nazionali e internazionali, come il progetto James Webb Space Telescope. Ha proposto un avvincente viaggio attraverso i metodi scientifici per l'esplorazione spaziale basandosi sui risultati da lui pubblicati sulle riviste scientifiche. Le sue considerazioni hanno spaziato dall'arte della modellazione scientifica a questioni come l'integrazione della modellazione scientifica con il machine learning e l'intelligenza artificiale, che consente agli scienziati di applicare i modelli a una velocità maggiore.
Giuseppe Cataldo ha spiegato come gli scienziati utilizzino le loro conoscenze teoriche dei processi e dei fenomeni fisici rilevanti per costruire simulatori ad alta fedeltà. Questi simulatori hanno l'obiettivo di fornire approfondimenti su aspetti che vanno dal comportamento dei materiali nelle difficili condizioni dello spazio all'interazione di diversi sistemi tecnologici. Questi modelli computerizzati, per via della loro sofisticatezza, possono avere tempi di esecuzione di diversi giorni, anche se fatti girare su supercomputer estremamente potenti. Tempi di esecuzione così lunghi mettono a dura prova la possibilità di eseguire una corretta convalida dei risultati dei codici, nonché un'adeguata quantificazione delle incertezze coinvolte. Tuttavia, l'integrazione con tecniche di machine learning consente di ridurre notevolmente i tempi di esecuzione e gli scienziati possono quindi applicare metodi numerici per osservare nei dettagli il comportamento del codice.
"Sull'analisi di sensibilità e sull'applicazione di metodi per la quantificazione dell'incertezza," ha detto Cataldo, "stiamo collaborando con il professor Borgonovo per applicare nuove tecniche allo scopo di affrontare le nuove problematiche che questi modelli complessi generano."
La conferenza del dottor Cataldo ha sottolineato l'importanza di eseguire analisi di sensibilità per arrivare a ulteriori approfondimenti su questi modelli e per aumentarne l'interpretabilità e la spiegabilità. Questo aspetto è trasversale a tutti gli sforzi che implicano la modellazione scientifica e il machine learning, dove diventa cruciale che le previsioni del modello siano esaminate a fondo prima di poter essere utilizzate per assistere il processo decisionale.