SIGNAL PROCESSING FOR MACHINE LEARNING

Obiettivi formativi

Obiettivi L'obiettivo del corso è insegnare le metodologie di base dell'elaborazione dei segnali e mostrare la loro applicazione al machine learning e alla data science. I metodi includono: (i) strumenti standard per l'elaborazione di serie temporali e immagini, come l'analisi in frequenza, il filtraggio e il campionamento; (ii) Modelli di dati basati su sparsità e basso rango con applicazioni all'elaborazione di dati con alta dimensionalità (p.es., ricostruzione sparsa, fattorizzazione di matrici, completamento di tensori); (iii) Strumenti di elaborazione di segnali su grafo, adatti ad analizzare ed elaborare dati definiti su domini non metrici (ad es. grafi, ipergrafi, topologie, ecc.) con l’obiettivo di realizzare task di graph machine learning come filtraggio su grafo, clustering spettrale, inferenza della topologia dai dati e reti neurali su grafo. Infine, viene mostrato come formulare e risolvere problemi di machine learning in modo distribuito, adatto per applicazioni di big data, dove l'apprendimento e l'elaborazione dei dati devono essere necessariamente eseguiti su più macchine. Homework ed esercitazioni su dati reali saranno svolti utilizzando Python e/o Matlab. Obiettivi specifici: 6. Conoscenza e comprensione: Apprendere le basi dell'elaborazione dei segnali per il machine learning e applicare questi concetti a problemi di data science. 7. Applicazione: Applicare tecniche di elaborazione dei segnali e machine learning su set di dati reali, utilizzando linguaggi di programmazione come Python e Matlab. 8. Autonomia di giudizio: Analizzare i vantaggi e i limiti dei diversi strumenti e modelli e determinare la migliore metodologia da utilizzare per un determinato problema. 9. Comunicazione: Comunicare in modo efficace nei campi dell’elaborazione dei segnali e del machine learning, considerando la teoria, i vincoli, le soluzioni e le potenziali applicazioni. 10. Abilità di apprendimento: Sviluppare studi nel campo dell'elaborazione dei segnali per il machine learning, inclusa la capacità di intraprendere ricerche in questo settore.

Canale 1
SERGIO BARBAROSSA Scheda docente

Programmi - Frequenza - Esami

Programma
Parte 1: Metodi e applicazioni di elaborazione dei segnali Definizione di segnali, proprietà dei segnali, rappresentazioni discrete, trasformate di Fourier, filtraggio, teoria del campionamento, applicazioni a segnali audio e immagini. Nozioni di base sull'ottimizzazione convessa: insiemi convessi, funzioni convesse, problemi di ottimizzazione convessa. Rappresentazioni sparse, sensing compressivo, applicazione al recupero di immagini. Completamento di matrici, applicazione ai sistemi di raccomandazione. Modelli sparsi e a basso rango, Applicazione alla previsione del traffico sulle reti. Parte 2: Elaborazione e apprendimento da dati definiti su grafi Teoria algebrica dei grafi: proprietà dei grafi, connettività, centralità dei gradi, centralità degli autovettori, PageRank, middleness, modularità, clustering spettrale. Grafi di indipendenza: reti di Markov, reti di Bayes, campi casuali di Markov gaussiani, inferenza della topologia dei grafi dai dati. Applicazione all'inferenza della connettività funzionale del cervello. Elaborazione dei segnali su grafi: trasformata di Fourier su grafo, filtraggio su grafi, campionamento e interpolazione dei segnali su grafi. Processi di diffusione, filtri convoluzionali su grafi. Applicazione al filtraggio distribuito e all'interpolazione dei segnali. Deep Learning su grafi: progettazione di architetture neurali su grafo, pooling, meccanismi di attenzione. Applicazioni a problemi di classificazione di grafi e nodi. Parte 3: Ottimizzazione distribuita e apprendimento Ottimizzazione del consenso distribuito: consenso su reti, discesa del gradiente distribuito, analisi di convergenza, architetture di comunicazione, aggiunta di strutture (ad esempio vincoli, sparsità, ecc.) tramite operatori prossimali. Applicazione alla localizzazione distribuita di target nelle reti wireless. Apprendimento federato: federated averaging, esempi di problemi di apprendimento federato, applicazione a support vector machines. Sfide nell'apprendimento federato: comunicazioni costose, eterogeneità di sistema e statistica, privacy. Apprendimento convesso federato: fondamenti di teoria della dualità, metodi di ottimizzazione primale-duale (ascensione duale, metodo dei moltiplicatori, ADMM). ADMM distribuito con suddivisione in esempi e/o funzionalità. Applicazione a problemi di apprendimento convessi federati.
Prerequisiti
Conoscenze di base di analisi matematica, algebra lineare e teoria della probabilità
Testi di riferimento
Vetterli, Martin, Jelena Kovačević, and Vivek K. Goyal. Foundations of signal processing. Cambridge University Press, 2014. S. Foucart and R. Holger, A mathematical introduction to compressive sensing, Basel: Birkhäuser, 2013. S. Boyd and L. Vandenberghe, Convex Optimization, Cambridge University Press, 2004; [M.E.J. Newman, Networks: An Introduction, Oxford, UK: Oxford University Press. S. Boyd et al., Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers, Foundations and Trends in Machine Learning, 3(1):1–122, 2011.
Frequenza
La frequenza non è obbligatoria ma è altamente raccomandata
Modalità di esame
Esame orale più la discussione di un progetto informatico svolto su uno degli argomenti del corso.
PAOLO DI LORENZO Scheda docente
  • Codice insegnamento10610252
  • Anno accademico2025/2026
  • CorsoData Science
  • CurriculumCurriculum unico
  • Anno2º anno
  • Semestre1º semestre
  • SSDING-INF/03
  • CFU6