DEEP LEARNING
Canale 1
AURELIO UNCINI
Scheda docente
Programmi - Frequenza - Esami
Programma
1. Richiami essenziali (ridotti): backpropagation, ottimizzazione stocastica, regolarizzazione (solo ponte con ML).
2. DNN avanzate: ResNet, DenseNet, EfficientNet; tecniche di training avanzato (LR scheduling, weight init, batch norm, dropout evoluto).
3. Computer Vision: CNN avanzate, Inception/MobileNet, Vision Transformers (ViT), transfer learning, data augmentation.
4. Modelli generativi:
o Richiami AE e VAE.
o GAN: DCGAN, StyleGAN, BigGAN, CycleGAN.
o Modelli Diffusivi (Diffusion Models): DDPM, DDIM, score-based, applicazioni (Stable Diffusion, DALL·E).
o Confronto GAN vs VAE vs Diffusion.
5. Sequence Modeling & NLP: tokenization, embedding, attenzione, RNN/LSTM/GRU (richiamo), Transformer (BERT, GPT), sequence-to-sequence, fine-tuning (LoRA, adapters).
6. Temi emergenti: multimodal DL (CLIP, Flamingo), self-supervised (SimCLR, BYOL), RLHF (reinforcement learning from human feedback), efficienza dei modelli (pruning, quantization, distillation).
Prerequisiti
Conoscenze di Machine Learning di base (apprendimento supervisionato e non supervisionato). Conoscenze preliminari di Python, NumPy, SkLearn e PyTorch/TS .
Testi di riferimento
(1) A. Uncini, "MeM-AI: Mathematical Elements of Modern Artificial Intelligence", Dispense Ed. 2025.
(2) A. Uncini, "Introduction to Neural Networks and Deep Learning", Dispense Ed. 2025.
(3) Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola, “Dive into Deep Learning,” CoRR abs/2106.11342 (2021)
Frequenza
In aula tutti seduti
Modalità di esame
Elaborato finale (tesina) pdf, Presentazione del progetto e dei risultati, eventuale demo 24 pt
Discussione + domanda teoriche 6 pt
Modalità di erogazione
NO
Didattica a distanza solo in eventi specifici ed eccezionali.
AURELIO UNCINI
Scheda docente
Programmi - Frequenza - Esami
Programma
1. Richiami essenziali (ridotti): backpropagation, ottimizzazione stocastica, regolarizzazione (solo ponte con ML).
2. DNN avanzate: ResNet, DenseNet, EfficientNet; tecniche di training avanzato (LR scheduling, weight init, batch norm, dropout evoluto).
3. Computer Vision: CNN avanzate, Inception/MobileNet, Vision Transformers (ViT), transfer learning, data augmentation.
4. Modelli generativi:
o Richiami AE e VAE.
o GAN: DCGAN, StyleGAN, BigGAN, CycleGAN.
o Modelli Diffusivi (Diffusion Models): DDPM, DDIM, score-based, applicazioni (Stable Diffusion, DALL·E).
o Confronto GAN vs VAE vs Diffusion.
5. Sequence Modeling & NLP: tokenization, embedding, attenzione, RNN/LSTM/GRU (richiamo), Transformer (BERT, GPT), sequence-to-sequence, fine-tuning (LoRA, adapters).
6. Temi emergenti: multimodal DL (CLIP, Flamingo), self-supervised (SimCLR, BYOL), RLHF (reinforcement learning from human feedback), efficienza dei modelli (pruning, quantization, distillation).
Prerequisiti
Conoscenze di Machine Learning di base (apprendimento supervisionato e non supervisionato). Conoscenze preliminari di Python, NumPy, SkLearn e PyTorch/TS .
Testi di riferimento
(1) A. Uncini, "MeM-AI: Mathematical Elements of Modern Artificial Intelligence", Dispense Ed. 2025.
(2) A. Uncini, "Introduction to Neural Networks and Deep Learning", Dispense Ed. 2025.
(3) Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola, “Dive into Deep Learning,” CoRR abs/2106.11342 (2021)
Frequenza
In aula tutti seduti
Modalità di esame
Elaborato finale (tesina) pdf, Presentazione del progetto e dei risultati, eventuale demo 24 pt
Discussione + domanda teoriche 6 pt
Modalità di erogazione
NO
Didattica a distanza solo in eventi specifici ed eccezionali.
- Codice insegnamento10612271
- Anno accademico2025/2026
- CorsoTelecommunication Engineering - Ingegneria delle Telecomunicazioni
- CurriculumIngegneria delle Comunicazioni (percorso valido anche ai fini del rilascio del doppio titolo italo-francese o italo-statunitense )
- Anno2º anno
- Semestre2º semestre
- SSDING-IND/31
- CFU6