NATURAL LANGUAGE PROCESSING

Obiettivi formativi

Obiettivi generali: I fondamenti dell'elaborazione del linguaggio naturale. Obiettivi specifici: L'elaborazione del linguaggio naturale al livello di: morfologia, parte del discorso, sintassi, semantica, pragmatica. Traduzione automatica. Conoscenza e comprensione: Conoscenza e comprensione delle tecniche algoritmiche e di apprendimento automatica per l'elaborazione del linguaggio naturale. Applicare conoscenza e comprensione: Essere in grado di applicare le tecniche di elaborazione del linguaggio naturale mediante homework e un progetto. Capacità critiche e di giudizio: Capacità di comprendere e identificare soluzioni efficaci ai problemi dell'elaborazione del linguaggio naturale. Capacità comunicative: Capacità di illustrare il progetto sviluppato. Capacità di apprendimento: Capacità di apprendere e applicare nuove tecniche di elaborazione del linguaggio naturale sia basate su quelle illustrate nel corso sia basate su approcci innovativi.

Canale 1
IACOPO MASI Scheda docente

Programmi - Frequenza - Esami

Programma
Si veda: https://github.com/iacopomasi/NLP - Introduzione al Natural Language Processing - Modelli N-gram; smoothing; interpolation; backoff - Assegnazione part-of-speech (incluso POS tagging multilingue) - Analisi sintattica: tecniche statistiche e neurali - Semantica computazionale e semantica lessicale - Lessici computazionali: WordNet - Reti semantiche multilingue: BabelNet - Word Sense Disambiguation; Entity Linking - Multilinguismo nel Natural Language Processing - Reti neurali, incorporamenti di parole e sensi e deep learning - Etichettatura dei ruoli semantici neurali e analisi semantica - Traduzione automatica statistica - Generazione del linguaggio naturale e Question Answering - Modelli di linguaggio neurale (Transformers, BERT, XLM-RoBERTa, GPT) - Traduzione automatica neurale - Applicazioni avanzate di NLP multimodale
Prerequisiti
Teoria della Probabilità, Statistica, Algebra Lineare e Skill di Programmazione in Python.
Testi di riferimento
- Jurafsky and Martin. Speech and Language Processing, Prentice Hall, third edition, in preparation. - Jacob Eisenstein. Introduction to Natural Language Processing, MIT Press, 2019. - Yoav Goldberg. Neural Network Methods for Natural Language Processing, Morgan & Claypool, 2017. - https://d2l.ai/
Modalità insegnamento
Modalità di svolgimento delle lezione in presenza, con la possiblita' di attendere da remoto (Zoom o Meet)
Frequenza
Facoltativa ma è consigliato seguire il corso in presenza
Modalità di esame
L'esame comprende una parte scritta che testa la parte di teoria e una parte pratica in cui è necessario implementare e analizzare un sistema di NLP di base/avanzato. Essa può essere svolta con homework durante il corso o con un progetto finale.
Modalità di erogazione
Modalità di svolgimento delle lezione in presenza, con la possiblita' di attendere da remoto (Zoom o Meet)
IACOPO MASI Scheda docente

Programmi - Frequenza - Esami

Programma
Si veda: https://github.com/iacopomasi/NLP - Introduzione al Natural Language Processing - Modelli N-gram; smoothing; interpolation; backoff - Assegnazione part-of-speech (incluso POS tagging multilingue) - Analisi sintattica: tecniche statistiche e neurali - Semantica computazionale e semantica lessicale - Lessici computazionali: WordNet - Reti semantiche multilingue: BabelNet - Word Sense Disambiguation; Entity Linking - Multilinguismo nel Natural Language Processing - Reti neurali, incorporamenti di parole e sensi e deep learning - Etichettatura dei ruoli semantici neurali e analisi semantica - Traduzione automatica statistica - Generazione del linguaggio naturale e Question Answering - Modelli di linguaggio neurale (Transformers, BERT, XLM-RoBERTa, GPT) - Traduzione automatica neurale - Applicazioni avanzate di NLP multimodale
Prerequisiti
Teoria della Probabilità, Statistica, Algebra Lineare e Skill di Programmazione in Python.
Testi di riferimento
- Jurafsky and Martin. Speech and Language Processing, Prentice Hall, third edition, in preparation. - Jacob Eisenstein. Introduction to Natural Language Processing, MIT Press, 2019. - Yoav Goldberg. Neural Network Methods for Natural Language Processing, Morgan & Claypool, 2017. - https://d2l.ai/
Modalità insegnamento
Modalità di svolgimento delle lezione in presenza, con la possiblita' di attendere da remoto (Zoom o Meet)
Frequenza
Facoltativa ma è consigliato seguire il corso in presenza
Modalità di esame
L'esame comprende una parte scritta che testa la parte di teoria e una parte pratica in cui è necessario implementare e analizzare un sistema di NLP di base/avanzato. Essa può essere svolta con homework durante il corso o con un progetto finale.
Modalità di erogazione
Modalità di svolgimento delle lezione in presenza, con la possiblita' di attendere da remoto (Zoom o Meet)
STEFANO FARALLI Scheda docente

Programmi - Frequenza - Esami

Programma
- Introduzione al Natural Language Processing- Modelli N-gram; smoothing; interpolation; backoff- Assegnazione part-of-speech (incluso POS tagging multilingue)- Analisi sintattica: tecniche statistiche e neurali- Semantica computazionale e semantica lessicale- Lessici computazionali: WordNet- Reti semantiche multilingue: BabelNet- Word Sense Disambiguation; Entity Linking- Multilinguismo nel Natural Language Processing- Reti neurali, incorporamenti di parole e sensi e deep learning- Etichettatura dei ruoli semantici neurali e analisi semantica- Traduzione automatica statistica- Generazione del linguaggio naturale e Question Answering- Modelli di linguaggio neurale (Transformers, BERT, XLM-RoBERTa, GPT)- Traduzione automatica neurale- Applicazioni avanzate di NLP multimodale
Prerequisiti
Teoria della Probabilità, Statistica, Apprendimento Automatico e Skill di Programmazione in Python.
Testi di riferimento
- Jurafsky and Martin. Speech and Language Processing, Prentice Hall, third edition, in preparation.- Jacob Eisenstein. Introduction to Natural Language Processing, MIT Press, 2019.- Yoav Goldberg. Neural Network Methods for Natural Language Processing, Morgan & Claypool, 2017.Gli articoli scientifici che costituiscono la bibliografia di riferimento vengono forniti insieme al materiale delle diapositive presentate durante il corso.
Frequenza
Facoltativa ma è consigliato seguire il corso in presenza
Modalità di esame
Si prevedono prove scritte ed esercitazioni su applicazioni pratiche.
Modalità di erogazione
Modalità di svolgimento delle lezione in presenza, con la possiblita' nel caso di emergenza sanitaria di attendere da remoto (Zoom o Meet)
STEFANO FARALLI Scheda docente

Programmi - Frequenza - Esami

Programma
- Introduzione al Natural Language Processing- Modelli N-gram; smoothing; interpolation; backoff- Assegnazione part-of-speech (incluso POS tagging multilingue)- Analisi sintattica: tecniche statistiche e neurali- Semantica computazionale e semantica lessicale- Lessici computazionali: WordNet- Reti semantiche multilingue: BabelNet- Word Sense Disambiguation; Entity Linking- Multilinguismo nel Natural Language Processing- Reti neurali, incorporamenti di parole e sensi e deep learning- Etichettatura dei ruoli semantici neurali e analisi semantica- Traduzione automatica statistica- Generazione del linguaggio naturale e Question Answering- Modelli di linguaggio neurale (Transformers, BERT, XLM-RoBERTa, GPT)- Traduzione automatica neurale- Applicazioni avanzate di NLP multimodale
Prerequisiti
Teoria della Probabilità, Statistica, Apprendimento Automatico e Skill di Programmazione in Python.
Testi di riferimento
- Jurafsky and Martin. Speech and Language Processing, Prentice Hall, third edition, in preparation.- Jacob Eisenstein. Introduction to Natural Language Processing, MIT Press, 2019.- Yoav Goldberg. Neural Network Methods for Natural Language Processing, Morgan & Claypool, 2017.Gli articoli scientifici che costituiscono la bibliografia di riferimento vengono forniti insieme al materiale delle diapositive presentate durante il corso.
Frequenza
Facoltativa ma è consigliato seguire il corso in presenza
Modalità di esame
Si prevedono prove scritte ed esercitazioni su applicazioni pratiche.
Modalità di erogazione
Modalità di svolgimento delle lezione in presenza, con la possiblita' nel caso di emergenza sanitaria di attendere da remoto (Zoom o Meet)
  • Codice insegnamento1038141
  • Anno accademico2025/2026
  • CorsoComputer Science - Informatica
  • CurriculumCurriculum unico
  • Anno1º anno
  • Semestre2º semestre
  • SSDINF/01
  • CFU6
  • Ambito disciplinareAttività formative affini o integrative