MULTILINGUAL NATURAL LANGUAGE PROCESSING

Obiettivi formativi

Obiettivi Generali Lo scopo del corso è quello di fornire una panoramica sulle tecniche più avanzate di elaborazione del linguaggio naturale e le loro applicazioni. Obiettivi Specifici Gli studenti impareranno i principi del trattamento automatico delle lingue, comprendendo come le macchine possono interpretare, generare e rispondere al linguaggio umano. Questo include temi come la rappresentazione delle parole, i word e i sense embedding, le architetture neurali per l'NLP, la traduzione automatica, e più in generale la generazione di testo. Conoscenza e Comprensione -) Conoscenza delle architetture di reti neurali, come le reti neurali ricorrenti e i Transformer, utilizzate per l'elaborazione del linguaggio naturale. -) Conoscenza dei metodi di apprendimento supervisionato e non supervisionato in NLP. -) Conoscenza delle tecniche di semantica computazionale lessicale e frasale. -) Comprensione dei modelli di linguaggio per interpretare e generare testo. Applicazione di Conoscenza e Comprensione -) Come sviluppare modelli per la comprensione del linguaggio -) Come sviluppare modelli per la generazione del linguaggio -) Come utilizzare le architetture neurali per l'NLP Autonomia di Giudizio Gli studenti saranno in grado di valutare l'efficacia delle tecniche di NLP nelle diverse applicazioni. Abilità Comunicative Gli studenti saranno in grado di spiegare i principi e le tecniche di elaborazione del linguaggio naturale. Capacità di Apprendimento Successivo Gli studenti interessati alla ricerca scopriranno quali sono le principali sfide aperte nell'area dell'NLP, ottenendo le basi necessarie per studi più approfonditi in materia.

Canale 1
ROBERTO NAVIGLI Scheda docente

Programmi - Frequenza - Esami

Programma
Introduction to Natural Language Processing N-gram language models; smoothing; interpolation; backoff Deep learning for NLP Introduction to PyTorch and PyTorch Lightning Monolingual and multilingual word embeddings, sense and concept embeddings Neural language models: recurrent and Transformer-based (BERT, XLM-RoBERTa, GPT-x, etc.) Computational lexical semantics Computational lexicons: WordNet Multilingual semantic networks: BabelNet Word embeddings vs. contextualized word embeddings vs. sense embeddings Word Sense Disambiguation and Entity Linking Multilinguality in Natural Language Processing Computational sentence-level semantics Neural Semantic Role Labeling and Semantic Parsing Natural Language Generation and Question Answering Neural Machine Translation
Prerequisiti
Nessun prerequisito.
Testi di riferimento
Jurafsky and Martin. Speech and Language Processing, Prentice Hall, third edition. Jacob Eisenstein. Introduction to Natural Language Processing, MIT Press, 2019.
Frequenza
In presenza.
Modalità di esame
Invio di homework + presentazione orale degli stessi.
Modalità di erogazione
In presenza.
  • Codice insegnamento10606869
  • Anno accademico2024/2025
  • CorsoArtificial Intelligence and Robotics - Intelligenza Artificiale e Robotica
  • CurriculumCurriculum unico
  • Anno1º anno
  • Semestre2º semestre
  • SSDINF/01
  • CFU6
  • Ambito disciplinareAttività formative affini o integrative