Programma
Lingue storico-naturali e Large Language Model: modelli teorici a confronto
Il corso si propone di fornire gli strumenti teorici essenziali per un confronto tra le lingue storico-naturali e i Large Language Model (LLM), che costituiscono il modello di riferimento dell’Intelligenza Artificiale di ultima generazione. Si illustrerà, anzitutto, la transizione dai modelli dell’IA simbolica ai modelli sub-simbolici fondati sull’architettura delle reti neurali profonde (Deep Neural Network) adibiti al Deep Learning. Questo passaggio, che utilizza tecnologie note da tempo, si è consumato negli ultimi vent’anni, comportando un mutamento dei modelli teorici e un rinnovato dibattito sulle affinità e le differenze tra l’intelligenza umana e quella artificiale. Ai fini del Natural Language Processing (NPL), il modello simbolico prevede che ogni livello della lingua sia analizzato e rappresentato (annotato); tuttavia, il comportamento linguistico delle macchine non è né qualitativamente né quantitativamente comparabile né con quello umano, né con quello dei sistemi attuali. Questi ultimi, infatti, applicano tecniche di estrazione delle regolarità e delle strutture su base statistica, a partire da dati linguistici e non linguistici grezzi. Sfruttando una potenza di calcolo inimmaginabile, si rivitalizza un modello di lingua teorizzato dallo strutturalismo hjelmsleviano e jakobsoniano e, in particolare, dal distribuzionalismo. Sebbene attualmente il modello “autonomistico” strutturalista sia minoritario nel dibattito filosofico-linguistico, l’analisi dei suoi limiti - anche alla luce di alcuni sviluppi maturati nel seno dello strutturalismo linguistico stesso e delle teorie semantico-cognitive e semiotico-cognitive - mostrerà la distanza tra i LLM e le lingue storico naturali. A tal proposito, si metteranno a confronto, più nel dettaglio, i processi di acquisizione della lingua, l’uso della lingua nelle prassi comunicative e il ruolo del grounding nei processi di sense-making.
Prerequisiti
Non sono richiesti specifici prerequisiti.
Testi di riferimento
1. Jakobson, R. (1966), Saggi di linguistica generale, Milano, Feltrinelli (o successive edizioni).
2. Tavosanis, M. (2018), Lingue e intelligenza artificiale, Roma, Carocci.
3. Gastaldi, Juan Luis & Pellissier, Luc, “The calculus of language: explicit representation of emergent linguistic structure through type theoretical paradigms”, Interdisciplinary Science Reviews, 46:4, 569-590, DOI: 10.1080/03080188.2021.1890484 - https://doi.org/10.1080/03080188.2021.1890484
Ulteriori letture e riferimenti bibliografici saranno indicati durante il corso.
Frequenza
La frequenza è altamente consigliata
Modalità di esame
L’esame prevede un colloquio orale. Compatibilmente con il numero di frequentanti, gli studenti potranno organizzarsi per presentare un lavoro di gruppo (da un minimo di 3 a un massimo di 5 persone) su un tema del programma che sarà valutato con il 30% del voto finale. Il restante 70% sarà, in tal caso, ottenuto tramite l’esame orale.
Modalità di erogazione
La prima metà del corso sarà caratterizzata prevalentemente da lezioni frontali; la seconda parte incoraggerà, invece, alla discussione delle tematiche via via acquisite e approfondite, prevedendo la partecipazione diretta secondo modalità che saranno specificate durante il corso in base al numero degli studenti e alla loro disponibilità.