MATEMATICA APPLICATA PER LA SOSTENIBILITA': MODELLI CALCOLI IA

Canale 1
DOMENICO VITULANO Scheda docente

Programmi - Frequenza - Esami

Programma
L’insegnamento prevede 60 ore di didattica con riferimento agli argomenti di seguito riportati per un totale di 6 CFU. 1) ALGEBRA LINEARE (richiami): spazi vettoriali. Rappresentazione geometrica dei vettori e delle operazioni con vettori. Insiemi di vettori linearmente dipendenti e indipendenti. Rango di un insieme di vettori. Dimensione e base di uno spazio vettoriale. Sottospazi vettoriali. Determinante di una matrice quadrata. Caratteristica o rango di una matrice, Teorema di Rouché-Capelli e teorema di Cramer. Sistemi numerici e parametrici. Sistemi lineari omogenei. Cambiamento di base in uno spazio vettoriale e sue conseguenze sulle componenti di un vettore.. 2) APPLICAZIONI LINEARI TRA DUE SPAZI VETTORIALI DI DIMENSIONE FINITA: concetti generali: nucleo e immagine. Associazione di una matrice ad un'applicazione lineare. Cambiamenti di base: cenni. Autovalori e autovettori. Teorema sul legame tra autovalori e (in)dipendenza degli autovettori associati. Diagonalizzazione di un'applicazione lineare. 3) FORME QUADRATICHE: Caratterizzazione di una forma quadratica. Metodo dei minori. Metodo degli autovalori. Teorema condizione necessaria e sufficiente sul segno di una forma quadratica. Forma canonica di una forma quadratica. Forma quadratica vincolata. 4) CALCOLO VETTORIALE: Funzioni di più variabili. Insieme di definizione. Derivate direzionali. Derivate parziali. Derivate parziali di ordine successive al primo. Teorema di Schwarz. Differenziabilità. Gradiente e differenziale totale. Formula del gradiente. Iperpiano tangente. Matrice Hessiana. Matrice Jacobiana. Funzioni omogenee. Teorema di Eulero. Formula di Taylor per funzioni di più variabili. 5) OTTIMIZZAZIONE STATICA: estremanti, estremi locali. Punti stazionari. Punti di sella. Ottimizzazione libera. Condizioni necessarie e sufficienti del secondo ordine (metodo dei minori, degli autovalori e del polinomio caratteristico). Funzioni convesse. Ottimizzazione vincolata. Metodo di esplicitazione. Metodo dei moltiplicatori di Lagrange. Matrice Hessiana orlata. Condizioni necessarie e sufficienti del secondo ordine. Caso generale: n funzioni e p vincoli. Introduzione a Matlab con le su principali funzioni. Fondamenti sul machine learning Cenni storici. I pilastri del machine learning: dati, modelli, learning. Dati come vettori. Modelli come funzioni. Tre fasi principali: Predizione (o inferenza). Training (o stima dei parametri). Selezione del modello(o tuning di iperparametri). Minimi quadrati da un punto di vista numerico e dal punto di vista del machine learning. Training, Validation e testing. Esempi pratici in economia e esercizi in Matlab Riduzione della dimensionalità: storia e Principal Component Analysis. Massima varianza. Covarianza, autovalori e autovettori. MNIST dataset. Esempi in Matlab. Classificazione. Unsupervised learning, Supervised learning, Reinforcement learning. Support Vector Machine. Iperpiani. Derivazione tradizionale di margin, soft margin, Dual Support Vector Machine. Simulazioni in Matlab
Prerequisiti
Fondamenti di Algebra lineare
Testi di riferimento
Sergio Bianchi, “Appunti di Algebra lineare”. Dispense distribuite gratuitamente. Neural Networks and Deep Learning: A Textbook, Charu C. Aggarwal, Springer MATHEMATICS FOR MACHINE LEARNING, Marc Peter Deisenroth, A. Aldo Faisal, Cheng Soon Ong, Cambridge University Press Materiale disponibile: https://elearning.uniroma1.it/ (cercare MML2DV)
Frequenza
La frequenza non è obbligatoria
Modalità di esame
Esercizi teorici svolti in classe e in Matlab con un report scritto finale
Modalità di erogazione
Lezioni con slide e esercitazioni in laboratorio (Matlab)
SILVIA MARCONI Scheda docente
  • Codice insegnamento10616812
  • Anno accademico2025/2026
  • CorsoEconomia e management (sede di Latina)
  • CurriculumManagement delle imprese e della sostenibilità
  • Anno1º anno
  • Semestre2º semestre
  • SSDSECS-S/06
  • CFU9