OPTIMIZATION AND DECISION SCIENCE
Obiettivi formativi
Introdurre i problemi di ottimizzazione e decision science, fornendo competenze sulle caratteristiche dei problemi e dei metodi di ottimizzazione matematica adottati nel campo dell'ingegneria, e proponendo dei primi esempi di realizzazione e utilizzazione. Risultati di apprendimento attesi: Permettere allo studente di saper classificare i diversi problemi di ottimizzazione e decision science, di conoscere le più importanti caratterizzazioni matematiche delle loro soluzione e di essere in grado di formulare alcune classi di problemi reali come particolari problemi di programmazione matematica.
Canale 1
LAURA PALAGI
Scheda docente
Programmi - Frequenza - Esami
Programma
Modelli prescrittivi/predittivi/descrittivi nella teoria delle decisioni
a. Dai dati ai modelli; parametri endogeni/esogeni;
b. Modelli di programmazione matematica (MP);
c. Classificazione dei MP: ottimizzazione non lineare non vincolata, ottimizzazione vincolata (non lineare/lineare, continua/integrale).
Ottimizzazione convessa e concava
a. Insieme convesso
b. Funzioni convesse; caratterizzazione di una funzione convessa; ottimizzazione convessa
c. Proprietà della soluzione ottimale di problemi convessi:
Teorema [Assenza di soluzione locale di un problema convesso] con dimostrazione
d. Funzione concava e ottimizzazione concava
e. Proprietà della soluzione ottimale di problemi convessi:
Teorema [Assenza di soluzione interna per problemi concavi] con dimostrazione
Soluzione grafica del problema MP in due variabili (grafico della regione fattibile, curve di livello in 2D)
Ottimizzazione non vincolata
a. Esempi di problemi non vincolati:
Modelli predittivi parametrici: regressione lineare e problema dei minimi quadrati lineari;
Modelli predittivi non parametrici: addestramento di una rete neurale superficiale (NN).
Punto di vista algoritmico delle condizioni di ottimalità:
i. direzioni di discesa; condizione sufficiente per identificare la direzione di discesa;
ii. il caso speciale delle funzioni convesse; il caso speciale delle funzioni lineari;
Derivazione delle condizioni necessarie per l'ottimalità del primo ordine non vincolato; il caso speciale delle funzioni convesse/lineari.
d. Uso algoritmico delle condizioni di ottimalità: la direzione del gradiente e il metodo del gradiente. L'algoritmo di backpropagation (o gradiente vaniglia) per l'addestramento di NN.
Ottimizzazione continua vincolata:
a. Esempi di problemi vincolati:
i. modelli non lineari: modello di progettazione (non vincolato), (programmazione quadratica) Macchine a Vettori di Supporto per la classificazione supervisionata
ii. modelli lineari:
Il problema dell'assegnazione,
Il problema del trasporto,
Il problema della miscelazione,
Il problema della gestione delle entrate,
Il problema della produzione con scorte,
Modellazione di funzioni obiettivo convesse lineari omogenee;
Punto di vista algoritmico delle condizioni di ottimalità nel caso di vincoli lineari: assenza di direzioni percorribili e di discesa.
c. Caratterizzazione delle direzioni di fattibilità nel caso speciale di vincoli lineari
d. Uso algoritmico delle condizioni di ottimalità:
i. il metodo del gradiente condizionato (Frank-Wolfe)
Derivazione della condizione di ottimalità nel caso di vincoli lineari di sola uguaglianza
Teorema: condizione di ottimalità lagrangiana del primo ordine su Ax = b con dimostrazione
Derivazione delle condizioni di ottimalità per un problema di disuguaglianza lineare vincolata; teorema Le condizioni di Karush-Kuhn-Tucker su un poliedro con prova
6. Il caso speciale di min/max di una funzione lineare su un poliedro (problema di programmazione lineare)
a. Il teorema fondamentale della LP e la caratterizzazione dei vertici
b. Soluzione grafica di problemi LP 2D
7. Teoria della dualità per LP
Le condizioni di KKT per LP: Teorema della dualità forte con dimostrazione
Teorema della dualità debole con dimostrazione (derivazione dei limiti sul valore ottimale)
Analisi di sensibilità: come le variazioni dei parametri del modello influenzano la soluzione
Prezzi ombra (marginali) per i vincoli attivi;
e. Un algoritmo di soluzione del problema Knapsack continuo basato sul suo duale;
f. Uso di solutori non disponibili e interpretazione della soluzione.
Programmazione intera
a. Esempi di ILP: capital budgeting, problema di Knapsack, generazione di energia, progettazione di reti.
b. Esempio di IQP: i problemi SVM con selezione delle caratteristiche.
c. Uso di una variabile binaria per la modellazione: vincoli disgiuntivi, funzione obiettivo concava a tratti.
d. Il metodo Branch & Bound per ILP
e. La soluzione del problema knapsack binario con l'algoritmo B&B
Prerequisiti
Algebra lineare, vettori, derivate parziali
Testi di riferimento
Dispense a cura della docente
Frequenza
in presenza
Modalità di esame
La valutazione prevede lo svolgimento di una prova scritte a risposta multipla e aperta che mira alla verifiche delle competenze metodologiche.
L'orale è facoltativo
Modalità di erogazione
in presenza
LAURA PALAGI
Scheda docente
Programmi - Frequenza - Esami
Programma
Modelli prescrittivi/predittivi/descrittivi nella teoria delle decisioni
a. Dai dati ai modelli; parametri endogeni/esogeni;
b. Modelli di programmazione matematica (MP);
c. Classificazione dei MP: ottimizzazione non lineare non vincolata, ottimizzazione vincolata (non lineare/lineare, continua/integrale).
Ottimizzazione convessa e concava
a. Insieme convesso
b. Funzioni convesse; caratterizzazione di una funzione convessa; ottimizzazione convessa
c. Proprietà della soluzione ottimale di problemi convessi:
Teorema [Assenza di soluzione locale di un problema convesso] con dimostrazione
d. Funzione concava e ottimizzazione concava
e. Proprietà della soluzione ottimale di problemi convessi:
Teorema [Assenza di soluzione interna per problemi concavi] con dimostrazione
Soluzione grafica del problema MP in due variabili (grafico della regione fattibile, curve di livello in 2D)
Ottimizzazione non vincolata
a. Esempi di problemi non vincolati:
Modelli predittivi parametrici: regressione lineare e problema dei minimi quadrati lineari;
Modelli predittivi non parametrici: addestramento di una rete neurale superficiale (NN).
Punto di vista algoritmico delle condizioni di ottimalità:
i. direzioni di discesa; condizione sufficiente per identificare la direzione di discesa;
ii. il caso speciale delle funzioni convesse; il caso speciale delle funzioni lineari;
Derivazione delle condizioni necessarie per l'ottimalità del primo ordine non vincolato; il caso speciale delle funzioni convesse/lineari.
d. Uso algoritmico delle condizioni di ottimalità: la direzione del gradiente e il metodo del gradiente. L'algoritmo di backpropagation (o gradiente vaniglia) per l'addestramento di NN.
Ottimizzazione continua vincolata:
a. Esempi di problemi vincolati:
i. modelli non lineari: modello di progettazione (non vincolato), (programmazione quadratica) Macchine a Vettori di Supporto per la classificazione supervisionata
ii. modelli lineari:
Il problema dell'assegnazione,
Il problema del trasporto,
Il problema della miscelazione,
Il problema della gestione delle entrate,
Il problema della produzione con scorte,
Modellazione di funzioni obiettivo convesse lineari omogenee;
Punto di vista algoritmico delle condizioni di ottimalità nel caso di vincoli lineari: assenza di direzioni percorribili e di discesa.
c. Caratterizzazione delle direzioni di fattibilità nel caso speciale di vincoli lineari
d. Uso algoritmico delle condizioni di ottimalità:
i. il metodo del gradiente condizionato (Frank-Wolfe)
Derivazione della condizione di ottimalità nel caso di vincoli lineari di sola uguaglianza
Teorema: condizione di ottimalità lagrangiana del primo ordine su Ax = b con dimostrazione
Derivazione delle condizioni di ottimalità per un problema di disuguaglianza lineare vincolata; teorema Le condizioni di Karush-Kuhn-Tucker su un poliedro con prova
6. Il caso speciale di min/max di una funzione lineare su un poliedro (problema di programmazione lineare)
a. Il teorema fondamentale della LP e la caratterizzazione dei vertici
b. Soluzione grafica di problemi LP 2D
7. Teoria della dualità per LP
Le condizioni di KKT per LP: Teorema della dualità forte con dimostrazione
Teorema della dualità debole con dimostrazione (derivazione dei limiti sul valore ottimale)
Analisi di sensibilità: come le variazioni dei parametri del modello influenzano la soluzione
Prezzi ombra (marginali) per i vincoli attivi;
e. Un algoritmo di soluzione del problema Knapsack continuo basato sul suo duale;
f. Uso di solutori non disponibili e interpretazione della soluzione.
Programmazione intera
a. Esempi di ILP: capital budgeting, problema di Knapsack, generazione di energia, progettazione di reti.
b. Esempio di IQP: i problemi SVM con selezione delle caratteristiche.
c. Uso di una variabile binaria per la modellazione: vincoli disgiuntivi, funzione obiettivo concava a tratti.
d. Il metodo Branch & Bound per ILP
e. La soluzione del problema knapsack binario con l'algoritmo B&B
Prerequisiti
Algebra lineare, vettori, derivate parziali
Testi di riferimento
Dispense a cura della docente
Frequenza
in presenza
Modalità di esame
La valutazione prevede lo svolgimento di una prova scritte a risposta multipla e aperta che mira alla verifiche delle competenze metodologiche.
L'orale è facoltativo
Modalità di erogazione
in presenza
- Codice insegnamento10616523
- Anno accademico2025/2026
- CorsoTransport Systems Engineering - Ingegneria dei Sistemi di Trasporto
- CurriculumCurriculum unico
- Anno1º anno
- Semestre2º semestre
- SSDMAT/09
- CFU6