RICERCA OPERATIVA

Obiettivi formativi

Lo scopo del corso è quello di introdurre gli studenti alla conoscenza dei problemi di Ottimizzazione e delle tecniche di modellizzazione matematica dei problemi decisionali. Si prevede che gli studenti acquisiscano competenze sui modelli di programmazione convessa, di Programmazione Lineare e Programmazione Lineare Intera (proprietà teoriche e condizioni di ottimalità) e gli elementi di base di algoritmi per la loro soluzione. Alla fine del corso, gli studenti dovrebbero essere in grado di selezionare il modello più adatto per il problema in questione e identificare l'algoritmo corrispondente più adatto per la soluzione. Dovrebbero anche essere in grado di indicare se la soluzione fornita dall'algoritmo scelto è certificata come la migliore o se esiste una tolleranza al miglioramento.

Canale 1
LAURA PALAGI Scheda docente

Programmi - Frequenza - Esami

Programma
Modelli prescrittivi/predittivi/descrittivi nella teoria delle decisioni a. Dai dati ai modelli; parametri endogeni/esogeni; b. Modelli di programmazione matematica (MP); c. Classificazione dei MP: ottimizzazione non lineare non vincolata, ottimizzazione vincolata (non lineare/lineare, continua/integrale). Ottimizzazione convessa e concava a. Insieme convesso b. Funzioni convesse; caratterizzazione di una funzione convessa; ottimizzazione convessa c. Proprietà della soluzione ottimale di problemi convessi: Teorema [Assenza di soluzione locale di un problema convesso] con dimostrazione d. Funzione concava e ottimizzazione concava e. Proprietà della soluzione ottimale di problemi convessi: Teorema [Assenza di soluzione interna per problemi concavi] con dimostrazione Soluzione grafica del problema MP in due variabili (grafico della regione fattibile, curve di livello in 2D) Ottimizzazione non vincolata a. Esempi di problemi non vincolati: Modelli predittivi parametrici: regressione lineare e problema dei minimi quadrati lineari; Modelli predittivi non parametrici: addestramento di una rete neurale superficiale (NN). Punto di vista algoritmico delle condizioni di ottimalità: i. direzioni di discesa; condizione sufficiente per identificare la direzione di discesa; ii. il caso speciale delle funzioni convesse; il caso speciale delle funzioni lineari; Derivazione delle condizioni necessarie per l'ottimalità del primo ordine non vincolato; il caso speciale delle funzioni convesse/lineari. d. Uso algoritmico delle condizioni di ottimalità: la direzione del gradiente e il metodo del gradiente. L'algoritmo di backpropagation (o gradiente vaniglia) per l'addestramento di NN. Ottimizzazione continua vincolata: a. Esempi di problemi vincolati: i. modelli non lineari: modello di progettazione (non vincolato), (programmazione quadratica) Macchine a Vettori di Supporto per la classificazione supervisionata ii. modelli lineari: Il problema dell'assegnazione, Il problema del trasporto, Il problema della miscelazione, Il problema della gestione delle entrate, Il problema della produzione con scorte, Modellazione di funzioni obiettivo convesse lineari omogenee; Punto di vista algoritmico delle condizioni di ottimalità nel caso di vincoli lineari: assenza di direzioni percorribili e di discesa. c. Caratterizzazione delle direzioni di fattibilità nel caso speciale di vincoli lineari d. Uso algoritmico delle condizioni di ottimalità: i. il metodo del gradiente condizionato (Frank-Wolfe) Derivazione della condizione di ottimalità nel caso di vincoli lineari di sola uguaglianza Teorema: condizione di ottimalità lagrangiana del primo ordine su Ax = b con dimostrazione Derivazione delle condizioni di ottimalità per un problema di disuguaglianza lineare vincolata; teorema Le condizioni di Karush-Kuhn-Tucker su un poliedro con prova 6. Il caso speciale di min/max di una funzione lineare su un poliedro (problema di programmazione lineare) a. Il teorema fondamentale della LP e la caratterizzazione dei vertici b. Soluzione grafica di problemi LP 2D 7. Teoria della dualità per LP Le condizioni di KKT per LP: Teorema della dualità forte con dimostrazione Teorema della dualità debole con dimostrazione (derivazione dei limiti sul valore ottimale) Analisi di sensibilità: come le variazioni dei parametri del modello influenzano la soluzione Prezzi ombra (marginali) per i vincoli attivi; e. Un algoritmo di soluzione del problema Knapsack continuo basato sul suo duale; f. Uso di solutori non disponibili e interpretazione della soluzione. Programmazione intera a. Esempi di ILP: capital budgeting, problema di Knapsack, generazione di energia, progettazione di reti. b. Esempio di IQP: i problemi SVM con selezione delle caratteristiche. c. Uso di una variabile binaria per la modellazione: vincoli disgiuntivi, funzione obiettivo concava a tratti. d. Il metodo Branch & Bound per ILP e. La soluzione del problema knapsack binario con l'algoritmo B&B
Prerequisiti
Algebra lineare, vettori, derivate parziali
Testi di riferimento
Dispense a cura della docente
Frequenza
in presenza
Modalità di esame
La valutazione prevede lo svolgimento di una prova scritte a risposta multipla e aperta che mira alla verifiche delle competenze metodologiche. L'orale è facoltativo
Modalità di erogazione
in presenza
LAURA PALAGI Scheda docente

Programmi - Frequenza - Esami

Programma
Modelli prescrittivi/predittivi/descrittivi nella teoria delle decisioni a. Dai dati ai modelli; parametri endogeni/esogeni; b. Modelli di programmazione matematica (MP); c. Classificazione dei MP: ottimizzazione non lineare non vincolata, ottimizzazione vincolata (non lineare/lineare, continua/integrale). Ottimizzazione convessa e concava a. Insieme convesso b. Funzioni convesse; caratterizzazione di una funzione convessa; ottimizzazione convessa c. Proprietà della soluzione ottimale di problemi convessi: Teorema [Assenza di soluzione locale di un problema convesso] con dimostrazione d. Funzione concava e ottimizzazione concava e. Proprietà della soluzione ottimale di problemi convessi: Teorema [Assenza di soluzione interna per problemi concavi] con dimostrazione Soluzione grafica del problema MP in due variabili (grafico della regione fattibile, curve di livello in 2D) Ottimizzazione non vincolata a. Esempi di problemi non vincolati: Modelli predittivi parametrici: regressione lineare e problema dei minimi quadrati lineari; Modelli predittivi non parametrici: addestramento di una rete neurale superficiale (NN). Punto di vista algoritmico delle condizioni di ottimalità: i. direzioni di discesa; condizione sufficiente per identificare la direzione di discesa; ii. il caso speciale delle funzioni convesse; il caso speciale delle funzioni lineari; Derivazione delle condizioni necessarie per l'ottimalità del primo ordine non vincolato; il caso speciale delle funzioni convesse/lineari. d. Uso algoritmico delle condizioni di ottimalità: la direzione del gradiente e il metodo del gradiente. L'algoritmo di backpropagation (o gradiente vaniglia) per l'addestramento di NN. Ottimizzazione continua vincolata: a. Esempi di problemi vincolati: i. modelli non lineari: modello di progettazione (non vincolato), (programmazione quadratica) Macchine a Vettori di Supporto per la classificazione supervisionata ii. modelli lineari: Il problema dell'assegnazione, Il problema del trasporto, Il problema della miscelazione, Il problema della gestione delle entrate, Il problema della produzione con scorte, Modellazione di funzioni obiettivo convesse lineari omogenee; Punto di vista algoritmico delle condizioni di ottimalità nel caso di vincoli lineari: assenza di direzioni percorribili e di discesa. c. Caratterizzazione delle direzioni di fattibilità nel caso speciale di vincoli lineari d. Uso algoritmico delle condizioni di ottimalità: i. il metodo del gradiente condizionato (Frank-Wolfe) Derivazione della condizione di ottimalità nel caso di vincoli lineari di sola uguaglianza Teorema: condizione di ottimalità lagrangiana del primo ordine su Ax = b con dimostrazione Derivazione delle condizioni di ottimalità per un problema di disuguaglianza lineare vincolata; teorema Le condizioni di Karush-Kuhn-Tucker su un poliedro con prova 6. Il caso speciale di min/max di una funzione lineare su un poliedro (problema di programmazione lineare) a. Il teorema fondamentale della LP e la caratterizzazione dei vertici b. Soluzione grafica di problemi LP 2D 7. Teoria della dualità per LP Le condizioni di KKT per LP: Teorema della dualità forte con dimostrazione Teorema della dualità debole con dimostrazione (derivazione dei limiti sul valore ottimale) Analisi di sensibilità: come le variazioni dei parametri del modello influenzano la soluzione Prezzi ombra (marginali) per i vincoli attivi; e. Un algoritmo di soluzione del problema Knapsack continuo basato sul suo duale; f. Uso di solutori non disponibili e interpretazione della soluzione. Programmazione intera a. Esempi di ILP: capital budgeting, problema di Knapsack, generazione di energia, progettazione di reti. b. Esempio di IQP: i problemi SVM con selezione delle caratteristiche. c. Uso di una variabile binaria per la modellazione: vincoli disgiuntivi, funzione obiettivo concava a tratti. d. Il metodo Branch & Bound per ILP e. La soluzione del problema knapsack binario con l'algoritmo B&B
Prerequisiti
Algebra lineare, vettori, derivate parziali
Testi di riferimento
Dispense a cura della docente
Frequenza
in presenza
Modalità di esame
La valutazione prevede lo svolgimento di una prova scritte a risposta multipla e aperta che mira alla verifiche delle competenze metodologiche. L'orale è facoltativo
Modalità di erogazione
in presenza
  • Codice insegnamento1002027
  • Anno accademico2025/2026
  • CorsoIngegneria per l'Ambiente e il Territorio
  • CurriculumCurriculum unico
  • Anno3º anno
  • Semestre2º semestre
  • SSDMAT/09
  • CFU6