Consideriamo ora un generico problema di modellizzazione (ottimizzazione) di funzione non vincolata, applicabile per esempio a problemi di classificazione nell'ambito della visione artificiale. Le considerazioni espresse in questa sezione si applicano al caso dei minimi quadrati ma possono essere estese a una generica loss function.
Sia l'insieme dei dati coinvolti nell'operazione di modellizzazione formati da una coppia
composizione da un ingresso arbitrario e dall'uscita .
Sia
la funzione costo (loss function) che ritorna la bontà della stima su .
L'obiettivo è trovare i pesi
che parametrizzano la funzione
che minimizzano una funzione costo
Nel caso di errore additivo gaussiano normale, lo stimatore a massima verosimiglianza è la loss function quadratica di equazione (3.6):
(3.28) |
In applicazioni pratiche non è quasi mai possibile ottenere il minimo della funzione in forma chiusa e pertanto bisogna fare ricorso ad opportuni metodi iterativi, i quali, partendo da uno stato iniziale e muovendosi lungo opportune direzioni si avvicinano man mano al minimo della funzione obiettivo.