Nel caso in cui il rumore di osservazione non sia isotropico non è più possibile usare la distanza euclidea per misurare l'errore ma è necessario passare alla distanza di Mahalanobis.
Sotto questa differente metrica la funzione costo (3.42) si scrive
|
(3.58) |
dove
è la matrice dell'informazione (information matrix) detta anche matrice di concentrazione o matrice di precisione. La distanza di Mahalanobis è lo stimatore ottimo nel senso di Maximum Likelihood quando il rumore è Gaussiano anisotropo a media nulla.
Nel caso particolare in cui la matrice di covarianza sia diagonale questo approccio può ricondursi totalmente all'approccio ai minimi quadrati pesato.
L'espansione in serie di Taylor dell'equazione (3.58) si scrive
|
(3.59) |
con e calcolate in
. La matrice
è la matrice dell'informazione dell'intero sistema in quanto ottenuta dalla proiezione dell'errore di misura nello spazio dei parametri attraverso lo Jacobiano mentre
è stato introdotto per compattezza.
Le derivate della funzione di conseguenza diventano
|
(3.60) |
Da questo risultato, se si vuole trovare il minimo della funzione costo usando Gauss-Newton si ottiene un risultato simile a quello visto in precedenza
|
(3.61) |
risultato molto simile a quella di equazione (3.45) ottenuta da Gauss-Newton con rumore isotropo.
Paolo medici
2024-01-10