Il punto di svolta tra le tecniche non profonde e le tecniche profonde di addestramento è considerato il 2006 quando Hinton e altri all'University of Toronto introducono le Deep Belief Networks (DBNs) (HOT06), un algoritmo che “avidamente” addestra una struttura a strati addestrando uno strato alla volta sfruttando un algoritmo di addestramento non-supervisionato. La peculiarità delle DBN consiste nel fatto che gli strati sono costituiti da Restricted Boltzmann Machine (RBM) (Smo86,FH94).
Sia
una variabile stocastica binaria associata allo stato visibile e
una variabile stocastica binaria associata allo stato nascosto.
Dato uno stato
l'energia della configurazione degli strati visibili e nascosti è data da (Hop82)
La probabilità della configurazione congiunta
è data dalla distribuzione di Boltzmann:
La parola restricted fa riferimento al fatto che non sono ammesse interazioni diretta tra le unità appartenenti allo stesso strato ma solo tra strati limitrofi.
Dato un input , lo stato binario nascosto
viene attivato con probabilità:
| (4.85) |
| (4.86) |
Stimare i parametri del modello
in modo da modellare correttamente la distribuzione dei dati di addestramento è un compito computazionalmente oneroso.
Tuttavia, nel 2002 Hinton propose l'algoritmo di Contrastive Divergence (CD), che permette un addestramento molto più efficiente delle RBM, rendendole finalmente utilizzabili su larga scala.
Una descrizione dettagliata e pratica dell'addestramento delle RBM si può trovare in (Hin12).
Paolo medici