Résumé 159 :
Mise en oeuvre de l'échantillonneur de $Gibbs$ pour le modèle des blocs latents
Brault, Vincent ; Celeux, Gilles ; Keribin, Christine
Université Paris Sud
Les modèles de mélanges peuvent être utilisés pour résoudre le problème de la classification non supervisée simultanée d'un ensemble d'objets et d'un ensemble de variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix des classes d'objets et de variables. Mais il n'est pas possible de factoriser la loi jointe conditionnelle des labels rendant impossible le calcul de l'étape d'estimation de l'algorithme EM. Différents algorithmes existent pour contourner cette difficulté, notamment $VEM$, un $EM$ variationnel, proposé par Govaert et Nadif~(2008), l'algorithme $SEM$ de Keribin et al~(2010) ou encore d'un point de vue bayésien, l'algorithme $V$-$Bayes$ proposé par Keribin et al~(2012). D'un point de vue théorique, l'échantillonneur de $Gibbs$ (Keribin et al~(2012)) permet de simuler la loi a posteriori exacte alors que d'autres algorithmes sont obligés de faire des approximations. D'un point de vue pratique, la question de l'atteinte de la stationnarité pour la chaîne générée en est un point délicat. Dans cet exposé, nous étudions la statistique de Brooks-Gelman (1998) comme critère d'arrêt pour le modèle des blocs latents et en proposons des améliorations pour diminuer le temps de convergence.