Cours

L'étape manquante dans l'ex1

Dans l'exercice 1, nous avons détaillé l'étape E qui consiste à estimer les valeurs numériques de {$Q_{ij}$} (en abrégé), avec : {$$Q_{ij} = P(y_j | x_i, \theta^t) $$}

Ensuite, il faut ré-optimiser les paramètres du modèle en maximisant la vraisemblance: {$$ \arg\max_{\theta^{t+1}} \log\mathcal L = \arg\max_{\theta^{t+1}} \sum_i \sum_j Q_{ij} \log\left( \frac{P(x_i,y_j | \theta^{t+1})}{Q_{ij}}\right)$$}

ATTENTION: les {$Q_{ij}$} sont évalués sur les paramètres {$\theta^t$} tandis que les probabilités de la vraisemblance dépendent de {$\theta^{t+1}$} {$\Rightarrow$} PAS DE SIMPLIFICATION !

Solution: Simplification... {$$ \arg\max_{\theta^{t+1}} \sum_i \sum_j Q_{ij} \log\left( \frac{P(x_i,y_j | \theta^{t+1})}{Q_{ij}}\right) = \arg\max_{\theta^{t+1}} \sum_i \sum_j Q_{ij} \log\left( P(x_i,y_j | \theta^{t+1})\right) $$}

Car {$\log\left( \frac{P(x_i,y_j | \theta^{t+1})}{Q_{ij}}\right) = \log P(x_i,y_j | \theta^{t+1}) - \log Q_{ij} $} et {$ \log Q_{ij} $} ne dépend pas de {$ \theta^{t+1}$} !

Ensuite: {$$ \log P(x_i,y_j | \theta^{t+1}) = \log P(x_i | y_j \theta^{t+1}) \log P(y_j | \theta^{t+1})$$} Et on revient sur la correction proposée au tableau

Les difficultés du TME

Normalisation des calculs de Q

Je pense que tous les groupes sont OK... Mais c'était la première difficulté. Toutes les valeurs de {$Q_{ij}$} doivent vérifier: {$\forall i, \sum_j Q_{ij} = 1$}

  • Etape 1: {$\forall i, Q_{ij} = P(x_i | y_j, \theta^t) p(y_j|\theta^t)$}
  • Etape 2: Afin que les {$Q_{ij}$} soient des probabilités a posteriori, il faut les normaliser: {$\forall i, Q_{ij} =\frac{Q_{ij}}{\sum_j Q_{ij}}$}

Maximisation de la vraisemblance

ATTENTION : les formules proposent une mise à jour pour les {$\sigma^2$}! Si on veut {$\sigma$}, il faut prendre la racine.

Les personnes ayant des variances nettement surestimées ont sans doute fait cette erreur.