Table of Contents

Réunion du 18/09/14

les lectures associées:

  1. Pour les LSTM et surtout encore mieux la thèse d'Alex Graves

Modèles neuronaux: les bases

Yann Ollivier, au programme:

  1. Notations
  2. Modèle Feed-Forward et Back-Propagation
  3. Modèle récurrents et Back-Propagation-Though-Time

Réseaux récurrents bi-directionnels pour la reconnaissance de l’écriture

Laurence Likforman-Sulem : pres2014_saclay_slidesll-2.pdf

  1. LSTM et Bi-LSTM