====== Réunion du 18/09/14 ====== les lectures associées: - [[http://web.stanford.edu/class/cs294a/sparseAutoencoder.pdf|modèles feed-forward]] - [[http://minds.jacobs-university.de/sites/default/files/uploads/papers/ESNTutorialRev.pdf|Pour les réseaux récurrents, ESN, ...]] - [[http://www.idsia.ch/~juergen/tpami_2008.pdf|Pour les LSTM]] et surtout encore mieux [[http://www.cs.toronto.edu/~graves/phd.pdf|la thèse d'Alex Graves]] ===== Modèles neuronaux: les bases ===== **Yann Ollivier**, au programme: - Notations - Modèle Feed-Forward et Back-Propagation - Modèle récurrents et Back-Propagation-Though-Time ===== Réseaux récurrents bi-directionnels pour la reconnaissance de l’écriture ===== ** Laurence Likforman-Sulem **: {{:pres2014_saclay_slidesll-2.pdf|}} - LSTM et Bi-LSTM