Préalable obligatoire
- Voir les vidéos des cours de Hugo Larochelle, accessibles ici. Voir également les informations détaillées plus bas.
- Voir également les cours de Yann Le Cun au Collège de France
Séances 1 (A. Allauzen): 27/11
Au programme les bases:- le neurone
- l'architecture feedforward
- l'apprentissage (début)
Les vidéos à voir avant le cours sont : les vidéos numérotées de 1.1 à 2.3. Le travail à faire pour le 27/11/15 est donc d'avoir suivi ces cours: regarder et prendre des notes comme pour un cours "habituel". La séance du 27/11 partira du principe que ces vidéos ont été visionnées et sera dédiée à vos questions et à des exercices.
Séances 2 et 3 (A. Allauzen)
Pour le second cours, il vous est demandé de suivre AVANT la séance du vendredi 04/12/15 les vidéos numérotées de 2.4 à 2.11. Le travail à faire est donc d'avoir suivi ces cours: regarder et prendre des notes comme pour un cours "habituel". La séance du 04/12 partira du principe que ces vidéos ont été visionnées et sera dédiée à vos questions et à des exercices.La fiche d'exercice est disponible ici.
Le tp2 est disponible: ici.
Les slides aussi.
Séance 4 (Michele Sebag), 18 decembre
- Convolution
- Naissance du deep
- Slides all.pdf
- Additional slides Bengio_nips06.pdf
Bengio_nips06.pdf
- Additional slides Bengio_nips06.pdf
TP:
tp3.zip
- suite de la backprop
- expérimentation de différentes fonctions d'activation
- observation de l'overfitting
Rapport de TP (à rendre le 8 janvier)
- Compte-rendu d'expérience
- Sensibilité hyper-paramètres (nombre de couches cachées, nombre de neurones par couche; fonction d'activation)I
Informations pour le projet final
projet_final.zip- Les questions seront sur l'environnement NN développé pour ImageNet
- Le charger
- Identifiez l'image inverse (= qui excite maximalement) d'un neurone ; ou bien
- Proposez un usage du réseau pré-entrainé (nouveau, amusant, original...)
Séance 5 (Alex Allauzen), 8 janvier
- Initialisation
- Optimisation
- Regularisation
- Drop-out
- Fonction d'activation
Les slides en pdf.
TP:
- régularisation L1, L2
- drop-out
Séance 6 (Yann Ollivier), 15 janvier
- Récurrent
- Back-propagation through time
TP:
- Récurrent
Séance 7 (Michele Sebag), 22 janvier
- Applications
- Modèles continus du langage
- Domaine adaptation
- Modèles génératifs et morphing
- Cours_Deep_22_jan.pdf
TP
- Usage du réseau ImageNet
- TBC