2011 - 2012
Ressources
Web sites
TC2
- Cours Introduction 3 octobre 2011
- Cours Réseaux Neuronaux 6 octobre 2011
- Cours Représentations 27 octobre
- Cours Optimisation: Partie I: Introduction et méthodes déterministes, 3 novembre
- Cours Optimisation: Partie II: Méthodes stochastiques, 3 novembre
Projets
Les projets 3 et 4 peuvent être pris par un binome.
- Projet 1 : Classification Réseaux Neuronaux
- Données MNIST; algorithme rétro-propagation du gradient.
- Etude de l'influence de l'initialisation des poids et du pas d'apprentissage
- Projet 2 : Auto-encodeur
- Donnees IMAGES
- voir http://www.stanford.edu/class/cs294a si besoin d'information pour ouvrir les donnees.
- Prendre des imagettes (8x8) tirees aleatoirement dans les images.
- Definir un NN avec 64 sorties, et l'entrainer pour que l'output soit egal à l'input (c'est ce qu'on appelle un auto-encodeur).
- Afficher pour chacun des neurones de la couche cachée l'imagette de norme 1 qui l'excite le plus (i.e. pour lequel la valeur est maximale).
- Projet 3 : Machine à Vecteurs Supports (linéaire et sans variables ressorts)
- Le principe : http://en.wikipedia.org/wiki/Support_vector_machine
- L'algorithme : libSVM http://www.csie.ntu.edu.tw/~cjlin/libsvm/
- Donnees: probleme URL sur la page http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/
- Projet 4 : Recursive Feature Elimination
- Donnees: ARCENE, http://www.nipsfsc.ecs.soton.ac.uk/datasets/
- Ajouter des features aleatoires
- Prendre des sous-ensembles de donnees de petite taille
- Sur chaque sous-ensemble, apprendre une hypothèse linéaire
- Définir l'importance d'un feature en fonction de son poids dans les différentes hypothèses linéaires
- Ordonner les features selon ce score d'importance
- Voir le nombre de features plus importantes que les features aléatoires.
- Projet 5 : Adaboost
- Données MNIST, classes 4 et 9
- Principe : http://en.wikipedia.org/wiki/AdaBoost
- Espace des hypotheses: choix d'un pixel; apprendre la valeur v telle que l'hypothese pixel > v est le meilleur classifieur (au sens de la distribution courante) utilisant ce pixel.
TP
- Matlab/Octave (introduction à Octave)
- Perceptron
- Licence Cachan 2012
2010 - 2011
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation
Courses
- Introduction: slides
- Bayes: slides
- Neurons: slides
- Non supervisé: slides
- Neurones, suite slides + representation: slides
- Markov: slides
- Markov suite + regression logistique slides
- Optimisation: slides (21 premiers slides traités en cours).
TP
- Matlab/Octave (introduction à Octave)
- multinomiales
- mélanges de multinomiales
- Markov
- regression logistique
- TP optimisation
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation, & Applications
Courses
- 1er cours, slides
- Intro to classification + boosting
- Support vector machines
- Bayesian estimation, Gaussian processes, Monte-Carlo Markov chains
- Apprentissage par renforcement (cours 7 et 8).
Annonces internes de stages
Annonces externes de stages
2009-2010
2011 Master
2008-2009