2011 - 2012
Ressources
Web sites
TC2
- Cours Introduction 3 octobre 2011
- Cours Réseaux Neuronaux {file name="Cours_IAC_TC2_2011_NN.pdf" desc="6 octobre 2011}
- Cours Bayesien Naif transparents
- Cours Apprentissage non supervisé transparents
- Cours Modeles de Markov transparents 1, transparents 2
- Cours Représentations 27 octobre
- Cours Optimisation: Partie I: Introduction et méthodes déterministes, 3 novembre
- Cours Optimisation: Partie II: Méthodes stochastiques, 3 novembre
Voir aussi
http://www.limsi.fr/Individu/yvon/mysite/mysite.php?n=Site.ASO
Articles
- Latent Dirichlet Allocation
- Feature selection, L1 vs. L2 regularization, and rotational invariance
- Error Limiting Reductions between Classification Tasks
- Learning to rank using gradient descent
Projets
Les projets 3, 4 et 9 peuvent être pris par un binome.
- Projet 1 : Classification Réseaux Neuronaux Abdulhafiz ALKHOULI
- Données MNIST; algorithme rétro-propagation du gradient.
- Etude de l'influence de l'initialisation des poids et du pas d'apprentissage
- Projet 2 : Auto-encodeur. Bryan Brancotte
- Donnees IMAGES
- voir http://www.stanford.edu/class/cs294a si besoin d'information pour ouvrir les donnees.
- Prendre des imagettes (8x8) tirees aleatoirement dans les images.
- Definir un NN avec 64 sorties, et l'entrainer pour que l'output soit egal à l'input (c'est ce qu'on appelle un auto-encodeur).
- Afficher pour chacun des neurones de la couche cachée l'imagette de norme 1 qui l'excite le plus (i.e. pour lequel la valeur est maximale).
- Projet 3 : Machine à Vecteurs Supports (linéaire et sans variables ressorts)
- Le principe : http://en.wikipedia.org/wiki/Support_vector_machine
- L'algorithme : libSVM http://www.csie.ntu.edu.tw/~cjlin/libsvm/
- Donnees: probleme URL sur la page http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/
- Projet 4 : Recursive Feature Elimination
- Donnees: ARCENE, http://www.nipsfsc.ecs.soton.ac.uk/datasets/
- Ajouter des features aleatoires
- Prendre des sous-ensembles de donnees de petite taille
- Sur chaque sous-ensemble, apprendre une hypothèse linéaire
- Définir l'importance d'un feature en fonction de son poids dans les différentes hypothèses linéaires
- Ordonner les features selon ce score d'importance
- Voir le nombre de features plus importantes que les features aléatoires.
- Projet 5 : Adaboost Khrystyna Kyrgyzova
- Données MNIST, classes 4 et 9
- Principe : http://en.wikipedia.org/wiki/AdaBoost
- Espace des hypotheses: choix d'un pixel; apprendre la valeur v telle que l'hypothese pixel > v est le meilleur classifieur (au sens de la distribution courante) utilisant ce pixel.
- Projet 6 : Résolution de "packing problems" (voir http://www.packomania.com/ ) (A. Auger)
- Considérer le problème d'empilements de cercles de rayons identiques dans un carré
- Formuler le problème sous forme d'un problème d'optimisation
- Utiliser l'algorithme CMA-ES pour résoudre le problème (on récupérera le code ici: http://www.lri.fr/~hansen/cmaes_inmatlab.html )
- On pourra traiter les contraintes par méthode de pénalisation
- Comparer les résultats obtenus aux meilleures solutions connues (http://www.packomania.com/ )
- Projet 7: Méthode de quasi-Newton (BFGS) et (1+1)-ES avec règle des 1/5 (A. Auger)
- L'objectif de ce projet est de comparer la méthode de quasi-Newton BFGS, l'algorithme stochastique (1+1)-ES avec règle des 1/5 pour l'optimisation de fonctions (1) convexes régulières, (2) bruitées et (3) non-convexes (voir le descriptif détaillé du projet)
- Projet 8 : Deviner la langue d'un fragment de texte (Allauzen + Yvon)
- Principe: "Naive bayes" avec des modèles de Markov de lettres
- Données: dictionnaires, pages web, etc (mailto:yvon@limsi.fr)
- Projet 9: les HMMs en MatLab (pour deux personnes) (Allauzen + Yvon)
- programmer la résolution des 4 algorithmes de base
- application à l'étiquetage de de séquences supervisé et semi-supervisé
- Projet 10: apprendre des HMM par échantillonnage de Gibbs (Allauzen + Yvon)
- application à l'étiquetage de de séquences non-supervisé et/ou semi-supervisé
- Données: étiquetage en entité nommées (mailto:yvon@limsi.fr)
- Projet 11: Les dépendances dans les séquences (Allauzen + Yvon)
- Principe: comparer trois approches pour faire de la classification supervisée
- pas de prise en compte des dépendances
- stacking
- HMM
- Données: prononciation automatique (mailto:yvon@limsi.fr)
- Projet 12: Mélange de multinomiale, extension bilingues (Allauzen + Yvon)
- Principe: étendre le mélange de multinomiale pour des données bilingues alignées
- Données: extrait des débat du parlement européen (par exemple)
- Projet 13: génératif ou discriminant ? (Allauzen + Yvon)
- Principe: implémenter l'apprentissage et l'inférence pour un classifieur Maxent multiclasse
- Comparer avec un classifieur Naive Bayes
- Données: filtrage de spam, analyse de critiques de films etc.
TP
- Matlab/Octave (introduction à Octave)
- Perceptron
- Licence Cachan 2012
2010 - 2011
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation
Courses
- Introduction: slides
- Bayes: slides
- Neurons: slides
- Non supervisé: slides
- Neurones, suite slides + representation: slides
- Markov: slides
- Markov suite + regression logistique slides
- Optimisation: slides (21 premiers slides traités en cours).
TP
- Matlab/Octave (introduction à Octave)
- multinomiales
- mélanges de multinomiales
- Markov
- regression logistique
- TP optimisation
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation, & Applications
Courses
- 1er cours, slides
- Intro to classification + boosting
- Support vector machines
- Bayesian estimation, Gaussian processes, Monte-Carlo Markov chains
- Apprentissage par renforcement (cours 7 et 8).
Annonces internes de stages
Annonces externes de stages
2009-2010
2011 Master
2008-2009