2011 - 2012
Ressources
Web sites
TC2
- Cours Introduction 3 octobre 2011
- Cours Réseaux Neuronaux {file name="Cours_IAC_TC2_2011_NN.pdf" desc="6 octobre 2011}
- Cours Bayesien Naif transparents
- Cours Apprentissage non supervisé transparents
- Cours Modeles de Markov transparents 1, transparents 2
- Cours Représentations 27 octobre
- Cours Optimisation: Partie I: Introduction et méthodes déterministes, 3 novembre
- Cours Optimisation: Partie II: Méthodes stochastiques, 3 novembre
Voir aussi
http://www.limsi.fr/Individu/yvon/mysite/mysite.php?n=Site.ASO
Projets
Les projets 3 et 4 peuvent être pris par un binome.
- Projet 1 : Classification Réseaux Neuronaux
- Données MNIST; algorithme rétro-propagation du gradient.
- Etude de l'influence de l'initialisation des poids et du pas d'apprentissage
- Projet 2 : Auto-encodeur
- Donnees IMAGES
- voir http://www.stanford.edu/class/cs294a si besoin d'information pour ouvrir les donnees.
- Prendre des imagettes (8x8) tirees aleatoirement dans les images.
- Definir un NN avec 64 sorties, et l'entrainer pour que l'output soit egal à l'input (c'est ce qu'on appelle un auto-encodeur).
- Afficher pour chacun des neurones de la couche cachée l'imagette de norme 1 qui l'excite le plus (i.e. pour lequel la valeur est maximale).
- Projet 3 : Machine à Vecteurs Supports (linéaire et sans variables ressorts)
- Le principe : http://en.wikipedia.org/wiki/Support_vector_machine
- L'algorithme : libSVM http://www.csie.ntu.edu.tw/~cjlin/libsvm/
- Donnees: probleme URL sur la page http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/
- Projet 4 : Recursive Feature Elimination
- Donnees: ARCENE, http://www.nipsfsc.ecs.soton.ac.uk/datasets/
- Ajouter des features aleatoires
- Prendre des sous-ensembles de donnees de petite taille
- Sur chaque sous-ensemble, apprendre une hypothèse linéaire
- Définir l'importance d'un feature en fonction de son poids dans les différentes hypothèses linéaires
- Ordonner les features selon ce score d'importance
- Voir le nombre de features plus importantes que les features aléatoires.
- Projet 5 : Adaboost
- Données MNIST, classes 4 et 9
- Principe : http://en.wikipedia.org/wiki/AdaBoost
- Espace des hypotheses: choix d'un pixel; apprendre la valeur v telle que l'hypothese pixel > v est le meilleur classifieur (au sens de la distribution courante) utilisant ce pixel.
- Projet 6 : Résolution de "packing problems" (voir http://www.packomania.com/)
- Considérer le problème d'empilements de cercles de rayons identiques dans un carré
- Formuler le problème sous forme d'un problème d'optimisation
- Utiliser l'algorithme CMA-ES pour résoudre le problème (on récupérera le code ici: http://www.lri.fr/~hansen/cmaes_inmatlab.html)
- On pourra traiter les contraintes par méthode de pénalisation
- Comparer les résultats obtenus aux meilleures solutions connues (http://www.packomania.com/)
- Projet 7: Méthode de quasi-Newton (BFGS) et (1+1)-ES avec règle des 1/5
- L'objectif de ce projet est de comparer la méthode de quasi-Newton BFGS, l'algorithme stochastique (1+1)-ES avec règle des 1/5 pour l'optimisation de fonctions (1) convexes régulières, (2) bruitées et (3) non-convexes (voir le descriptif détaillé du projet)
- Projet 8 : Deviner la langue d'un fragment de texte
- Principe: "Naive bayes" avec des modèles de Markov de lettres
- Données: dictionnaires, pages web, etc (mailto:yvon@limsi.fr)
- Projet 9: les HMMs en MatLab (pour deux personnes),
- programmer la résolution des 4 algorithmes de base
- application à l'étiquetage de de séquences supervisé et semi-supervisé
- Projet 10: apprendre des HMM par échantillonage de Gibbs
- application à l'étiquetage de de séquences non-supervisé et/ou semi-supervisé
-
application au POS supervisé et semi-supervisé, ou bien aux entités nommées de base.
3) l'utilité des séquences, tagger des EN avec NB et du stacking, mieux que HMM?
3) mélange de multinomiale, extensions bilingues (pour deux personnes ?)
4) la régression logistique contre Naive Bayes, génératif vs supervisé ()
5) les MCMC pour le modèle IBM1
6) classement des sentiments (critiques de films) - à la recherche des bonnes features ?
TP
- Matlab/Octave (introduction à Octave)
- Perceptron
- Licence Cachan 2012
2010 - 2011
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation
Courses
- Introduction: slides
- Bayes: slides
- Neurons: slides
- Non supervisé: slides
- Neurones, suite slides + representation: slides
- Markov: slides
- Markov suite + regression logistique slides
- Optimisation: slides (21 premiers slides traités en cours).
TP
- Matlab/Octave (introduction à Octave)
- multinomiales
- mélanges de multinomiales
- Markov
- regression logistique
- TP optimisation
Apprentissage Statistique et Optimisation, Statistical Learning and Optimisation, & Applications
Courses
- 1er cours, slides
- Intro to classification + boosting
- Support vector machines
- Bayesian estimation, Gaussian processes, Monte-Carlo Markov chains
- Apprentissage par renforcement (cours 7 et 8).
Annonces internes de stages
Annonces externes de stages
2009-2010
2011 Master
2008-2009