Click on the little cross to see the abstract
- 22/1/2007, 14h, salle 90: Xavier Pennec (INRIA-Asclepios),
Statistical computing on Riemannian manifolds for computational anatomy
- 8/1/2008, 14h30, salle 79: Sebastien Gambs (Université de Montréal)
Connections between machine learning and quantum information processing
[+]- Abstract: Quantum Information Processing (QIP) is concerned with the implications of quantum mechanics for information processing purposes whereas Machine Learning (ML) is the field that studies techniques to give to machine the ability to learn from past experience. Typical tasks in ML include the ability to predict the class (classification) or some unobserved characteristic (regression) of an object based on some observations in supervised learning, or the ability to find some structure hidden within data (clustering, dimensionality reduction or density estimation) in unsupervised learning. ML and QIP may seem a priori to have little to do with one another but nevertheless they have already met several times in a fruitful manner. The purpose of this talk is to give an overview of some of these past and recent encounters with the hope of encouraging further collaboration between these two domains. Examples of encounters between ML and QIP include the comparison of the quantum and classical settings in computational learning theory, the definition of quantum analogues of ML algorithms such as neural networks, the application of the machine learning paradigm to quantum states and the quantization of clustering algorithms. These and other examples will be discussed during the presentation.
- 14/12/2007, 14h30, salle 90: Risi Kondor (Gatsby Computational Neuroscience Unit, University College London), canceled, postponed to January 2008
Group theoretical methods in machine learning
[+]- Abstract: Mathematicians regard the structure inherent in the transformations of a given object as a so-called group. While group theory is one of the most well developed branches of mathematics, group theoretical ideas are only now starting to appear in the machine learning literature. This talk presents two applications of group theory to real world problems: (a) an efficient representation for distributions over permutations for multi-object tracking; and (b) a new set of translationally and rotationally invariant features for image recognition. No prior knowledge of group theory or representation theory will be required for understanding this talk.
- remis au 23/11/2007, 14h, salle 90: Balázs Kégl (LAL),
A Bayesian approach to analyze water tank signals in the Pierre Auger experiment
[+]- Abstract: The objective of the Pierre Auger experiment (auger.org) is to study the properties of ultra-high energy cosmic ray particles. When one if these particles collides with the atmosphere, it generates a huge shower of atmospheric particles that covers several square kilometers on the Earth's surface. The surface detector of the Auger Observatory (built on the pampas of Argentina) consists of 1600 water tanks spaced at 1.5 km on a regular hexagonal grid that detect atmospheric shower particles through their interaction with water. To analyze the water tank signals, we have built an elaborate generative model based on physical laws and simulations of both the showers and the detector. To estimate the model parameters, we use a Bayesian approach based on reversible jump Monte Carlo Markov chains. This technique allows us to estimate the number of muonic mixture components in the signal which is one of the best indicators of the nature of the original cosmic ray particle. In the first part of the talk we introduce the basic physics behind the experiment and describe the statistical model. In the second part we show the Bayesian technique that we are using to estimate the parameters and present some preliminary results.
- 30/01/2007 : Laurent Orseau (IFSIC)
Algorithmic Imitation: On-line incremental Learning of Complex Sequences
[+]- Résumé: In the Continual Learning framework, an agent is in continual interaction with the environment. At each time step, it receives inputs and provides outputs. Learning is on-line, not batch : it cannot memorize past examples in order to process them later ; they must be processed on the fly. Learning must also be incremental : the agent must be able to acquire more and more knowledge. In this constrained framework, learning complex sequences, involving recurrence and first order logic, is difficult. We focus our work on counters, because they are simple to express and nonetheless hard to learn. The proposed approach is to use a higher-order imitation paradigm to learn such sequences. With an adequate learner, we show experimentally that within very few examples, the agent is able to learn such tasks with high accuracy.
- 23/01/2007 14h30: Stéphane Messika (Laboratoire Spécification et Vérification, ENS Cachan)
Markov Chains and Markov Decision Processes in Computer Science. Slides
[+]- Résumé: Les systèmes probabilistes apparaissent dans tous les domaines de l'informatique. Le but de cet exposé est de donner plusieurs outil probabilistes classiques utiles pour l'analyse et la modélisation de ces systèmes. Il sera notamment question de marches aléatoires, chaines et processus de Markov, plusieurs exemples d'utilisation des résultats en informatiqu (distribuée, théorie des jeux, comptage) seront donnés.
- 13/12/2006: 10h : Tsuyoshi Sugibuchi (Hokkaido University)
An Integrated Framework for the Visualization of Relational Databases and Related Web Content.
[+]- Résumé: In this presentation, I will present an integrated framework for relating and visualizing relational databases and related Web content. The proposed framework allows users to dynamically extract relations from HTML documents over the Web, to relate them with relations stored in local databases, and to interactively visualize them. The emphasis is on integrating visualization schemata, source data, Web content and Web applications by means of the relational algebra. Our framework is based on the principle that every visualized object represents a view relation. Each visualization schema is treated as an extended view relation, and can be related with local database records by applying relational join operations. Furthermore, our framework provides users with a method for specifying special view relations to be extracted from HTML documents over the Web. These "Web views" can be combined with database views through relational database operations to simultaneously visualize mutually related database content and Web content.
- 14/11/2006 9h 30 : Pr. Minato Shin-Ichi (Hokkaido University. Dept. Information Sciences)
Compiling Bayesian Networks by Symbolic Probability Calculation Based on Zero-suppressed BDDs. Article
[+]- Résumé: Compiling Bayesian networks (BNs) is a hot topic within probabilistic modeling and processing .In this paper, we propose a new method for compiling BNs into Multi-Linear Functions (MLFs) based on Zero-suppressed Binary Decision Diagrams (ZBDDs), which are a graph-based representation of combinatorial item sets. Our method differs from the original approach of Darwiche et al., which encodes BNs into Conjunctive Normal Forms (CNFs) and then translates CNFs into factored MLFs. Our approach directly translates a BN into a set of factored MLFs using a ZBDD-based symbolic probability calculation. The MLF may have exponential computational complexity, but our ZBDD-based data structure provides a compact factored form of the MLF, and arithmetic operations can be executed in a time almost linear with the ZBDD size. In our method, it is not necessary to generate the MLF for the whole network, as we can extract MLFs for only part of the network related to the query, avoiding unnecessary calculation of redundant MLF terms.We present experimental results for some typical benchmark examples. Although our algorithm is simply based on the mathematical definition of probability calculation, performance is competitive to existing state-of-the-art methods.
Frequent Pattern Mining and Knowledge Indexing Based on Zero-suppressed Binary Decision Diagrams (BDDs)
[+]- Résumé: Frequent pattern mining is one of the fundamental techniques for knowledge discovery and data mining. In the last decade, a number of efficient algorithms for frequent pattern mining have been presented, but most of them focused on just enumerating the patterns which satisfy the given conditions, and it was a different matter how to store and index the result of patterns for efficient inductive analysis. In this paper, we propose a fast algorithm of extracting all frequent patterns from transaction databases and simultaneously indexing the result of huge patterns using Zero-suppressed Binary Decision Diagrams (ZBDDs). Our method is fast and as competitive as the existing state-of-the-art algorithms, and it is not only enumerating/listing the patterns but also indexing the output data compactly on main memory. After mining, the result of patterns can efficiently be analyzed by using algebraic operations. The data structures of BDDs have already been used in VLSI logic design systems successfully, but our method will be the first practical work of applying the BDD-based techniques for data mining.
- 4/7/2006 14h30 : Marc Pouzet (Université Paris Sud)
[+]- Résumé: Synchronous languages introduced in the 80's are now in use in various industrial domains (avionics, ground transportation, customer electronics). They are essentially {\em domain specific languages} with a limited expressive power (with respect to general purpose ones) but well adapted to the culture and mathematical models of the field. As a consequence, some fundamental properties (execution in bounded time and memory, dead-lock freedom and determinism) are guaranteed by construction. In this talk, I will remind the basic principles of synchronous languages and the links that can be establish with techniques and tools from typed functional languages. Based on this close relationship, I will present several extensions that have been considered in the recent years such as automatic type and clock inference, the ability to design {\em mixed systems} and the interest of higher-order. I shall discuss the implementation of these ideas in the language {\bf Lucid Synchrone} and their integration in several industrial tools.
- 23/6/2006 14h30 : Assaf Schuster (Technion)
[+]- Résumé: Monitoring data streams in a distributed system is the focus of much research in recent years. Most of the proposed schemes, however, deal with monitoring simple aggregated values, such as the frequency of appearance of items in the streams. More involved challenges, such as the important task of feature selection (e.g., by monitoring the information gain of various features), still require very high communication overhead using naive, centralized algorithms. We present a novel geometric approach by which an arbitrary global monitoring task can be split into a set of constraints applied locally on each of the streams. The constraints are used to locally filter out data increments that do not affect the monitoring outcome, thus avoiding unnecessary communication. As a result, our approach enables monitoring of arbitrary threshold functions over distributed data streams in an efficient manner. We present experimental results on real-world data which demonstrate that our algorithms are highly scalable, and considerably reduce communication load in comparison to centralized algorithms.
- 20/06/2006 14h30 : Abdel Lisser(LRI, Université Paris Sud)
Robust and Stochastic Optimization Slides
[+]- Résumé: Uncertainty can be handled by the mean of robust optimization or stochastic optimization. In this talk, we present definitions of robust optimization and applications to known problems, for instance shortest paths. A comparison between robust optimization and stochastic optimization is given. We focus also on two stage stochastic optimization for network design problems.
- 13/6/2006 14h30 : Nicole Bidoit (Université Paris-Sud)
Semi-structured data and Hybrid multimodal logic
[+]- Résumé: Having a well defined notion of schema for semistructured data and XML documents is widely recognized as a key feature for query optimization, update manipulation and automated reasonning over such data in general. Since semistructured data and XML documents contain references, an adequate notion of schema should provide a mechanism for specifying the ``types'' of the referenced elements. Surprisingly enough, this is not provided by the notions of schema currently proposed in the literature. Problems like subtyping, constraint implication and satisfiability, query correctness etc become trivial to state and easier to investigate when the same formalism (logic as a matter of fact) is used to describe schemas, constraints and queries. In this spirit, a modal logic approach has been previously investigated which is naturally motivated by the fact that semistructured data hence XML documents are very commonly viewed as edge labelled graphs and thus as Kripke models. Indeed, we carry out our study by considering a variant of modal logic called Hybrid modal logic. Although modal logic is a simple formalism for working with graphs, it has no mechanism for referring to and reasoning about the individual nodes in such structures. HML increases the effectiveness of modal logic by allowing one to grasp the nodes via formulas. A notion of schema capturing well-typed references called normalized ref-schemas has been proposed. In a way, normalized ref-schemas extend normalized DTDs. Indeed, we show that document conforming to a given normalized ref-schemas $\G$ are Kripke models satisfying a HML wff $\tau_{\G}$. Thus HML provides a unique formalism to express sophisticated schemas, constraints and queries. The talk is based on this work and addresses constraint satisfiability in presence of schema capturing well-typed references: given a pattern schema $\G$ and a constraint $\C$, does there exist a document conforming to the schema $\G$ and satisfying $\C$? In our framework, this leads to the question: is $\tau_{\G} \wedge \C$ finitely satisfiable? A proof procedure based on tableau techniques is presented for testing satisfiability by generating models. Our tableau system is naturally based on internalizing labelled deduction which is elegant and powerfull. Because, obviously, in general HML does not have the finite model property, we restrict the statement of the problem as follows. Only non recursive schemas are considered (which ensure that the depth of a document is finite). Because this assumption is not sufficient to ensure the finite model property, the tableau system presented is showed sound and complete for satisfiability, although finite satisfiability is the relevant notion for reasonning about XML. This issue will be discussed at the end of the presentation.
- 06/6/2006 16h30 : Jean-Daniel Fekete (INRIA Futurs)
Quelques idées sur le Challenge de Visualisation Pascal Slides
[+]- Résumé: Le réseau Pascal propose un challenge de visualisation http://kt.ijs.si/blazf/pvc/index.html. Il est assez similaire à la compétition de visualisation que j'ai co-organisé en 2004 http://www.cs.umd.edu/hcil/iv04contest/. Une étude des résultats de la compétition peut éclairer sur quelques méthodes transférables. Mes recherches récentes sur la visualisation de graphes par matrices d'adjacence offrent aussi des perspectives qui prometteuses et directement applicables au données. Cette présentation sera destinée à engager des discussions et tracer des voies pour répondre au challenge.
- 24/5/2006 15h30 : PA Coquelin (Cmap)
optimisation par filtres à particules - 24/5/2006 14h30 :Olivier Teytaud (INRIA Futurs)
Dérandomisation en informatique décisionnel Slides
- 9/5/2006: Frederic Gruau (LRI)
Présentation d'une méthode d'apprentissage d'architecture de réseaux de neurones dont la structure refléte la fonction, application a la locomotion d'un robot à 6 pattes
[+]- Résumé: Le codage cellulaire est une méthode de codage de réseaux de neurones inspirée du développement biologique. L’apprentissage génétique combiné avec le codage cellulaire permet de générer automatiquement des réseaux de neurones artificiels (RNA) dont la structure reflète la fonction. La plupart des algorithmes d’apprentissage existants, à l’image de l’algorithme de rétro-propagation du gradient, présentent un problème majeur : ils supposent que l’architecture du RA est fixe. Pour chaque nœud n du RA, ils procèdent en réglant les paramètres de n pour ajuster les calculs fait par n. Certains algorithmes d’apprentissage sont capables d’ajouter ou de supprimer des nœuds, ainsi ils augmentent ou diminuent La taille de l’architecture. Cependant cela est semblable à un ajustement. Aucun des algorithmes existants ne peut optimiser l’architecture d’une façon globale. Ils ne peuvent pas générer d’architectures avec une structure reflétant la structure du problème à résoudre. Je pense que tout problème possède des régularités, une structure qui peut être exploitée par un algorithme d’apprentissage. Habituellement, les architectures de RNA sont très simples et peuvent être décrites par le nombre de couches et le nombre d’unités par couche. Mais l’information la plus importante est contenue dans l’architecture. Si on a utilisé seulement des architectures très régulières, c’est parce qu’il manque un outil pour explorer automatiquement des architectures plus complexes. Le codage cellulaire, combiné avec la programmation génétique, est cet outil. C’est là le résultat le plus évident de mes recherches. Pour illustrer ce principe structure/fonction, j’ai utilisé le GP parallèle précédemment défini pour conduire une recherche dans l’espace des codes cellulaires. Le GP a été capable de trouver les codes cellulaires de RNA pour résoudre une variété de problèmes. Je les décris dans un ordre logique plutôt que chronologique :
- Illustration n°1 du principe structure/fonction : obtention surprise d’une architecture minimale et rasoir d’OCCAM. D’abord je montre que le GP peut optimiser à la fois l’architecture et les poids des RNA. L’utilisateur n’a pas à prédéfinir une architecture fixe. Le GP a pu générer une architecture pour résoudre le « 2-pole balancing problem ». Les poids et les seuils étaient entiers. Le GP a trouvé une architecture sans unités cachées alors que l’article de Wieland, qui inspirait cette recherche, proposait une architecture comportant 10 unités cachées et déclarait le problème très difficile. Ce fut une surprise totale de voir que ce problème pouvait se résoudre sans unités cachées. Cela montre que le problème est linéairement séparable, ce qui était inconnu jusqu’alors. J’ai aussi appliqué la même méthode pour générer un petit RNA récurrent capable de résoudre le même problème mais sans utiliser l’information sur les vitesses angulaires des 2 « poles » et la vitesse du wagon sur lequel les « poles » sont attachés. Dans ce cas un réseau récurrent est nécessaire pour stocker les positions précédentes du wagon et des 2 « poles » de façon à pouvoir calculer leurs vitesses respectives. Ce problème, plus difficile, n’avait pas du tout été résolu par Wieland. Ces problèmes d’équilibre de « pole » sont issus d’une collaboration avec Darrell Whitley et Larry Pyeatt (1995)
- Illustration n°2 du principe structure/fonction : la modularité. La modularité est le point clé du codage d’un réseau de neurones. Beaucoup prétendent générer des RNA modulaires, mais ne travaillent pas à partir d’une définition précise de la modularité. Voici ma définition de travail :
- Définition : Soit N1 un réseau qui inclut en différents endroits des copies d’un autre sous-réseau N2. Le code de N1 est modulaire si il inclut seulement une seule fois le code de N2. J’ai transformé le code cellulaire pour qu’il devienne modulaire. Un code cellulaire comprend un ensemble d’arbre-grammaire étiquetés. Chaque arbre-grammaire code un sous-réseau. Les sous-réseaux peuvent s’inclurent les uns les autres ; le réseau résultant est composé d’une hiérarchie de sous-réseaux de complexité croissante. En utilisant la modularité, le GP a pu générer un RNA pour contrôler un robot à 6 pattes simulé. Ce réseau est modulaire. Il inclut 6 fois la copie d’un même sous-réseau. Chacun d’entre eux contrôle une patte du robot. Le GP a donc pu générer un RNA structuré qui exploite les symétries du problème. D’autres chercheurs (Beer et Gallagher) ont résolu le même problème, mais on dû aider le GP en utilisant leur connaissance des symétries. Ils ont codé un RNA sur le chromosome, ce RNA devant contrôler une patte, puis à la main ils ont généré et relié ensemble 6 copies de ce réseau. L’avantage de ma méthode est qu’elle peut trouver les symétries automatiquement, il n’y a pas d’étape à la main. J’ai utilisé un modèle de locomotion simplifiée et puis le modèle complet. Finalement, j’ai travaillé sur des robots réels.
- Illustration n°3 du principe structure/fonction : développement récurrent pour résoudre des problèmes paramétrés. C’est le propre d’une grammaire de mots de pouvoir générer toute une famille de mots, dés l’instant où elle est récursive. Il en va de même pour une grammaire de graphes. J’ai utilisé de telles grammaires récursives pour générer une famille de RNA pouvant calculer une famille de fonctions paramétrées. Le GP est capable de trouver une récurrence dans la grammaire correspondant à la récurrence de la famille de fonctions. Je présente les résultats où le GP génère une famille de RNA pour calculer la fonction parité et la fonction symétrie d’un nombre d’entrées arbitrairement grand. Une fois de plus, en utilisant la représentation en codage cellulaire, le GP peut générer une architecture régulière qui correspond à la régularité du problème. Le résultat sur la parité est surprenant, puisque à ma connaissance, personne n’a jamais généré par apprentissage un RNA pouvant calculer la parité de plus de 20 entrées.Interaction homme-machine : une méthode pour combiner l’apprentissage avec des connaissances de type symbolique. On peut améliorer la performance de l’algorithme génétique avec la programmation à la main. En utilisant la combinaison des deux, on a pu faire évoluer un neuro-contrôleur pour la locomotion d’un robot réel à 8 pattes. Cela a pris seulement 300 évaluations à comparer avec les 1 millions qui ont été nécessaires lorsque l’apprentissage a été utilisé tout seul sur un robot simulé.]. La programmation à la main a été utilisée de trois façons différentes :
- L’écriture de contraintes syntaxiques pour restreindre l’espace des solutions exploré par l’AE en spécifiant les symétries et des blocs de base. J’ai publié une étude sur comment utiliser les contraintes syntaxiques comme un moyen général et facile pour apporter des informations à l’AE (L3) ;
- La décomposition du problème en sous-problèmes : on a d’abord fait évoluer un contrôleur pour une patte, puis mis ensemble 8 occurrences de ce contrôleur ;
- L’utilisation d’une fitness interactive. Le fait de spécifier la fitness à la main permet de résoudre des problèmes intermédiaires de complexité croissante tels que : générer des oscillations, ajuster la fréquence puis le couplage de différents oscillateurs de chaque patte.
- Résumé: Le codage cellulaire est une méthode de codage de réseaux de neurones inspirée du développement biologique. L’apprentissage génétique combiné avec le codage cellulaire permet de générer automatiquement des réseaux de neurones artificiels (RNA) dont la structure reflète la fonction. La plupart des algorithmes d’apprentissage existants, à l’image de l’algorithme de rétro-propagation du gradient, présentent un problème majeur : ils supposent que l’architecture du RA est fixe. Pour chaque nœud n du RA, ils procèdent en réglant les paramètres de n pour ajuster les calculs fait par n. Certains algorithmes d’apprentissage sont capables d’ajouter ou de supprimer des nœuds, ainsi ils augmentent ou diminuent La taille de l’architecture. Cependant cela est semblable à un ajustement. Aucun des algorithmes existants ne peut optimiser l’architecture d’une façon globale. Ils ne peuvent pas générer d’architectures avec une structure reflétant la structure du problème à résoudre. Je pense que tout problème possède des régularités, une structure qui peut être exploitée par un algorithme d’apprentissage. Habituellement, les architectures de RNA sont très simples et peuvent être décrites par le nombre de couches et le nombre d’unités par couche. Mais l’information la plus importante est contenue dans l’architecture. Si on a utilisé seulement des architectures très régulières, c’est parce qu’il manque un outil pour explorer automatiquement des architectures plus complexes. Le codage cellulaire, combiné avec la programmation génétique, est cet outil. C’est là le résultat le plus évident de mes recherches. Pour illustrer ce principe structure/fonction, j’ai utilisé le GP parallèle précédemment défini pour conduire une recherche dans l’espace des codes cellulaires. Le GP a été capable de trouver les codes cellulaires de RNA pour résoudre une variété de problèmes. Je les décris dans un ordre logique plutôt que chronologique :
- 27/04/2006: Hélène Paugam-Moisy (Institut des Sciences Cognitives)
Des systèmes cognitifs aux systèmes complexes Slides
- 25/4/2006: Isabelle Guyon (ClopiNet)
Model Selection and Performance Prediction Slides
[+]- Résumé: We have organized for WCCI 2006 a Challenge in performance prediction. The class of problems addressed are classification problems encountered in pattern recognition, medical diagnosis, marketing, text categorisation. By "performance prediction" we mean predicting how well a given classifier will perform on unseen data. Over 100 participants have been trying to build from training data the best possible classifier and guess their generalization error on a large unlabelled dataset. The outcome of this challenge will hep answering such questions as: is cross-validation the best solution ? What should be k in k-fold ? Can one use theoretical performance bounds to better assess generalisation? The challenge is available at http://www.modelselect.inf.ethz.ch it ended on March 1st. The talk will present the challenge and discuss the results, an avant-premiere of the special session on Model Selection at the WCCI 2006 Conference.
- 18/4/2006: Slim Essid (LTCI)
Classification automatique des signaux audio-fréquences: reconnaissance des instruments de musique Slides
[+]- Résumé: La présentation couvrira des travaux réalisés sur la classification des signaux audio-fréquences, notamment dans le but de construire un système de reconnaissance automatique des instruments dans des contextes réalistes (sur des solos de musique, mais également sur des pièces multi-instrumentales). Le schéma de classification adopté est un schéma hiérarchique basé sur des taxonomies des instruments et des mélanges d'instruments. Ces taxonomies sont inférées au moyen d'un algorithme de clustering hiérarchique exploitant des distances probabilistes robustes qui sont calculées en utilisant une méthode à noyau. Le système fait appel à un nouvel algorithme de sélection automatique des attributs pour produire une description efficace des signaux audio qui, associée à des machines à vecteurs supports, permet d'atteindre des taux de reconnaissance élevés sur des pièces sonores reflétant la diversité de la pratique musicale et des conditions d'enregistrement rencontrées dans le monde réel. Notre architecture parvient ainsi à identifier jusqu'à quatre instruments joués simultanément, à partir d'extraits de jazz incluant des percussions.
- 14/3/2006: Jean-Christophe Filliatre (LRI)
Programmation extrême avec Objective Caml Slides
[+]- Résumé: Cet exposé a pour but la présentation des activités de programmation dans l'équipe Démons, et en particulier les raisons pour lequelles les membres de cette équipe apprécient le langage Objective Caml. Sans prosélytisme aucun, nous parlerons de typage fort, de persistance, de programmation générique, de programmation extrême... et de concours de programmation.
- 7/3/2006: Gilles Stoltz (ENS Ulm)
Prédiction de suites individuelles : des méthodes robustes de méta-apprentissage séquentiel et d'agrégation de prédicteurs Slides
[+]- Résumé: La prédiction des suites individuelles considère les problèmes d'apprentissage séquentiel pour lesquels on ne peut ou ne veut pas modéliser le problème de manière stochastique, et fournit dès lors des stratégies de prédiction très robustes. Elle englobe aussi bien des problèmes issus de la communauté du machine learning que de celle de la théorie des jeux répétés. Ces derniers sont traités avec des méthodes statistiques, incluant par exemple les techniques de concentration de la mesure, de l'estimation adaptative, et de la théorie de l'information. Dans cet exposé, on parlera tout d'abord de prédiction randomisée, avec information complète ou imparfaite, puis on s'intéressera à l'agrégation séquentielle de prédicteurs, en mentionnant deux applications : l'investissement dans le marché boursier et la prévision d'ensemble des pics d'ozone.
- 27/2/2006 Balázs Kégl (LAL),
Extensions and Applications of AdaBoost
[+]- Abstract: The discoveries of the Support Vector Machine (SVM) and AdaBoost were the two major milestones of the nineties in the area of supervised learning. On the one hand, these two algorithms played a major role in computational learning theory (for example, in developing the principle of margin maximization), and on the other hand, they revolutionized practical applications of machine learning. Whereas SVM has become a standard tool in any machine learning toolbox, AdaBoost has received less attention despite its efficiency and simplicity. The goal of this talk is to present AdaBoost. After sketching the general framework of supervised learning, I will first describe the basic algorithm applicable to two-class classification. Then I will outline the different extensions of AdaBoost (e.g., to regression, to multi-class classification, to one-class classification). Finally, I will present too typical applications in image processing and in natural language processing.