ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Masses de données hétérogènes
En savoir plus >>
Autres revues >>

Revue d'Intelligence Artificielle

0992-499X
Revue des Sciences et Technologies de l'Information
 

 ARTICLE VOL 19/4-5 - 2005  - pp.769-797  - doi:10.3166/ria.19.769-797
TITRE
GLOBOOST. Combinaisons de moindres généralisés

RÉSUMÉ
Nous explorons dans cet article l'utilisation de moindres généralisés corrects comme apprenant dans des techniques de boosting (Freund et al., 1996). Les premières expérimentations sur des problèmes classiques montrent qu'ADABOOST instancié avec un apprenant à base de moindres généralisés obtient des taux d'erreur plus faibles que C4.5, GLOBO (Torre, 1999) et ADABOOST muni d'un apprenant plus classique. Constatant que notre nouvel apprenant peut être coûteux en temps de calcul, nous proposons un mode de génération des hypothèses qui peut être distribué sur différentes machines et une définition du poids des hypothèses a posteriori. Cela aboutit au nouvel algorithme GLOBOOST et, à nouveau, les expérimentations montrent que GLOBOOST obtient des performances comparables à celles d'ADABOOST.


ABSTRACT
The primary goal of this paper is to propose a new learner for boosting algorithms, namely least general generalization. First experiments conducted on benchmarks show that ADABOOST boosting least general generalization obtains smaller error than reference systems. The computation time needed by these experiments leads us to define a method that could be easily distributed. This method, called GloBoost, is able to produce hypotheses independently of one another and then give a weight to each produced hypothesis. New experiments are then conducted and show low error rates for both ADABOOST and GLOBOOST. Moreover, GLOBOOST has the advantage to be naturally distributable to different computers.


AUTEUR(S)
Fabien TORRE

MOTS-CLÉS
boosting, méthodes d'ensemble, moindres généralisés, algorithmes distribués.

KEYWORDS
boosting, ensemble methods, leveraging, least general generalization, distributed algorithms.

LANGUE DE L'ARTICLE
Français

 PRIX
• Abonné (hors accès direct) : 7.5 €
• Non abonné : 15.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (215 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier