ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Masses de données hétérogènes
En savoir plus >>
Autres revues >>

Revue d'Intelligence Artificielle

0992-499X
Revue des Sciences et Technologies de l'Information
 

 ARTICLE VOL 20/6 - 2006  - pp.757-774  - doi:10.3166/ria.20.757-774
TITLE
Kernel Basis Pursuit

RÉSUMÉ
Estimer une fonction échantillonnée irrégulièrement à partir d'un ensemble de points constitue un problème de régression classique. Des solutions basées sur les méthodes à noyaux existent mais leur mise en oeuvre conduit à deux problèmes récurrents de sélection de modèles : l'optimisation des paramètres du noyau et le réglage du compromis biais-variance. Cet article présente une méthode novatrice pour estimer une fonction à partir d'un ensemble de points bruités dans le contexte des espaces de Hilbert à noyau reproduisant. Nous avons conçu l'algorithme du Kernel Basis Pursuit pour construire une solution reposant sur des noyaux multiples et une régularisation L1. Notre idée est de décomposer la fonction à apprendre dans l'espace engendré par un dictionnaire de fonctions explicatives, à la manière des statégies de poursuite. La mise en oeuvre repose sur la formulation du LASSO (Least Absolute Shrinkage and Selection Operator) et nous avons utilisé l'algorithme Least Angle Regression Stepwise pour la résolution. Le calcul du chemin complet de régularisation nous permet d'utiliser des nouveaux critères pour déterminer automatiquement le compromis biais-variance optimal.


ABSTRACT
Estimating a non-uniformly sampled function from a set of learning points is a classical regression problem. Kernel methods have been widely used in this context, but every problem leads to two major tasks: optimizing the kernel and setting the fitness-regularization compromise. This article presents a new method to estimate a function from noisy learning points in the context of RKHS (Reproducing Kernel Hilbert Space). We introduce the Kernel Basis Pursuit algorithm, which enables us to build a L1-regularized-multiple-kernel estimator. The general idea is to decompose the function to learn on a sparse-optimal set of spanning functions. Our implementation relies on the Least Absolute Shrinkage and Selection Operator (LASSO) formulation and on the Least Angle Regression Stepwise (LARS) solver. The computation of the full regularization path, through the LARS, will enable us to propose new adaptive criteria to find an optimal fitness-regularization compromise. Finally, we aim at proposing a fast parameter-free method to estimate non-uniform-sampled functions.


AUTEUR(S)
Vincent GUIGUE, Alain RAKOTOMAMONJY, Stéphane CANU

MOTS-CLÉS
régression, noyaux multiples, LASSO, méthode sans paramètre.

KEYWORDS
regression, multiple kernels, LASSO, parameter free.

LANGUE DE L'ARTICLE
Anglais

 PRIX
• Abonné (hors accès direct) : 7.5 €
• Non abonné : 15.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (283 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier