ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Masses de données hétérogènes
En savoir plus >>
Autres revues >>

Revue d'Intelligence Artificielle

0992-499X
Revue des Sciences et Technologies de l'Information
 

 ARTICLE VOL 18/3 - 2004  - pp.411-441  - doi:10.3166/ria.18.411-441
TITRE
Explication géométrique du résultat dans les arbres de décision

RÉSUMÉ
Cet article s'intéresse au problème de l'explication des résultats fournis par un arbre de décision utilisé en tant que système d'aide à la décision. On cherche à apporter une information supplémentaire à la classe prédite pour chaque vecteur particulier de données d'entrée. Actuellement on dispose surtout de la trace du classement (le chemin parcouru dans l'arbre), et d'une estimation du taux d'erreur ou d'un risque associé à un mauvais classement. Nous proposons ici deux nouvelles méthodes de qualification du résultat, basées sur une étude géométrique de la frontière de l'image inverse des différentes classes (la surface de décision). La première méthode consiste à identifier les séparateurs les plus déterminants pour expliquer le résultat, en effectuant une analyse de sensibilité, par projection des données initiales sur la surface de décision. La deuxième méthode consiste à caractériser la distribution des erreurs relativement à la surface de décision, en calculant la distance à cette surface pour un ensemble de données, et à replacer chaque nouveau cas dans ce contexte.


ABSTRACT
This article is devoted to the problem of the explanation of the result given by a decision tree (DT) when it is used as a decision aid system, to classify input data and to provide the output class as a result. At now the end-user can rely mainly on some estimation of the error-rate or on the trace of the classification, that is the path run through the DT. We propose here two new methods to qualify the result given by the DT for each particular case. These methods are based on a geometric study of the inverse image of the different classes (the decision surface). First we identify the tests in the tree that are the most relevant to explain the final class, by the way of sensitivity analysis: the vector of initial data is projected onto the decision surface. Second, we study the distribution of errors in relation to the decision surface: the distance to this surface is computed for a sample. The distance of a new case is then presented to the end-user in this context.


AUTEUR(S)
Isabelle ALVAREZ

MOTS-CLÉS
arbre de décision, prédiction, analyse de sensibilité, explication.

KEYWORDS
decision tree, prediction, sensitivity analysis, explanation.

LANGUE DE L'ARTICLE
Français

 PRIX
• Abonné (hors accès direct) : 7.5 €
• Non abonné : 15.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (349 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier