ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Masses de données hétérogènes
En savoir plus >>
Autres revues >>

Revue d'Intelligence Artificielle

0992-499X
Revue des Sciences et Technologies de l'Information
 

 ARTICLE VOL 21/1 - 2007  - pp.7-8
TITRE
Éditorial

RÉSUMÉ
Les 5e journées « Processus Décisionnels de Markov et Intelligence Artificielle » (PDM & IA) se sont déroulées les 22 et 23 juin 2005, sur le campus de l’Université de Lille III, à Villeneuve d’Ascq. Ces journées ont rassemblé une cinquantaine de personnes qui ont écouté et débattu autour de dix-huit exposés. Historiquement, les journées PDM & IA ont eu pour objectif de rassembler et de fédérer les chercheurs francophones travaillant dans le domaine des processus décisionnels de Markov et, plus généralement, des problèmes de décision séquentielle. Dans ces problèmes, il s’agit d’obtenir une politique pour qu’un agent situé dans son environnement, atteigne un certain objectif tout en optimisant des ressources. Ce cadre recouvre de très nombreuses situations dans le contrôle de processus, les jeux, l’allocation de ressources... Les méthodes de programmation dynamique fournissent une solution quand l’ensemble du système est parfaitement connu. Sinon, des méthodes d’apprentissage automatique sont utilisées, dites apprentissage par renforcement. Des concepts d’apprentissage automatique supervisé ou non interviennent souvent. Une méthode typique pour résoudre ces problèmes est de calculer une fonction dite fonction valeur qui caractérise chaque état de l’environnement ; de cette fonction est ensuite déduite une politique. Une seconde approche consiste à calculer directement la politique. On distingue fondamentalement les problèmes où l’état est observable par l’agent (l’agent sait parfaitement dans quel état il se trouve, c’est-à-dire que connaissant cet état, il peut déterminer la meilleure action à y effectuer) des problèmes où seuls des indices concernant cet état réel sont observables (problèmes dits partiellement observables). Naturellement, on considère des environnements stochastiques ; très généralement, on suppose la stationnarité de l’environnement. Ce numéro spécial propose un panaroma de recherches actuellement en cours sur ce sujet, dans l’espace francophone. On verra ainsi se décliner différentes formes du problème, mais aussi différentes approches, les unes expérimentales, les autres formelles. Robin Jaulmes, Joëlle Pineau et Doina Precup présentent un nouvel algorithme dans le cas des problèmes partiellement observables, c’est-à-dire, lorsque l’agent ne perçoit pas l’état réel de son environnement. Thibault Langlois s’intéresse à l’approximation de la fonction valeur en utilisant une méthode parcimonieuse et en propose une évaluation expérimentale. Rémi Munos traite des méthodes approximatives de programmation dynamique ; il analyse les performances d’un algorithme afin d’en borner rigoureusement les performances.

AUTEUR(S)


LANGUE DE L'ARTICLE
Français

 PRIX
GRATUIT
   
ACCÉDER A L'ARTICLE COMPLET  (61 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier