ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique

APPEL À
CONTRIBUTION
Masses de données hétérogènes
En savoir plus >>
Autres revues >>

Revue d'Intelligence Artificielle

0992-499X
Revue des Sciences et Technologies de l'Information
 

 ARTICLE VOL 28/1 - 2014  - pp.67-99  - doi:10.3166/ria.28.67-99
TITRE
Un ACA sincère, affectif et expressif comme compagnon artificiel

TITLE
A sincere, affective and expressive ECA as an artificial companion

RÉSUMÉ
Nous proposons dans cet article de rendre sincère un agent conversationnel animé (ACA) pour d’une part améliorer sa crédibilité du point de vue de l’humain, et d’autre part contribuer à le rendre acceptable dans une relation privilégiée compagnon artificiel-humain. Pour cela, nous avons proposé dans des travaux précédents une formalisation des états mentaux d’un agent (modèle BIGRE) et un langage de conversation (LCM) pour communiquer ces états mentaux. Nous présentons dans cet article une architecture cognitive pour le raisonnement de l’agent, intégrant un moteur de raisonnement qui lui permet de mettre à jour ses états mentaux, sélectionner son intention communicative et planifier son expression. Cette architecture a été implémentée dans un des ACA de la plateforme MARC. Nous présentons également dans cet article une évaluation du raisonnement de l’ACA, menée dans le cadre d’un dialogue entre l’ACA et l’humain. Cette évaluation montre que les états mentaux déduits par le moteur de raisonnement et leur expression par l’agent sont appropriés à la situation, et met également en évidence l’importance des normes sociales dans l’interaction.


ABSTRACT
In this paper, we propose to make an Embodied Conversational Agent sincere, in order to, on the one hand improve its believability from the human’s point of view, and on the other hand enhance its acceptability in the role of an artificial companion maintaining a special relationship with its human user. To this end, we have already provided in previous work: a formalisation of the mental states of an agent (BIGRE model); and a communication language (MCL) that convey the agent’s mental states. In this paper we present a cognitive architecture for agent including a "reasoning engine" that allows the agent to update its mental states, to select its communicative intention and to plan its expression. This architecture was implemented in one of the virtual character of the MARC platform. We also describe an evaluation of the ECA’s reasoning during a negotiation dialogue with a human user. This evaluation shows that the mental states inferred by the reasoning engine, as well as their expression by the agent, are adapted to the situation. It also highlights the importance of social norms in human interaction.


AUTEUR(S)
Jérémy RIVIÈRE, Carole ADAM, Sylvie PESTY

MOTS-CLÉS
ACA, émotions, langage, architecture cognitive, compagnon artificiel

KEYWORDS
ECA, emotions, language, cognitive architecture, artificial companion

LANGUE DE L'ARTICLE
Français

 PRIX
• Abonné (hors accès direct) : 7.5 €
• Non abonné : 15.0 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (1,29 Mo)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
Lavoisier