L’altérité dans un dialogue homme-robot

Slides:



Advertisements
Présentations similaires
Verset à mémoriser "Quand il viendra, lui, l'Esprit de la vérité, il vous conduira dans toute la vérité ; car il ne parlera pas de sa propre initiative,
Advertisements

Yacine DIAGNE GUEYE ENDA ENERGIE
Module 4- Caractéristiques générales de l'évaluation
Eurobaromètre 77.2 Crise et gouvernance économique (V) Sondage commandité par le Parlement européen et coordonné par la Direction générale Communication.
ECONOMIE BTS 1&2 LES OBJECTIFS
Compétences Spécifiques au développement d’un enfant
Handicap et développement inclusif
Définition Contraintes / Astreintes Taches / Activités
L'épreuve - preuve Ou l'indicateur d'acquisition de la compétence
Interaction Homme Robot Sujet « 16/03/2012 » Réalisé par :
IAS 16 « Immobilisations corporelles »
introduction à la sociologie cours 4
Les différents Types de Management Introduction
Fiche d’application de la grille d’analyse
Identification et formation des dirigeants PDD-251.FR 1 Identification et formation des dirigeants.
La voyage de Jean Pierre
LE DISCOURS PHILOSOPHIQUE
La prise de décision médicale en fin de vie
Processus d’éthique des affaires
Analyse de pratique Démarche réflexive
LE JUGEMENT ET LE RAISONNEMENT CLINIQUES AIDE SOIGNANT
Qu’est-ce que le DROIT? Un système…de règles ou de normes
Éthique dans les organisations
Calcul de probabilités
Soutenance finale 12 mars 2004 Présenté par : Alban HERMET
L'I.E., un outil pour révéler la stratégie des PME Maryse SALLES – Université Toulouse I Lille 14 Octobre 2004.
Atelier N°1 9 acteurs Monter sur les skis
Promotion du programme de TES en lien avec le PL21 Présentation par Gilles Bilodeau et Monique Jean.
Le combat intérieur Romains
Vivre comme le Christ.
Introduction Les années 1960 et 70 ont été marquées, au plan international, par l’émergence des mouvements sociaux issus des droits de la personne. Ceci.
Logiciels et technologies de l'information de gestion
Management Général Semestre 2 Séance introductive
LE DISCOURS SCIENTIFIQUE
ÉTHIQUE et DÉONTOLOGIE origine, importance et conséquences
Page 1 LE DESIGN ET L’IDENTITE MUSICALE AU SERVICE DES MARQUES.
ECOLE DES HAUTES ETUDES COMMERCIALES
Droits de l'homme n'ont pas de définition spécifique , mais il existe de nombreuses définitions peuvent varier notion d'une communauté à l'autre ou d'une.
Le rôle du superviseur au quotidien
Réflexions sur la formation Formation de formateurs Bernard Desclaux
07/23/09 1.
A – Les groupes C1. Le groupe C2. La dynamique des groupes
Agents intelligents.  L’IA peut être envisagée de différentes manières. Les deux questions essentielles qu’ il convient de se poser sont: Vous intéressez-vous.
Discussion à Visées démocratique et philosophique (DVDP)
Conférence ministérielle sur l’apatridie au sein de la CEDEAO février 2015 Abidjan – Côte d’Ivoire L’apatridie et les droits de l’homme.
Correction examen mi-session
Exemple : le règlement et la référence au droit : - Le(s) texte(s) : distinguer interdictions, obligations, droits-libertés (droit de…), droits- créances.
Démarches de résolution de problèmes © R. & M. Lyons Janvier 2010.
RESEAU.
Qu’est qu’un conflit et comment le résoudre?
Vue d’ensemble des outils du PRISM Dakar, 3 au 21 Mai 2010
1 Atelier 3 : principes de gestion des ressources humaines.
Economie publique – lap formation continue CONCLSION Guilenia Consulting octobre 14.
Tous droits réservés Jacques Bourgault et COFAP inc LES HABILETÉS POLITIQUES CONFÉRENCE AU CONGRÈS DE LA FÉDÉRATION DES COMMISSIONS SCOLAIRES.
Marchés linguistiques
1 L’évaluation de l’Entente entre le MCC et les CRC 19 mai 2005 Colloque SQEP Les résultats générés par la performance organisationnelle.
L’éthique des notions à retenir
Une pédagogie de l’activité pour développer des compétences transversales Claire Herviou Alain Taurisson Juin 2003.
Évaluation par compétences
Chapitre 3 :Algèbre de Boole
INDIVIDU ACTIF, INDIVIDU MÉTACOGNITIF ET PRATICIEN RÉFLEXIF
Éthique et culture religieuse
Compétences relatives à l’employabilité
KEY NOTE GRH.
La motivation au travail
Parole d’enfants : outil citoyen
Conscience et gestion de soi
à mettre en œuvre à la rentrée 2015
Réalisé par : Ibrahimi salma Elharnouny chaimae.
Notions à construire: - Le droit et les fonctions du droit -La règle de droit -Les sources du droit Le droit vise à organiser la société au nom de certaines.
Transcription de la présentation:

L’altérité dans un dialogue homme-robot Jean Caelen Laboratoire d’Informatique de Grenoble

Plan Partie I : L’altérité dans le dialogue humain Partie II : L’éthique dans l’interaction humain-robot Partie III : Modélisation de l’interaction humain-robot Plan

Partie I : L’altérité dans le dialogue humain

L’altérité comme fondement du dialogue Le dialogue est un Faire à deux ou à plusieurs qui prend racine dans le soi et permet de construire une action commune en vue d’un but qui constitue la visée du dialogue ou de l’interaction L’altérité maintient et fonde le dialogue comme processus de co-construction de valeurs et de signes à travers l’action conjointe. Dans le dialogue humain l’altérité fonde l’intersubjectivité Nous nous appuyons sur ces 3 auteurs principalement pour préciser la notion d’altérité Ce transparent annonce le plan de ce qui sera développé

L’altérité chez Paul Ricoeur Deux significations majeures de l’identité personnelle Au sens idem = le même Traits de permanence dans le temps qui fait que l’on s’identifie comme soi, notamment par la mémoire Au sens ipse = le soi-même Mobile, se maintient par réflexivité à travers l’altérité Se manifeste dans trois types de relation Soi/monde, soi/autre, soi/soi (conscience) à travers diverses facettes +être, +avoir, +conjoint Ipséité = pouvoir d’un sujet de se représenter lui-même.

Les 8 facettes Je-Tu-Monde +être +être(soi) le regard sur soi, dans un jugement réflexif, +être(soi-même) ce que je ressens de moi à travers l’autre +être(autre) attention du Tu vers le Je +avoir +avoir(soi) ce que je possède +avoir(autre) ce qui m’est transmis par l’autre (connaissance, information, objet), +avoir(monde) ce que je reçois du monde ou d’une institution, d’un groupe, médié par l’autre +conjoint +avoir(commun) un bien indivisible +être(commun) force du lien : de haine (--), méfiance (-), indifférence (0) à empathie (+), connivence (++), amour (+++), etc. Monde +avoir(commun) +avoir(monde) +avoir(autre) Je +être(commun) Tu Schématiquement, le graphique ci-dessous illustre ces valeurs d’altérité à travers lesquelles les interactants (Je/Tu) se « construisent » par un +être(soi), +être(soi-même) +être(autre) et établissent un lien d’altérité plus ou moins fort que l’on note +conjoint. Le graphique met en évidence également les acquis au cours du dialogue en termes de +avoir dont il sera question dans l’article. Pour simplifier ce schéma, seul le point de vue de « Je » est considéré ici, il est évidemment symétrique pour le « Tu ». +être(soi) +être(soi-même) +avoir(soi) +être(autre)

Le dialogue est un jeu interactionnel basé sur la notion d’intérêt Un dialogue est un jeu au cours duquel chaque participant joue des « coups » à l’aide d’actes de langage pour atteindre son but. Un dialogue se présente comme une suite d’échanges (actions, transactions), les échanges visant à résoudre des sous-buts ou des pré-conditions et à faire progresser des gains (valeurs ou utilités) Le dialogue se maintient par l’intérêt des acteurs Intérêt individuel / intérêt conjoint = gains sur les valeurs d’altérité On peut ainsi voir le dialogue comme un « jeu » …

Dialogue D = (I, Bi, A, Gi, T) I = ensemble des interlocuteurs {i} ayant chacun son système de valeurs Bi = buts des interlocuteurs i A = ensemble des actes de dialogue {FA, FF, FS, FFS, FD, FP} Gi = ensemble des gains des interlocuteurs i avec les notations GE = gain espéré, GC = gain conjoint T = type de jeu (répété ou non, à connaissances incomplètes, à somme nulle ou non, etc.)

Hypothèse les locuteurs sont seulement capables de savoir si leur gain augmente ou diminue au cours du jeu de dialogue. Ils règlent leur dialogue de manière opportuniste en fonction de l'évolution des gains à l'intérieur même de la finalité du dialogue (leurs buts). Pour cela ils ne font pas de calculs autres que des comparaisons.

Algorithme BeginDialogue DJ : Initialization of the game D = (B(i), A, I, Gi, T) If T = repeated game Then Initialize gains Gi with those of previous stage game Else Gi = 0 Endif Opening of Dialogue by phatic acts Let i is the first speaker : Compute goal B(i), expected gain GEi which produces Speech Act Fip While  GE > 0 do For each j ≠ i  I do j analyses Fip according to T j computes his acquired gain GAj and the joint gain GC j evaluates his goal B(j) and expected gain GEj End For each If  k  I : GEk > GAk + GC then i = k i produces the speech act Fip aiming to increase his gain EndWhile If D = new game Then go to DJ EndDialogue

Application : dialogue entre un mendiant et un passant M (Mendiant) : une pièce svp... P (Passant) : tu ferais mieux de travailler plutôt que de mendier ! M : j'étais au chômage et je n'ai pas trouvé d'emploi P : ouais, moi aussi j'ai été au chômage... M : alors ! vous me comprenez… P : va te faire voir avec ta pièce ! M : bon, ça va !

+avoir (monde) +avoir (autre) +avoir (soi) +être (soi) +être (soi-même) +être (autre) GC M : une pièce svp... FF(x) : pièce(x) ; BM = obtenir(x)  GEM +argent +favorable +compassion +empathie P : tu ferais mieux de travailler plutôt que de mendier FD(Travailler) ; BP = 0 GEP +conforme à ses principes +vertueux GAM -favorable -méfiance M : j'étais au chômage et je n'ai pas trouvé d'emploi FS(y) : histoire(y) BM est maintenu ; BM = obtenir(x)  +justification +tolérance +0 GAP +conforme P : ouais, moi aussi j'ai été au chômage... FS(z) : histoire(z), z = y +convaincu -déni M : alors vous me comprenez… FS(expressif) +pitié - P : va te faire voir avec ta pièce FS(x) +

Partie II : L’éthique dans l’interaction humain-robot

Ethique et robotique Le robot « autonome » (par ex. drones militaires) Limitation des capteurs et de la perception de l’opérateur via les interfaces du robot et travail déporté dans l’interaction Responsabilité du robot ? (car il agit de plus en plus en lieu et place de l’humain) Le robot « partenaire » (par ex. robot compagnon) Limitation des bonnes intentions du robot Responsabilité du robot ? (car il peut induire de mauvais comportements de l’usager)

Responsabilité Incombe à l’opérateur ou au fabricant en cas de non- conformité Mais… L’opérateur n’a pas le contrôle total du robot (surtout s’il est autonome) ou il peut en avoir une confiance démesurée Les réseaux d’acteurs diluent la responsabilité Il y a une dimension émotionnelle dans la prise de décision La complexité du robot est croissante (on ne maîtrise pas le logiciel qui peut avoir des bugs ou des comportements inattendus) D’où perte du sens de la responsabilité chez l’opérateur et diminution de la vigilance

Cette incapacité à prendre en compte l’ensemble des facteurs est une cause d’erreur pouvant engendrer des drames, comme dans le cas de l’opération conduite en novembre 2001 contre le chef des opérations militaires d’Al-Qaïda dans les alentours de Kaboul : les deux missiles tirés depuis un Predator ont effectivement atteint leur but, mais au moment de l’impact, la voiture de la cible croisait un car scolaire, faisant de nombreuses victimes parmi les enfants. L’homme présente donc deux grandes failles entre sa sensibilité émotionnelle et ses limites physiologiques, notamment cognitives, que les machines, plus fiables, devraient pouvoir combler, à condition de pouvoir y implémenter un comportement éthique. Ethique incarnée dans le robot ?

L’éthique des robots Isaac Asimov (1920-1992). Dès 1942, dans son roman de science- fiction Runaround, avait énoncé ses Trois lois de la robotique : 1. Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger. 2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi. 3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.

Droit des robots Entre 2006 et 2007, le gouvernement de la Corée du Sud et le Réseau de recherche européen sur la robotique (Euron) posent la possibilité d’établir une charte du droit des robots.  Le robot « sujet » car autonome et « intelligent » a des droits : il ne doit pas nuire à l’humanité et l’humain ne doit pas lui nuire. « Tout comme a été créée la notion de personne morale, il devrait être possible de créer une personne robot afin de lui reconnaître des droits et obligations qui l’assimileront à une personne physique. Enfin, il conviendrait de lui attribuer une identité, avec par exemple un numéro identifiant, et de la doter d’un patrimoine, englobant tous les biens représentatifs inhérents au fonctionnement du robot. » A. Bensoussan « Aussi, il nous semblerait plus pertinent d’intégrer dans le protocole régissant le comportement du robot un ensemble de lois qu’il ne peut enfreindre, et d’établir un cadre juridique international strict concernant leur usage. » O. Sarre

Difficultés d’implémentation Un robot est-il capable d’évaluer complètement une situation et les conséquences de ses actions ? A-t-il toutes les informations nécessaires ? A-t-il toutes les règles de droit, principes et normes nécessaires ? Quel est la limite à trouver entre risque et sécurité ? Le robot n’a pas de stress positif appelé intelligence émotionnelle et ne pourrait donc pas non plus utiliser ses « émotions » comme paravent

Les robots sont amoraux Que les machines soient capables de réagir conformément à des règles dites « éthiques » préprogrammées est une chose, mais cela n’en fait pas des agents capables de raisonnements éthiques ou moraux pour autant. Les robots, comme toute machine, ne sont ni moraux ni immoraux mais amoraux, c’est-à-dire qu’on ne peut pas leur prêter de morale : c’est l’utilisation qui en est faite, sous-jacente à des décisions humaines, qui déterminera si leur emploi est ou non éthique Les robots sont amoraux

Ethique de la discussion Jürgen Habermas Théorie De L’agir Communicationnel, tente de ramener dans l’éthique kantienne les intérêts et le bien-être des personnes.  Il s’agit de permettre au processus interne induit par l’impératif kantien (la réflexion par rapport à la maxime de l’action et à sa possible universalisation) de se sortir du sujet pour prendre le terrain de la discussion, pratique, externe. Une discussion est éthique si elle ressemble autant que possible à une situation de liberté de parole absolue et de renoncement aux comportements « stratégiques » Karl-Otto Apel Éthique De La Discussion, s'appuyant en partie sur l'œuvre d'Habermas, cherche dans l’éthique de la discussion une fondation rationnelle de l'éthique… L’éthique de la discussion répond à deux principes : (U) Seules peuvent prétendre à la validité les normes qui pourraient trouver l’accord de tous les concernés en tant qu’ils participent à une discussion pratique [principe d’universalité] (R) Dans le cas de normes valides, les conséquences et les effets secondaires qui d’une manière prévisible découlent d’une observation universelle de la norme dans l’intention de satisfaire les intérêts de tout un chacun doivent pouvoir être acceptés sans contrainte par tous [principe de rationalité] Chercher refs précises sur Greimas

Critique et limites Activité morale « idéale » – Recherche de la vérité universelle (sincérité et objectivité à travers l’intersubjectivité) Activité stratégique – Jeu des intérêts (rationalité instrumentale) incompatible avec l’activité morale « idéale » « Les acteurs, en se mettant d’accord sur quelque chose, émettent des exigences de validité ou plus précisément des exigences de vérité, de justesse ou de sincérité selon qu’ils se réfèrent à quelque chose qui se produit dans le monde objectif (en tant qu’ensemble des états-de-chose existants), dans le monde de la communauté sociale (en tant qu’ensemble des relations interpersonnelles légitimement établies au sein du groupe social) ou dans le monde subjectif personnel (en tant qu’ensemble des expériences vécues auxquelles chacun a le privilège d’accéder). Mais alors que dans l’activité stratégique l’un influe sur l’autre empiriquement (que ce soit en le menaçant d’une sanction ou en lui faisant miroiter des gratifications) afin d’obtenir la continuation escomptée de l’interaction, dans l’activité communicationnelle, chacun est motivé rationnellement par l’autre à agir conjointement et ce en vertu des effets d’engagements illocutoires inhérents au fait que l’on propose un acte de parole. » Chercher refs précises sur Greimas

Libéralisme : John Rawls Remplace la notion d’éthique par celle de justice ou d’équité dans une vision libérale revisitée de la société : Chaque personne a droit à un système pleinement adéquat de libertés de base égales pour tous, compatible avec un même système de liberté pour tous [principe d’universalité] Les inégalités sociales et économiques doivent satisfaire à deux conditions  [principe d’équité] : Elles doivent d’abord être attachées à des fonctions et à des positions ouvertes à tous, dans des conditions de juste égalité des chances. Elles doivent procurer le plus grand bénéfice aux membres les plus désavantagés de la société.  Théorie de la Justice, 1971 Chercher refs précises sur Greimas

Les courants pragmatistes Les communautariens : Michaël Walser, Alaisder McIntyre, Charles Taylor, Stanley Cavel La morale n’est pas universelle mais un standard au sein de nations ou de sociétés particulières même si ce standard peut s’étendre à d’autres nations par un processus de réitération (McIntyre) L’état de guerre ne justifie pas l’absence d’éthique, une guerre menée de manière juste ne doit pas attaquer directement et intentionnellement des non combattants (Walser) L’éthique passe par la reconnaissance intersubjective des identités (Taylor) La tâche de la rationalité est de découvrir les critères qui guident nos jugements (Cavel), elle établit la supériorité locale d’une solution sur une autre et défend sa validité d’après des critères d’amélioration progressive (Taylor) L’articulation n’est pas une simple exposition du soi de l’agent mais ce qui dans la position de l’agent se réclame du lien social (ce que l’agent reconnaît comme effort incontournable de « faire société » avec les autres) Il s’agit de rendre explicites les engagements mutuels des agents, de manière à les obliger à assumer leurs responsabilités Chercher refs précises sur Greimas

Application homme-robot La vérité des faits reste contextuelle et découle d’une délibération collective : il n’y a que des normes communautaires et non universelles La responsabilité des agents est basée sur leur engagement, non sur une quelconque rationalité Ce qui conduirait pour une relation homme/robot à : Délibérer avant la mission/session pour définir des normes ou des règles et engager tous les acteurs dans leurs responsabilités Fixer des normes ou des règles au robot et notamment lui demander de fournir des « faits » au retour de mission (sorte de boîte noire) Examiner ces faits au regard des règles établies à la fin de la mission, les justifier et les juger dans un souci d’amélioration progressive Chercher refs précises sur Greimas

Partie III : Modélisation de l’interaction humain-robot

Interaction H-R = Dialogue Est un « faire » conjoint Orienté vers un but C’est donc un dialogue Dialoguer ou interagir avec un robot = Même Que doit être l’altérité du robot ? (pour appliquer le même modèle qu’en dialogue humain) = le robot n’a pas les mêmes intérêts, en particulier : +avoir(soi) = 0 +avoir(soi-même) = 0

Modélisation Le même modèle s’applique en modifiant les gains pour le robot L’utilisation en sera « éthique » si : Un dialogue préalable établit les règles ou normes comportementales du robot entre agents concernés L’opérateur et/ou l’usager reste présent et engagé dans l’interaction Les règles sont réajustées dans un souci d’amélioration permanente

Dialogue D = (I, Bi, A, Gi, T, R) I = ensemble des interlocuteurs {i} ayant chacun son système de valeurs Bi = buts des interlocuteurs i A = ensemble des actes de dialogue {FA, FF, FS, FFS, FD, FP} Gi = ensemble des gains des interlocuteurs i avec les notations GE = gain espéré, GC = gain conjoint T = type de jeu (répété ou non, etc.) R = règles comportementales du robot

Algorithme Reiteration BeginDialogue Define Rules R (deliberation + comittment) EndDialogue BeginInteraction DJ : Initialization of the game D = (B(i), A, S, I, Gi, T, R) If T = repeated game then Initialize gains Gi with those of previous stage game Endif Opening of Dialogue by phatic acts: i is the first speaker Compute goal B(i), expected gain GEi which produces Speech Act Fip While  GE > 0 do For each j ≠ i  I do j analyses Fip according to T and R j computes his acquired gain GAj and the joint gain GC j evaluates his goal B(j) End For Each If  k  I : GEk > GAk + GC then i= k i produces the speech act Fip aiming to increase Gi + GC EndWhile If D = new game Then go to DJ EndInteraction MissionAnalysis Debriefing Reiteration

Exemple Discussion de la mission Interaction Règle = FA(tirer) si et ssi !x : cible(x) viseur(x) (= cible unique dans le champ de vision) Interaction (…) Opérateur = « qu’est-ce que tu détectes ? » Robot = « c’est un pick-up » Opérateur = « tire » Robot = « il y a aussi un bus, que faire ? » Opérateur = « OK, attends » Ou Opérateur = « tire » Robot = FA(tirer)  FS(je fais un rapport)  FA(rapport)

Conclusion Extension de la théorie des jeux au dialogue comme à l’interaction homme-robot Altérité : dissymétrique, doit être compensée par l’éthique (règles externes) Ethique : résulte alors d’une discussion préalable sur les missions et comportement du robot ainsi que sur la responsabilité de l’opérateur Contrairement au dialogue humain, un niveau d’éthique doit être introduit dans l’interaction homme-robot