La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Logique et Résolution de Problèmes-2 ( Alain LECOMTE) Logiques non classiques et systèmes multi-agents.

Présentations similaires


Présentation au sujet: "Logique et Résolution de Problèmes-2 ( Alain LECOMTE) Logiques non classiques et systèmes multi-agents."— Transcription de la présentation:

1 Logique et Résolution de Problèmes-2 ( Alain LECOMTE) Logiques non classiques et systèmes multi-agents

2 Logique classique et logiques non classiques Nombreux sont les problèmes quon ne sait pas résoudre dans le cadre classique 1.Le cadre classique est purement «extensionnel » 2.Le cadre classique est «bien ordonné»

3 Lextensionnalité Le cadre classique est extensionnel: Théorème dextensionnalité: Soit une formule complexe de logique des prédicats du premier ordre, soit une sous-formule de et soit une formule. Si et sont tautologiquement équivalentes, alors, soit la formule obtenue à partir de en remplaçant par, et sont tautologiquement équivalentes. De même: soient deux termes t et t ayant la même dénotation, alors si contient t et si est obtenue à partir de par remplacement de t par t, alors et sont tautologiquement équivalentes.

4 exemples = x y (( z a(x, z) b(z, y)) r(x, y)) –on a : a(x, z) b(z, y) a(x, z) b(z, y) –donc: si = x y (( a(x, z) b(z, y)) r(x, y)) « le nombre de planètes est égal à 9 » –le carré de 3 est égal à 9 –le carré de 3 est égal au nombre de planètes (substituabilité)

5 Contextes épistémiques soit K un opérateur « savoir que » tel que K i p = « lagent i sait que p » même si, on peut avoir (K i K i ) exemple : : « 2+2 = 4 » : « par tout point extérieur à une droite passe une parallèle à cette droite »

6 Contextes modaux Soit « » un opérateur de nécessité tel que p = « nécessairement p » Soit contenant un terme t et soit obtenue en remplaçant dans t par un terme t tel que t = t soit vraie, alors il se peut que et ne soient pas équivalents par exemple: –«le nombre de planètes = 9 » – : « le nombre de planètes du système solaire est égal à 9 » – (9 est égal à 9) est vrai (une « vérité analytique ») – est faux (cest un « fait contingent »)

7 W. V. O. Quine si substituabilité: loccurrence remplacée est dite « purement référentielle » sinon: contextes référentiellement opaques les contextes modaux et les contextes épistémiques sont référentiellement opaques

8 La circularité Le cadre classique est « bien ordonné » Stratification des types : Cf. Russell, 1902, le paradoxe de lensemble des ensembles qui ne se contiennent pas eux-mêmes, ou bien aussi : du barbier Un prédicat ne sapplique pas à lui-même ( )? x x ? La logique classique est « prédicative » au sens où les arguments doivent toujours pouvoir être évalués avant que ne sapplique à eux un prédicat donné saisons = {printemps, été, automne, hiver, saisons} na pas de sens Pourtant… cela représente le flux des saisons jusquà la fin des temps…

9 Circularité (suite) Si on entend par « livre » le contenu informatif quun livre contient, le catalogue de la bibliothèque est un livre de la bibliothèque (donc il doit se répertorier lui-même) Si un tableau existait qui représentât la totalité du monde, il devrait se représenter lui-même On serait condamné à la partialité? (modèles partiels)

10 paradoxe de Conway 5 enfants jouent, à qui on a demandé de surtout ne pas se salir, mais 3 dentre eux ont reçu sans sen rendre compte de la boue sur le front. On suppose quils sont très intelligents (!) et ne répondent que quand on leur pose une question. Le père arrive et dit une première fois : « au moins lun de vous a de la boue sur le front, est-ce que chacun de vous peut me dire sil a de la boue sur le front? » Ils répondent tous « non », évidemment… Le père redit exactement la même chose… même réponse Puis le père redit encore une fois la même chose… et là, chaque enfant sali est capable de donner la bonne réponse Pourquoi?

11 Paradoxe de Conway (solution) Par récurrence sur le nombre k denfants ayant de la boue sur le front k = 1 : lenfant qui a de la boue voit bien que les autres nen ont pas, il en déduit que cest lui qui sest sali Hypothèse de récurrence : sil y a k enfants salis, alors chaque enfant sali donne la bonne réponse à la kème formulation de la question Induction: imaginons quil y ait k+1 enfants avec de la boue sur le front, si à la kème formulation de la question, tout le monde répond toujours « non », cest, daprès lhypothèse de récurrence que le nombre denfants ayant de la boue sur le front est supérieur à k. Comme chaque enfant sal voit bien quil y en a exactement k autres que lui qui ont également de la boue sur le front, il en déduit que lui aussi a de la boue sur le front.

12 Pourquoi ce paradoxe a-t-il un lien avec la circularité? Ce qui est bizarre : –Le fait que répéter plusieurs fois de suite la même information… change la situation! –Imaginons k>1 : en ce cas, chaque enfant sait quau moins un enfant a de la boue sur le front, on pourrait dire : « inutile donc de le leur dire », or le fait de dire cette information change les choses… –Quel est donc le statut de cette information qui est dite ?

13 Information partagée En la disant, linformation est rendue publique, elle devient partagée… Autre exemple : jouer aux cartes avec jeu à découvert et jouer aux cartes avec jeu caché mais en trichant et en regardant le jeu de son voisin… Premier cas: le joueur A connaît le jeu du joueur B mais le joueur B le sait et le joueur A sait que le joueur B sait quil le connaît, et ainsi de suite! –Linformation est publique, ou partagée (le joueur A sait que le joueur B sait que le joueur A connaît son jeu etc.) Deuxième cas: le joueur B ne sait pas que le joueur A connaît son jeu et le joueur A sait que le joueur B ne sait pas quil connaît son jeu –Linformation est privée

14 Information partagée (2) Comment représenter linformation partagée? Supposons que A, B et C acquièrent à partir dun évènement e la connaissance partagée dun fait, alors on a simultanément: –e |= (lévènement e est tel que soit vrai) –e |= A sait e (lévènement e est tel que A sait que e ) –e |= B sait e id –e |= C sait e id

15 On peut donc caractériser un évènement minimal e comme le plus petit supportant tous ces faits, dun point de vue ensembliste: e = {, A sait e, B sait e, C sait e } Ce qui donne une structure circulaire Information partagée (3)

16 e = {, A sait e, B sait e, C sait e } e = {, A sait {, A sait e, B sait e, C sait e }, B sait e, C sait e } e = {, A sait {, A sait e, B sait e, C sait e }, B sait {, A sait e, B sait e, C sait e }, C sait {, A sait e, B sait e, C sait e } } etc. Information partagée (4)

17 e A sait B saitC sait

18 Un domaine dapplications privilégié : les systèmes multi-agents Un système multi-agents = « un système dans lequel des agents artificiels opèrent collectivement et de façon décentralisée pour accomplir une tâche » Un agent: –Agit de manière autonome –Interagit avec dautres –Anticipe et réagit de manière flexible à son environnement –Apprend de ses expériences et sadapte à son environnement

19 SMA (suite) Pas de système central de contrôle Données et informations décentralisées Fonctionnement asynchrone (attend quune tâche soit finie pour en commencer une autre)

20 applications Simulation de phénomènes complexes –Biologie cellulaire –Éthologie –Vie artificielle –Sociologie? –Sciences politiques (politique internationale) Résolution de problème –Intelligence Artificielle Distribuée Conception de programmes –Génie logiciel –Jeux vidéo

21 Plus pratiques… Robots (cf. robots nettoyeurs) Contrôle aérien Satellites artificiels (autonomie) Processus industriels Gestion économique Systèmes et réseaux Interfaces homme – machine EIAHD Internet, e-commerce

22 IHM The idea is to move away from the direct manipulation paradigm that has dominated for so long Agents sit over applications, watching, learning, and eventually doing things without being told – taking the initiative (MIT Media Lab)

23 one view The agent answers the phone, recognises the callers, disturbs you when appropriate, and may even tell a white lie on your behalf. The same agent is well trained in timing, versed in finding opportune moments, and respectful of idiosyncrasies N. Negroponte, Being Digital, 1995

24 Pourquoi la logique? Modéliser un systèmes dagents est difficile On a besoin de le faire: un système doit « fonctionner », cest-à-dire ne pas avoir de bugs… Il y a bug si, par exemple, il y a deadlock: –Une action A nécessite une action B qui elle-même nécessite laction A –Ou bien un but non-A ne peut être atteint que par le biais dune action B qui entraîne souvent A – des incohérences peuvent apparaître, qui paralysent le système. –Il faut des outils pour analyser ces incohérences, voire proposer des solutions qui les évitent

25 Pourquoi la logique? (2) on utilise des formules de logique des prédicats du premier ordre pour symboliser des actions ou des situations (cf. robots nettoyeurs) Les agents sont nécessairement amenés à raisonner sur les données qui leur sont fournies On est amené nécessairement à attribuer aux agents des « états », qui sont comme des états mentaux ou des états cognitifs

26 pourquoi la logique (3) –Un agent peut croire en la vérité dune certaine situation –Un agent peut savoir quil en est ainsi (parce quil la appris) –Un agent a des buts et des intentions –De multiples agents entre eux peuvent avoir une connaissance partagée, nagir que lorsquils ont acquis cette connaissance commune –Certaines situations qui se produisent peuvent être nécessaires ou contingentes, si elles sont nécessaires, elles sont le cas quoiquil arrive, si elles sont contingentes, ce nest que dans certains cas –Des actions peuvent être, dans certaines situations, interdites, permises ou obligatoires –Et surtout le temps intervient: une action A ne peut commencer que lorsquune action B est terminée etc.

27 Logique modale Ces points font intervenir la logique modale, dite encore logique intensionnelle Logique aléthique : –Le nécessaire et le possible Logique déontique : –Le permis et linterdit Logique épistémique : –Le su et le cru Autres variantes : –Logique volitive (le voulu et laccidentel) –Logique des intentions

28 Exemples de questions (1) Est-ce que: –savoir que lon sait p équivaut à savoir p? (autrement dit, est-ce que tout savoir est conscient?) –Kp KKp ? –savoir p et savoir q revient à savoir p & q? –K(p & q) Kp & Kq ? –savoir p ou savoir q revient à savoir p q? –K(p q) Kp Kq ?

29 Est-ce quon peut (doit) admettre que: – x F(x) x F(x)? –si tous les x ont nécessairement la propriété F, alors il est nécessaire que tous les x aient la propriété F si tous les commerçants de ma rue sont nécessairement en faillite, est-ce quil est nécessaire que tous les habitants de ma rue soient en faillite? si de chaque étudiant, je sais quil peut réussir, est-ce que je sais que tous les étudiants peuvent réussir? (je peux ignorer que, au cours de la première phase, jai énuméré tous les étudiants) Exemples de questions (2)

30 Est-ce quon peut (doit) toujours admettre que: –de p et p q, déduire : q –Si p est nécessaire et si p implique q, alors q est nécessaire –Mais si lagent i a lintention de rendre p vraie, même si p implique q, il na pas forcément lintention de rendre q vraie Exemples de questions (3)

31 La reconnaissance des intentions Cest un problème très important –Exemple: modélisation du contrôle aérien Deviner les intentions du pilote en interaction avec dautres pilotes, dans une phase dapproche –Permet aussi danticiper sur la suite dun dialogue homme – machine –Repose sur lhypothèse que les agents ont un comportement rationnel –Les conséquences ne sont donc pas certaines, elles sont plausibles et révisables (non monotonie)

32 Lagent A sait quil est interdit que p Lagent A sait que si lagent B croit quil est possible que p, alors il lui est interdit de souhaiter que p soit impossible! Est-il possible de démontrer: –K i p B i O p –Si un agent sait que quelque chose est nécéssaire, alors il est impossible quil la croit obligatoire Enchaînements de modalité

33 Autres problèmes Les difficultés de la modélisation font également intervenir : –Des problèmes de circularité Laction A requiert laction B mais laction B requiert laction A (que faire?) Laction A est faite dans le but non-G mais elle entraîne souvent G –Ex: on sait que si on va chez le dentiste, on a de grandes chances quil nous fasse mal aux dents, mais justement on va chez le dentiste parce quon a mal aux dents!

34 Autres problèmes (2) –Des problèmes de périodicité dans des flux asynchrones Par exemple : un système est prêt à réagir tant quon na pas coupé son alimentation, il fonctionne selon une boucle infinie, par exemple: –lire, évaluer, imprimer, lire, évaluer, imprimer etc. quelque chose quon a envie décrire : interpréter = {lire, évaluer, imprimer, interpréter}

35 interpréter lire évaluerimprimer

36 Autres problèmes (3) –Ici, on définit un ensemble (lensemble des actions effectuées par un interpréteur) en mettant comme élément de lensemble… lensemble lui-même (!), ce qui nest pas permis en logique classique

37 Autres problèmes (4) Ceci est analogue au problème suivant : Soit un système où existent un prédicat de vérité Vr et un prédicat de fausseté Faux –Considérons dans ce système, la proposition p = Vr (p) (« p est vraie ») : pour évaluer p, il faut évaluer p… La proposition p dit delle-même quelle est vraie (« je suis vraie ») p = Vr ( Vr ( Vr ( Vr (p) …))) –Pire : considérons dans ce système, la proposition p = Faux (p), p ne peut être vraie que si p est fausse et réciproquement… La proposition p dit delle-même quelle est fausse (je suis fausse) p = Faux ( Faux ( Faux (p)…)) NB : Faux ( Faux (p)) a même valeur de vérité que p Faux ( Faux ( Faux (p))) a la valeur inverse et ainsi de suite –Paradoxe du menteur

38 Théorie des hyper-ensembles La théorie des ensembles (Cantor, Zermelo – Fraenkel, Bernays…) est « bien fondée » : –Toute chaîne a 1 a 2 a 3 … a n sarrête (ie. est finie) Il y a la place pour une théorie des ensembles où de telles chaînes ne seraient pas nécessairement finies (cycliques ou infinies) : –Ce sont les « hyper-ensembles »

39 Un ensemble : Un hyper-ensemble : A = {a, {a, b}, A} A = {a, {a, b}, {{a}, b}, b} sa représentation: ab A A ab

40 Encore dautres problèmes Planifier un ensemble dactions, qui: –consomment des ressources, Ex: pour aller de A à B, un robot doit ouvrir une porte p. Il part de la situation, après son passage, nexiste plus –échangent des données (quand elles arrivent en un endroit L, elles ne sont plus en, leur lieu dorigine L!), –produisent de nouvelles situations Ex: le robot peut « produire » la situation nouvelle Remarque: ces situations sont toujours transitoires

41 Ceci pose donc le problème de la représentation de données transitoires La logique classique travaille sur des formules « éternelles » La logique linéaire travaille sur des formules qui représentent des ressources Logiques sous-structurelles Ex: planification des actions dun robot Encore dautres problèmes (2)

42 Une action Produit un changement dans le monde Utilise des ressources Se réalise par combinaison dactions plus élémentaires

43 a c poser c sur la table

44 a c

45 a c

46 a c

47 a c

48 c a

49 Passer de létat du monde: main vide (V) c en haut de pile (donc accessible) (H(c)) c sur a (S(c, a)) à main vide c en haut de pile c en bas de pile (B(c)) a en haut de pile

50 décrit par le séquent : V, H(c), S(c, a) V H(c) B(c) H(a)

51 Actions élémentaires prendre(x) :V, H(x), B(x) T(x) poser(x) :T(x) V H(x) B(x) oter(x, y) :V, H(x), S(x, y) T(x) H(y) mettre(x, y) :T(x), H(y) V, H(x) S(x, y)

52 preuve T(c) V H(c) B(c)H(a) H(a) droite T(c), H(a) V H(c) B(c) H(a) gauche V, H(c), S(c, a) T(c) H(a) T(c) H(a) V H(c) B(c) H(a) coupure V, H(c), S(c, a) V H(c) B(c) H(a)

53 preuve poser(c)H(a) H(a) droite T(c), H(a) V H(c) B(c) H(a) gauche oter(c, a)T(c) H(a) V H(c) B(c) H(a) coupure V, H(c), S(c, a) V H(c) B(c) H(a)

54 preuve action? On peut extraire une composition dactions dune preuve comme on peut extraire un programme dune preuve (informatique théorique)

55 Les agents peuvent aussi être dans des situations de: –Conflit ou rivalité –Coopération –Négociation En ce cas, la modélisation exige des éléments de Théorie des Jeux Encore dautres problèmes (3)

56 Quest-ce quun jeu? Un ensemble fini de joueurs, N = {1, …, n} Pour chaque joueur i : un ensemble A i dactions, Pour chaque joueur i : une relation < i qui est une relation de préférence sur A 1 xA 2 x…xA n, ou bien une fonction u i dutilité

57 Exemple: les prisonniers Deux criminels en prison dans des cellules séparées et qui sont interrogés: –Si les deux avouent : tous les deux 3 ans de prison, –Si lun des deux avoue seulement : il est libéré mais utilisé comme témoin contre lautre, qui recevra 4 ans de prison –Si aucun navoue: déclarés coupables dun délit mineur, recevront 1 an de prison chacun

58 formalisation N = {1, 2} A1 = A2 = {avouer, ne pas avouer} u1 : (avouer, avouer) ---> 3 (avouer, ne pas avouer) ---> 0 (ne pas avouer, avouer) ---> 4 (ne pas avouer, ne pas avouer) ---> 1 u2 : (avouer, avouer) ---> 3 (avouer, ne pas avouer) ---> 4 (ne pas avouer, avouer) ---> 0 (ne pas avouer, ne pas avouer) ---> 1

59 Matrice dun jeu (4, 0) (1, 1) (3, 3) A B avoue n avoue pas avoue n avoue pas (0, 4)

60 Équilibre de Nash Soit a un choix fait par les n joueurs Soit a[i : x] le choix fait par les n joueurs identique à a sauf que i a finalement choisi laction x a est un équilibre de Nash si et seulement si pour tout i, pour tout x de A i, a i a[i : x] Autrement dit: pour chaque joueur i, le choix quil fait est préférable à tout autre choix quil pourrait faire

61 Retour aux deux prisonniers Le problème des deux prisonniers a-t-il un équilibre de Nash? –Si les deux choisissent davouer : chacun pourrait faire un meilleur choix en navouant pas! –Si les deux choisissent de ne pas avouer : chacun pourrait faire un meilleur choix en avouant! –Si lun avoue et lautre non, celui qui navoue pas ferait un meilleur choix en avouant…

62 Solution minimax Ils peuvent par exemple choisir une solution qui minimise le risque maximum (minimax), autrement dit une solution où lun choisit une action telle que son risque maximal quand il envisage tous les choix de lautre soit minimum Ex: du point de vue de A, –Sil avoue, si B avoue, il fait 3 ans, si B navoue pas, il fait 0, risque maximum : 3 ans –Sil navoue pas, si B avoue, il fait 4 ans, si B navoue pas, il fait 1 an, risque maximum : 4 ans –Donc il vaut mieux avouer Ex: du point de vue de B : même raisonnement, Doù leur choix « rationnel » : (avouer, avouer), qui leur coûte seulement une année de prison chacun

63 Jeux de dialogue (1) On peut appliquer la notion de jeu au dialogue : –Un dialogue « réel » comprend plusieurs «sous-jeux » –Chaque jeu comporte des règles et donne lieu à des « coups » –On passe dun jeu à un autre quand certaines conditions sont remplies

64 Exemple: –Jeu question-réponse (recherche dinformation) Condition dentrée dans le jeu: –W x Kif x Q –x veut savoir si Q Condition de sortie –Kif x Q –x sait si Q Règles dinférence et de jeux Jeux de dialogue (2)

65 Jeux de dialogue (3) daprès C. Delord, 1998 W x Kif x Q & B x (P Q) W x Kif x P B x ? y Q B x W y Kif y Q Kif x Q W x Kif x Q ? x P : « lagent x a posé la question P » ! x P : « lagent x asserte P » ! y P B x ! y P si y asserte P alors x croit que y asserte P B x ? y Q B x W y Kif y Qsi x croit que y a posé la question Q, alors x croit que y veut savoir si Q (mise à jour détat mental) W x Kif x Q & B x Kif y Q ? x Qengendrement dun « coup » B x B y P & B x P B x P mise à jour détat mental B x P B x P ! x P maxime de sincérité

66 Exemple de dialogue Agent x – état mental coup 1.B x (p q), B x (q r) 2. ? y r 3.B x W y Kif y r, W x Kif x r 4. ? x q !? y q 7.W x Kif x p 8. ? x p ! y p 11.B x p, B x q 12. ! x q 13.B x r 14. ! x r Agent y – état mental 1.B y p, W y Kif y r B y W x Kif x q B y W x Kif x p B y q B y r

67 Plan du cours 1.Introduction : les logiques non classiques et leurs applications 2.Logique modale 1.Approche syntaxique 2.Approche sémantique 3.Hyper-ensembles et problèmes de circularité 4.Logiques sous-structurelles et planification de laction 5.Jeux et formalisation du dialogue 6.Etudes dapplications


Télécharger ppt "Logique et Résolution de Problèmes-2 ( Alain LECOMTE) Logiques non classiques et systèmes multi-agents."

Présentations similaires


Annonces Google