La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Froduald Kabanza Département d’informatique Université de Sherbrooke

Présentations similaires


Présentation au sujet: "Froduald Kabanza Département d’informatique Université de Sherbrooke"— Transcription de la présentation:

1 IFT 608 / IFT 702 Planification en intelligence artificielle Planification multi-agents
Froduald Kabanza Département d’informatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/

2 Planification multi-agents
Sujets couverts Catégories de problèmes de planification multi-agent Planification adversariale et la théorie des jeux Coordination distribuée Références: Yoav Shoham and Kevin Leyton-Brown. Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations. Chapitres 1 à 2 et Chapitre 5. Browne et al. A Survey of Monte Carlo Tree Search Methods. IEEE Transactions on Computational Intelligence and AI in Games, VOL. 4, NO. 1, March 2012 IFT608 / IFT 702 Planification multi-agents

3 Planification multi-agents
Planification multi-agent signifie planifier pour plusieurs agents Un seul agent qui planifie pour plusieurs Plusieurs agents qui planifient en même temps (ensemble ou en compétition) Pourquoi plusieurs agents? Le problème implique plusieurs agents Chercher l’efficacité (en temps de calcul) Chercher la robustesse – un agent peut tomber en panne, les autres vont assurer la relève. Nouveaux défis: Agents avec des buts personnels, compétitifs Communication, coordination Il faut repenser les algorithmes pour assurer l’optimalité. California Institute of Technology © 2004 r1 r2 r5 r4 r3 Coordination signifie essentiellement: Gérer la communication Gérer les conflits Livraison de colis IFT608 / IFT 702 Planification multi-agents

4 Catégories de problèmes
IFT608 / IFT 702 Planification multi-agents

5 Types de problèmes de planification multi-agents
Coopératif : but commun, fonction d’utilité commune. Réseau de capteurs distribués Plusieurs robots coopératifs Adversarial : buts ou fonctions d’utilité divergents Jeux de stratégie temps réel (RTS) Opérations militaires Coalition: coopératif et adversarial Jeux RTS multi-joueurs Deux équipe de robots jouant au soccer l’une contre l’autre Quel intérêt pour avoir plusieurs agents ? Il y a des tâches qu’un seul agent ne peut pas faire tout seul : e.g., soulever des charges, marquer des buts au soccer. Une équipe peut faire des tâches plus rapidement: explorer un grand territoire sur mars, se localiser en échangeant les informations. Certaines tâches sont naturellement multi-agents: e.g., montage automobile. Réseau de capteurs distribués qui poursuit un véhicule ou une personne dans un habitat intelligent IFT608 / IFT 702 Planification multi-agents

6 Planification CoopératiVE
IFT608 / IFT 702 Planification multi-agents

7 Planification coopérative centralisée
Planificateur central Exécution de plans individuels Planification centralisée, exécution décentralisé Le planificateur central doit être capable de traiter des Activités concurrentes Buts temporels Il faut un middleware assurant la communication entre les agents (par exemple: ROS, DDS). Avantage: Généralisation facile des algorithmes usuels de planification pour un seul agent. Désavantage: généralement inefficace IFT608 / IFT 702 Planification multi-agents 7

8 Planification coopérative décentralisée avec fusion de plans
(plan merger) Planificateur individuel Planificateur individuel Planificateur individuel Exécution de plans individuels Des plans individuels peuvent être générés séparément en adaptant un planificateur pour un seul agent et fusionnés ensuite (plan merging). La planification par recherche dans l’espace de plan vu antérieurement s’apprêtent particulièrement bien à la fusion des plans. Fusion de plans: Étant donné les plans individuels pour chacun des agents: - examiner toutes les combinaisons possibles (par exemple, tous les entralacements ou par une recherche dans l’espace de plans). - résoudre les inconsistences par les mêmes techniques que la planification ordinaire (ajouts de contraintes, backtracking, etc.) IFT608 / IFT 702 Planification multi-agents 8

9 Planification complètement décentralisée
Exécution de plans individuels Indor sensor network Dans une approche complètement décentralisée, chaque agent calcule son plan en échangent des données avec les autres. Une des approches est « Distributed CSP (DCSP) ». C’est une généralisation des problèmes CSP vus dans IFT615. Chapitre 1 & 2 de [Shoam et Leyton-Brown] Problème: Allouer des capteurs aux cibles, étant donné des contraintes de visibilité (obstacles) et de compatibilité, de sorte que l’on puisse suivre les cibles en tout temps et le choix des fréquences des capteurs ne cause pas des interférences. Il y a interférence quand deux capteurs ayant des rayons d’action qui se chevauchent utilise la même fréquence. IFT608 / IFT 702 Planification multi-agents 9

10 Planification multi-agents
Distributed CSP Une généralisation à plusieurs agents de backtracking-search pour CSP (IFT615) Pour des problèmes de planification coopérative Exemple: Réseau de capteurs distribués (SensorDCSP) Chapitre 1 de [Shoam et Leyton-Brown] Outdoor sensor network Indor sensor network IFT608 / IFT 702 Planification multi-agents

11 Sensor DCSP - Enoncé du problème
Plusieurs capteurs: s1, …, sm Chaque capteur a un rayon d’action Peut être obstrué par des obstacles dans l’environnement Peut fonctionner sur des fréquences différentes Les rayons d’action des capteurs peuvent se chevaucher Plusieurs cibles à suivre: t1, …, tn. Problème: Allouer des capteurs aux cibles, de sorte que l’on puisse suivre les cibles en tout temps et qu’il n’y ait pas d’interférences entre les capteurs. Il y a interférence lorsque deux capteurs avec des rayons d’action qui se chevauchent utilisent la même fréquence. Peut se modéliser comme un problème CSP IFT608 / IFT 702 Planification multi-agents

12 Rappel IFT615 – Problème CSP
Formellement, un problème de satisfaction de contraintes (ou CSP pour Constraint Satisfaction Problem) est défini par: Un ensemble fini de variables X1, …, Xn. Chaque variable Xi a un domaine Di de valeurs permises. Un ensemble fini de contraintes C1, …, Cm sur les variables. Une contrainte restreint les valeurs pour un sous-ensemble de variables. Un état d’un problème CSP est défini par une assignation de valeurs à certaines variables ou à toutes les variables. {Xi=vi,Xn=v1,…}. Une assignation qui ne viole aucune contrainte est dite consistante ou légale. Une assignation est complète si elle concerne toutes les variables. Une solution à un problème CSP est une assignation complète et consistante. Parfois, la solution doit en plus maximiser une fonction objective donnée. IFT608 / IFT 702 Planification multi-agents

13 Rappel IFT615 - Exemple : Colorier une carte
On vous donne une carte de l’Australie : Et on vous demande d’utiliser seulement trois couleurs (rouge, vert et bleu) de sorte que deux états frontaliers n’aient jamais les mêmes couleurs. On peut facilement trouver une solution à ce problème en le formulant comme un problème CSP et en utilisant des algorithmes généraux pour CSP. IFT608 / IFT 702 Planification multi-agents

14 Rappel IFT615 - Graphe de contraintes
Pour des problèmes avec des contraintes binaires (c-à-d., entre deux variables), on peut visualiser le problème CSP par un graphe de contraintes. Un graphe de contraintes est un graphe dont les nœuds sont des variables (un nœud par variable) et les arcs sont des contraintes entre les deux variables. WA≠ NT WA≠ SA NT≠ Q NT≠ SA Q≠ SA Q≠ NSW NSW≠ V SA≠ V SA≠ NSW IFT608 / IFT 702 Planification multi-agents

15 Rappel IFT615 - Backtracking search
function BACKTRACKING-SEARCH(csp) return a solution or failure return BACKTRACK({} , csp) function BACKTRACK(assignment, csp) return a solution or failure if assignment is complete then return assignment var  SELECT-UNASSIGNED-VARIABLE(var, assignment, csp) for each value in ORDER-DOMAIN-VALUES(var, assignment, csp) do if value is consistent with assignment then add {var=value} to assignment inferences  INFERENCES(csp, var, value) // e.g., AC-3 if inferences  failure then add inferences to assignment result  BACTRACK (assignment, csp) if result  failure then return result remove {var=value} and inferences from assignment return failure Puisque la représentation du domaine est standardisée, pas besoin de spécifier les fonctions successeurs et le but. Elles sont implicites. BACKTRACK est une recherche en profondeur. Pas besoin de maintenir un graphe de nœuds (closed). Open implicitement représenté par la pile de récursivité. On aurait pu être tenté d’utiliser une recherche dans un graphe classique telle que chaque nœud du graphe est une assignation partielle et une action consiste à ajouter var=value à l’assignation. Supposons n variable avec un domaine de taille d pour chaque variable. Cela donne nd nœuds au premier niveau du graphe. Au second niveau, le facteur de branchement est (n-1)d et ainsi de suite. En tout, l’arbre aurait n!*d^n feuilles, mêmes s’il y a seulement d^n assignations complètes possibles. Le problème avec cette formulation naïve est qu’elle ignore la commutativité des assignations! (Voir Page 214). BACKTRACK considère seulement une seule variable à chaque niveau de l’arbre. IFT608 / IFT 702 Planification multi-agents

16 Planification multi-agents
DCSP Dans DCSP, chaque variable est gérée par un agent. Le problème demeure de trouver une assignation qui satisfait les contraintes. Chaque agent décide de la valeur de sa variable avec une certaine autonomie. Les agents se coordonnent en parllèle. Chaque agent n’a pas une vue globale des assignations, mais il peut communiquer avec les agents voisins (selon le graphe des contraintes) pour connaître leurs valeurs. Un algorithme DCSP consiste à avoir les agents qui communiquent avec leurs voisins, chacun mettant à jour sa valeur, de sorte que le processus converge éventuellement vers une assignation complète et satisfaisante. Le chapitre 1 [Shoam et Leyton-Brown] décrit deux algorithmes en détail. IFT608 / IFT 702 Planification multi-agents

17 Planification adversariale
IFT608 / IFT 702 Planification multi-agents

18 Planification multi-agents
Théorie des jeux Modéliser des situations où les décisions de l’agent sont influencées par celles d’autres autre agents (et vice-versa) Pas seulement des situations de compétition Mais aussi des situations de coopération (exemple, entre des firmes pour former un cartel) et de coalition. Ici je couvre seulement les situations adversariales, pour seulement deux agents. IFT608 / IFT 702 Planification multi-agents 18

19 Planification multi-agents
Théorie des jeux Très utilisée en économie Modéliser des situations économiques de coopération/compétition On cherche à maximiser une certaine fonction d’utilité Les fonction d’utilité sont définies en fonction du type de jeu (adversarial, coopératif) IFT608 / IFT 702 Planification multi-agents 19

20 Planification multi-agents
Théorie des jeux Types de jeux Coopératif / Non coopératif Somme nulle / Somme générale Simultanés / Séquentiels Information complète / incomplète Information parfaite / imparfaite Types de représentation Normale (matricielle) Extensive (arbre de jeu) Somme nulle = somme des utilités toujours égale à 0 Somme constante = somme des utilités toujours égale à une constante c (e.g. jeu d’échecs avec 0 point pour défaite, ½ pour match nul et 1 pour une victoire) Peut être transformé trivialement en jeu à somme nulle en soustrayant une constante à chaque utilité Somme générale In a game of incomplete information, players may or may not k i f ti b t th th t know some i n formation a bou t the other players, e.g. their “type”, their strategies, payoffs o t e p e e e ces. In a game of imperfect information, players are g p , p y simply unaware of the actions chosen by other players. However they know who the other players are hat their possible strategies/actions are and are, what their possible strategies/actions are, and the preferences/payoffs of these other players. IFT608 / IFT 702 Planification multi-agents 20

21 Planification multi-agents
Concepts basiques Comment dans la planification MDP, le but est pour chaque agent de maximiser sa fonction d’utilité. La différente notable est que nous avons maintenant plusieurs agents (deux dans l’exemple) possiblement avec des fonctions d’utilité opposées. L’équivalent d’un plan ou politique dans les jeux est une stratégie Choix d’actions pour un jouer pour toutes les phases du jeu, autrement dit pour chaque état. Stratégie pure (fixée pour chaque état du jeu) vs stratégie mixte (aléatoire) Au lieu de plan/stratégie optimal, on parle de concept d’équilibre. Il y a plusieurs concepts d’équilibre. IFT608 / IFT 702 Planification multi-agents 21

22 Planification multi-agents
Équilibre de Nash Étant donné un ensemble de stratégies (une pour chaque agent), elles sont en équilibre de Nash si et seulement si chaque stratégie est la meilleure réponse face aux autres stratégies Autrement dit, aucun agent n’a intérêt à dévier de sa stratégie si les stratégies des adversaires restent fixes. L’équilibre de Nash est conservatrice Donne une stratégie optimale si effectivement les autres agents jouent selon l’équilibre (jouent de façon optimale) Elle n’exploite pas les faiblesses éventuelles des autres agents Selon notre définition de rationalité, un agent rationnel se comporte donc aléatoirement. IFT608 / IFT 702 Planification multi-agents 22

23 Jeux sous forme normale
Exemple à somme générale: dilemme des prisonniers Se taire Dénoncer (-0.5, -0.5) (-10, 0) (0, -10) (-5, -5) Solution: équilibre de Nash Dans cet exemple: { (Dénoncer), (Dénoncer) } C’est un jeu simulatnée, à information incomplète IFT608 / IFT 702 Planification multi-agents 23

24 Jeux sous forme normale
Exemple de jeu à somme nulle: build orders dans StarCraft Zerg Terran Solution: équilibre de Nash, avec une stratégie mixte { (25% Proxy Gates, 50% 2 Gates, 25% Fast Expand), (17% 4 Pool, 48% 9 Pool, 35% 12 Pool, 0% 12 Hatch) } IFT608 / IFT 702 Planification multi-agents 24

25 Planification multi-agents
Jeux répétés Séquence du même jeu matriciel Horizon fini ou infini IFT608 / IFT 702 Planification multi-agents 25

26 Planification multi-agents
Jeux répétés Séquence du même jeu matriciel Horizon fini ou infini Chaque agent doit prendre en compte l’impact futur de ses décisions (sa « réputation ») Représailles potentielles des autres agents La meilleure décision n’est pas nécessairement de toujours jouer l’équilibre de Nash du jeu matriciel Solutions tenant compte de l’expérience (historique des stratégies des autres agents) IFT608 / IFT 702 Planification multi-agents 26

27 Jeux (séquentiels) à information parfaite, sous forme extensive
Décision tour à tour Minimax Optimisation: alpha-beta pruning Information complète: État du jeu, règles du jeu et fonction d’utilité complètement connus. IFT608 / IFT 702 Planification multi-agents 27

28 Monte-Carlo Tree-Search (Approche de base)
Information complète: État du jeu, règles du jeu et fonction d’utilité complètement connus. Browne et al. A Survey of Monte Carlo Tree Search Methods. IEEE Transactions on Computational Intelligence and AI in Games, VOL. 4, NO. 1, March 2012 IFT608 / IFT 702 Planification multi-agents 28

29 Jeu séquentiels à information incomplète
Algorithme Expectimax Un model probabiliste des comportement des l’opposant: Le modèle peut être une simple distribution de probabilités Le modèle peut être plus sophistiqué, demandant des inférences/calculs élaborés Le modèle peut représenter des actions stochastiques/incontrôlables (à cause de de l’opposant, l’environnement) Le modèle pourrait signifier que des actions de l’adversaire sont probables Pour cet illustration, supposer que (de façon magique) nous avons une distribution de probabilités à associer aux actions de l’adversaire/environnement Information complète: État du jeu complètement connus. Mais on ne connait pas forcément les coups que va jouer l’autre (règles du jeu). In a game of incomplete information, players may or may not k i f ti b t th th t know some i n formation a bou t the other players, e.g. their “type”, their strategies, payoffs o t e p e e e ces. Avoir une croyance probabiliste sur les actions d’un agent ne signifie pas que l’agent lance effectivement un dé! IFT608 / IFT 702 Planification multi-agents 29

30 Algorithme Expectimax
EXPECTIMAX (n) = UTILITY(n) Si n est un nœud terminal maxs  successors(n) MINIMAX-VALUE(s) Si n est un nœud Max mins  successors(n) MINIMAX-VALUE(s) Si n est un nœud Min s  successors(n) P(s) * EXPECTEDMINIMAX(s) Si n est un nœud chance Ces équations donne la programmation récursive des valeurs jusqu’à la racine de l’arbre. Le nom fréquent est EXPECTIMAX. Dans le livre: EXPECTIMINMAX. Le livre a plutôt raison, parce qu’on ajoute EXPECTED-UTILITY à MINIMAX. Mais je préfère garder le nom le plus fréquent. Note: Contrairement à minmax et alpha-beta pruning qui ne sont pas sensibles aux transformations monotones de la fonction d’utilité (scores), expectimax l’est. Ça prend une transformation linéaire de l’utilité espéré pour que expectimax ne soit pas sensible. IFT608 / IFT 702 IFT615 Planification multi-agents

31 Jeu séquentiels à information imparfaite
État partiellement observable Modélisé par un ensemble d’information (information set). Information complète: État du jeu complètement connus. Mais on ne connait pas forcément les coups que va jouer l’autre (règles du jeu). In a game of imperfect information, players are g p , p y simply unaware of the actions chosen by other players. However they know who the other players are hat their possible strategies/actions are and are, what their possible strategies/actions are, and the preferences/payoffs of these other players. IFT608 / IFT 702 Planification multi-agents 31

32 Approches algorithmiques en général
Jeu matriciel à 2 joueurs à somme nulle Problème d’optimisation linéaire Jeu matriciel à 2 joueurs à somme générale Problème d’optimisation quadratique Algorithme de Lemke-Howson Algorithme d’énumération des supports (Support enumeration) Jeu matriciel à n joueurs Govindan and Wilson’s continuation method Jeux extensifs (représentation sous-forme d’arbres de jeu) Minmax (jeu séquentiel à information parfaite) Élagage (pruning) de stratégies strictement dominées Expectimax (jeu à information incomplète) Échantillonnage Monte Carlo Recherche heuristique Optimisation linéaire: simplexe, points intérieurs… Optimisation quadratique: gradient conjugué, lagrangiens augmentés… IFT608 / IFT 702 Planification multi-agents 32

33 Planification multi-agents
Résumé La planification multi-agent concerne la planification pour plusieurs agents. La théorie des jeux fournit les concepts de solution (équilibres) et les algorithmes de prise de décision. L’intelligence artificielle distribuées fournit des méthodes de coordination centralisées, décentralisées, ou hybrides. Pour la planification coopérative, les approches de planification par recherche dans l’espace de plans, combinées avec DCSP offrent un cadre de résolution fréquemment rencontré dans la littérature. Pour l’examen: retenir les différents concepts (définitions), types de problèmes et types d’approches de solutions correspondant IFT608 / IFT 702 Planification multi-agents


Télécharger ppt "Froduald Kabanza Département d’informatique Université de Sherbrooke"

Présentations similaires


Annonces Google