La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Planification en environnement situé et stratégies d’équipes

Présentations similaires


Présentation au sujet: "Planification en environnement situé et stratégies d’équipes"— Transcription de la présentation:

1 Planification en environnement situé et stratégies d’équipes
Damien Devigne Philippe Mathieu Jean-Christophe Routier Equipe SMAC, LIFL, LILLE 1 {devigne, mathieu,

2 Plan CoCoA Notre modèle d’agents centré interactions
Présentation du moteur de planification Intégration des équipes dans le modèle Conclusion

3 CoCoA (Collaborative Cognitive Agents)
Logiciel de simulation de comportements d’équipes s’appuyant sur des agents cognitifs autonomes situés géographiquement dans un environnement Séparation Agents Interactions Environnement

4 Exemples d’application
Simulations sociales in situ Robocup Rescue Jeux vidéo

5 Différents points de vue
Autres approches Emergence Plan-Merging Plans statiques et réseaux de Pétri Notre approche Planification pour agents cognitifs situés avec chef

6 Notre modèle d’agents centré interactions
Connaissance abstraite Acteur, cible Exemple Agents propriétés Peut-subir (cible) Peut-effectuer (acteurs) non omniscients situés géographiquement cognitifs Ouvrir conditions: acteur.possede(cible.clef) garde: distance(acteur, cible) < 1 actions: cible.verrouillee = faux

7 Le moteur de comportement
planification E X C U T I O N connaissances interactions sélection mémoire màj vision environnement

8 Les gardes de distance Appuyer c : g : distance(acteur, cible) < 1
a : bouton.appuyé = vrai Aller c : conditions de l’environnement g : a : distance(acteur, cible) < 1 Ouvrir c : acteur.possede(cible.clef) = vrai a : cible.verrouillée = faux Prendre a : acteur.possede(cible) = vrai appuyer bouton distance(bob,bouton)<1 aller bouton p1.verrouillee = faux ouvrir p1 +-posseder c1 | prendre c1 | distance(bob,c1)<1 | aller c1 +-distance(bob,p1)<1 aller p1

9 Quelques problèmes d’équipes
Equipes sans chef (auto-organisation) Equipes avec chef (gestion centralisée) Gestion de la synchronisation Equipes antagonistes Dynamicité de l’équipe Notre approche : Equipes d’agents autonomes, collaboratifs, avec chef, sans simultanéité

10 Exemple de problème d’équipe
maçon menuisier charpentier couvreur électricien plombier peintre ...

11 Collaboration des agents : Nécessité des équipes
Agents animés : A1 peut-effectuer : {I1} peut-subir : Ø A2 peut-effectuer : {I2} Environnement : ¬P0 ¬P1 P2 Interaction I1 conditions P1 garde G1 actions P0 But des agents : P0 Interaction I2 conditions P2 garde G2 actions P1 Agents inanimés : A3 peut-subir : {I1} A4 peut-subir : {I2} Problèmes : A1 ne peut pas déclencher I1 car ¬P1 A2 ne déclenche pas P2 car il ne connait pas I1

12 Problème de l’autonomie des agents
interaction condition ? ...

13 Problème de l’autonomie des agents
interaction Plan abstrait du chef condition condition condition interaction interaction interaction Plans concrets des agents condition condition condition interaction interaction interaction condition condition condition condition interaction interaction interaction interaction ... ...

14 Notre méthode : Interprétation abstraite du plan
Ajout des interactions des agents aux connaissances du chef SANS les conditions et les gardes chef.peut-effectuer équipe.peut-effectuer nom I1 I2 I3 I4 conditions P1, P2 - garde G1 actions P0 P1 P2 P3

15 Plan d’équipe, plan des agents
Chef Agent 1 Agent 2 P0 I3 I4 I1 P1 P2 I3 I4

16 Allocation des tâches Transformation en graphe de flot B0 B1 B2 B3 A0
X A1 A2 A3 A0 [1] B0 [1] [1] [1] [1] [1] A1 B1 [1] [1] S [1] P [1] [1] A2 B2 [1] [1] [1] [1] [1] A3 B3 [1]

17 Allocation des tâches Algorithme de Ford-Fulkerson A0 B0 A1 B1 S P A2

18 Allocation des tâches Algorithme de Ford-Fulkerson
On avance sur les arcs non saturés et on les sature On recule sur les arcs saturés et on les désature A0 B0 A1 B1 S P A2 B2 A3 B3

19 Allocation des tâches Fin de l’algo
Si plus de chaînes augmentantes alors flot maximal L’affectation maximale est donnée par les arcs (Ai, Bj) A0 B0 A1 B1 S P A2 B2 A3 B3

20 Réallocation des tâches
Ajout de nœuds dans le graphe Agent libre : Nouvel agent Agent libéré Tâche à affecter : Nouvelle tâche Agent supprimé A0 B0 A1 B1 S P A2 B2 A3 B3 A4 B4

21 Réallocation des tâches
Algorithme de Edmonds-Karp Recherche de chaînes augmentantes de longueur minimale Minimisation du nombre de changements A0 B0 A1 B1 S P A2 B2 A3 B3 A4 B4

22 Réallocation des tâches
Algorithme de Edmonds-Karp A0 B0 A1 B1 S P A2 B2 A3 B3 A4 B4

23 Réallocation des tâches
Améliorations Prise en compte du « coût » des changements (distance à parcourir pour atteindre la nouvelle cible) Algorithme hongrois

24 Conclusion Notre approche Travaux futurs
modèle original centré interactions, interprétation abstraite du plan Travaux futurs Gestion des échecs en équipe, remontée d’information Gestion dynamique des capacités de l’équipe (recrutement) Minimisation du temps total d’inactivité des agents Synchronisation

25


Télécharger ppt "Planification en environnement situé et stratégies d’équipes"

Présentations similaires


Annonces Google