République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.

Slides:



Advertisements
Présentations similaires
MOT Éditeur de modèles de connaissances par objets typés
Advertisements

6. Analyse postoptimale.
3. Variantes de l’algorithme
Classification et prédiction
Classification et prédiction
RECONNAISSANCE DE FORMES
CH-IV. L’ORADONNANCEMENT
Collecte de données F. Kohler.
Méthodes de simulation
A.Faÿ 1 Recherche opérationnelle Résumé de cours.
Ordonnancement des mouvements de deux robots
Modélisation des systèmes non linéaires par des SIFs
variable aléatoire Discrète
La revue de projet.
Statistiques et Probabilités au lycée
LES AUTRES MÉTHODES D’ORDONNANCEMENT
Quest-ce que la planification ? Planifier = Décider dun plan À partir dune base de connaissances sur les opérateurs possibles, on simule un grand nombre.
Partie 1: Notions & concepts
Les Systèmes Multi-Agents pour la Gestion de Production
Aide à la décision et à la négociation dans un problème de gestion de production distribuée Jean-Pierre Camalot et Patrick Esquirol LAAS-CNRS 7, avenue.
Algorithmique et Programmation
6. Analyse postoptimale. Analyse postoptimale Mesurer linfluence sur la solution optimale de modifier certains coefficients du problème Indiquer à lutilisateur.
Parcours de formation SIN-7
Décodage des informations
Programmes de maîtrise et de doctorat en démographie Modèles de risque et de durée Cours 2 Séance du 17 janvier 2014 Benoît Laplante, professeur.
Algorithmique et Programmation
Maîtrise des risques et sûreté de fonctionnement – Avignon – 6-10 Octobre 2008 Modélisation des dysfonctionnements dun système dans le cadre dactivités.
MOT Éditeur de modèles de connaissances par objets typés
GPA750 Les ateliers multigammes Chapitre 5
IFT Complexité et NP-complétude
1 Licence dinformatique Algorithmique des graphes Problèmes dordonnancement. Utilisation de ce document strictement réservée aux étudiants de l IFSIC dans.
Universté de la Manouba
Vincent Thomas Christine Bourjot Vincent Chevrier
Partie 2 : programmation stochastique
1 Décisions dans lincertain Eric Sanlaville ISIMA 3 F3, master SIAD novembre 2008.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Programmation non procédurale Le projet ECOLE 2000
GPA750 – Gestion de Projets
Programmation dynamique
Amélioration de la simulation stochastique
Frédéric Amblard*, Guillaume Deffuant**,
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Programmation linéaire en nombres entiers
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
Le problème central de l’ordonnancement (les plus longs chemins)
Foued Mnasri Weal Rekik
Réalisé par: BOUMSISS Hassnae OUED Zahra TABIT Youssef EZZIANI Hamza
STATISTIQUES – PROBABILITÉS
J. Cardoso — C. Sibertin-Blanc — C
IFT 702 – Planification en intelligence artificielle Planification par les processus de décision markoviens Froduald Kabanza Département d’informatique.
Nouvelles Technologies Internet & Mobile
Probabilités (suite).
Problème de double digestion
Chapitre 3: Variables aléatoires réelles continues
Améliorer la qualité d’adaptation dans les hypermédias éducatifs
Du discours aux modèles… Une tentative d’articulation
Optimisation pour la Conception de Systèmes Embarqués
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Stratégies optimales pour le déploiement des variétés résistantes Modélisation analytique de la durabilité des résistances Pietravalle S. van den Bosch.
Post-optimisation, analyse de sensibilité et paramétrage
Labeled Real-Time Dynamic Programming (LRTDP) Pierrick Plamondon.
Ordonnancement en présence d’agents individualistes
IFT 703 Informatique cognitive ACT-R Modèle symbolique et perceptuel
Validation d’une méthode d’analyse
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
Programmation par contraintes Réalisé par: WETCHA Chaima MOKDED Mohamed Ali FIA3-GL-AL 1 1.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Réaliser un projet tuteuré!!!!!
Transcription de la présentation:

                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique                                                   Hiba Abdelmoumène, Habiba Belleili Laboratoire LABGED, Université Badji Mokhtar Annaba, Algérie . Une Modélisation des Contraintes dans les Processus Décisionnels de Markov 1

PLAN DE L’EXPOSÉ Introduction Description du problème Modélisation proposée Conclusion 2

INTRODUCTION Les processus décisionnels de Markov (MDPs: Markov Decision Processes) sont une formalisation mathématique qui permet de modéliser les problèmes de décision séquentiels sous incertitude. Ils intègrent les concepts d’état qui résume la situation de l’agent à chaque instant, d’action qui influence la dynamique de l’état, de récompense qui est associée à chacune des transitions d’état. Cependant, ces modèles n’intègrent pas d’hypothèse sur les durées des actions ni de contraintes temporelles ou de précédence sur les actions. Le but de notre travail est la prise en considération des contraintes temporelles et de précédence lors de l’ordonnancement de tâches ayant des durées d’exécution probabilistes 3

Description du problème Notre problème consiste à la prise en considération des contraintes temporelles et de précédence lors de l’ordonnancement de tâches ayant des durées d’exécution probabilistes. Ce problème a été soulevé par Baki et Bouzid mais aucune modélisation du problème n’a été proposée. En effet, les auteurs ont proposé des algorithmes qui génèrent tous les plans possibles et calculent les coûts de chaque plan avec les utilités respectives de chaque plan. Notre proposition est différente, car notre objectif est de modéliser le problème en un MDP. Cette modélisation, que nous voulons représentative du problème soulevé, revient à définir l’ensemble des états, la fonction de transition et la fonction de récompense. Le MDP du problème ainsi modélisé, sera par la suite soumis à l’un des résolveurs des MDPs. La résolution du MDP nous fournira pour chaque état la politique optimale.

Description du problème Différents plans sont possibles: (t1, t2, t4, t8); (t1, t2, t3, t5, t8); (t1, t2, t3, t6, t7); (t1, t3, t6, t7) une stratégie d’ordonnancement pour compléter la mission avec des coûts réduits en respectant les contraintes 5

Description du problème Une tâche t est définie par sa fenêtre temporelle, une distribution des probabilités sur ses durées d’exécution, le coût d’exécution associé à chaque durée. Exemple: t1 <[2,6],(2, 0.6),(3, 0.4), (5,8)> [2,6]: fenêtre temporelle de la tâche t1, 2 est la date de début au plus tôt, 6 est la date de fin au plus tard de t1. (2, 0.6), (3, 0.4): l’exécution de t1 dure 2 unités de temps avec une probabilité de 0.6 et 3 unités de temps avec une probabilité de 0.4. (5,8): 5 représente le coût associé à la durée d’exécution 2 et 8 représente le coût associé à la durée d’exécution 3. Une tâche t ne peut pas être exécutée que si tous ses prédécesseurs sont exécutés en respectant les contraintes. Des contraintes de précédence conjonctives et des contraintes de précédence disjonctives sont envisagées. On suppose que l’ensemble des tâches est connu à l’avance. On ne considère pas les tâches qui viennent dynamiquement. 6

Modélisation proposée La modélisation de ce problème en un MDP revient à définir l’espace d’états, les actions, la fonction de récompense. Quant aux actions, elles correspondent aux actions de notre problème (tâches), les autres éléments nécessitent une modélisation spécifique au problème à traiter. Construction de l’espace d’états Le problème présente des contraintes temporelles et de précédence conserver la dernière tâche exécutée La tâche peut être exécutée dans différents intervalles d’exécution conserver l’intervalle d’exécution Maintenant, comment peut-on modéliser les contraintes de précédence? problèmes épisodiques ou ponctuels, dans lesquels l’utilité du résultat de chaque action est bien connue, une seule action est suffisante pour atteindre le but. problèmes de décision séquentiels, dans lesquels l’utilité dépend d’une suite de décisions, une séquence d’actions sont nécessaires pour atteindre un but 7

Modélisation proposée Puisque l’état d’un MDP doit être Markovien (résume l’historique), l’idée que nous proposons consiste à l’utilisation d’un état factorisé Etat factorisé dernière tâche exécutée + intervalle d’exécution + variable aléatoire pour chaque tâche. Où chaque variable prend ses valeurs dans: {E: Enable, D: Disable, S: Success, F: Failure} La construction des intervalles d’exécution possibles de chaque tâche se fait en appliquant à la première tâche toutes les durées possibles et en propageant les durées d’exécution dans le graphe des tâches. Dans lequel évolue le processus qui controlent la dynamique de l’état T(s,a,s’) proba d’etre dans l’état s’ si une action a est exécutée dans l’état s un mapping des états aux probabilités 8

Modélisation proposée Exemple: État de succès: <t2,[4,6],(S,S,E,E,D,D,D,D)> Deux premières tâches: exécution avec succès t3:E;t4:E État d’échec: <t2,[5,11],S,F,E,D,D,D,D,D> État initial: (’ ’,[start_time,start_time],(E,D,D,…)) Les états peuvent être classés en état de succès quand les contraintes temporelles sont respectées, état d’échec correspond à une exécution avec violation des contraintes temporelles, état terminal avec succès de la mission et état terminal avec échec de la mission. 9

Modélisation proposée Construction de la fonction de transition Nous rappelons que notre problème est stochastique à cause des durées probabilistes de chaque action. Ainsi, à partir des distributions de probabilité sur la durée de chaque action on peut aisément calculer les probabilités de transiter d’un état factorisé à un autre. En effet, la probabilité qu’une tâche t transite d’un état s à un état s’ correspond à la probabilité de l’intervalle d’exécution de s’. Cette probabilité est obtenue à partir des probabilités sur les dates de début d’une tâche t ainsi que les probabilités de ses durées d’exécution. ensemble fini de variables aléatoires , chacune a un domaine fini val (Xi) de valeurs possibles qu’elle peut prendre. Les états possibles du système sont simplement les affectations possibles des valeurs aux variables, on aura : 10

Modélisation proposée La fonction de récompense La récompense est donnée en se basant sur le coût qui est dans notre cas relatif aux durées d’exécution possibles de chaque tâche. On distingue état de succès (S), état d’échec partiel (Fp) et état d’échec total (Ft). S, r(s) = scalaire-coût, avec 0 < coût <s calaire État (s) Fp, r(s) = pénalité_Fp-coût, avec pénalité_Fp<0 Ft, r(s) = pénalité_Ft, avec pénalité_Ft < pénalité_Fp < 0 11

CONCLUSION Le but de ce travail était de prendre en compte les contraintes temporelles et de précédence envisagées lors de l’exécution des tâches ayant des durées d’exécution probabilistes. Pour ce faire, nous avons proposé de modéliser ce problème en un MDP qui est un formalisme puissant pour représenter les problèmes séquentiels et stochastiques, afin de pouvoir le résoudre et trouver la politique optimale. La gestion des contraintes et des incertitudes sur les durées d’exécution des actions a nécessité l’amélioration de la modélisation du temps et des actions réalisées usuellement dans les modèles Markoviens. Actuellement, des expérimentations sont en cours pour tester la résolution de ce MDP , d’autres travaux seront aussi réalisés pour tester le passage à l’échelle de la construction de l’espace d’états et la fonction de transition. Statiques qui sont définis à l’aide de processus métier (orchestration et chorégraphie) Dynamique lorsque la composition de services web tient compte des services disponibles, de leurs fonctionnalités et du but à atteindre que ce soit avant ou pendant l’exécution des services Workflow un processus métier est composé d’un ensemble d’activités élémentaires structurées selon l’ordre d’exécution entre elles La composition dynamique de services par des techniques d’IA et plus particulièrement par des techniques de planification est la voie qui semble la plus prometteuse. Si on considère la composition de WS comme un problème orienté but donc les algos de planification d’IA apparaissent …. 12

MERCI pour votre attention 13