Processus stochastiques

Slides:



Advertisements
Présentations similaires
Processus stochastiques
Advertisements

Formation des enseignants Formation MATLAB. Formation des enseignants MATLAB® (pour MATrix LABoratory) est un logiciel scientifique de calcul numérique.
CINI – Li115 1 Semaine 9 Algorithmes de tri ● Introduction ● Tri à bulle ● - principe ● - algorithme ● - efficacité ● Tri par sélection ● - principe, algorithme,
Courbes d'Interpolation Interpolation de Lagrange, et Interpolation B-spline.
Auteur : Patrice LEPISSIER Les probabilités  Notions de base Notions de base  Variable aléatoire Variable aléatoire  La loi Normale La loi Normale.
Cour Régulation AII3 Chapitre I: Modélisation des systèmes automatiques Abdelkhalek.S 1.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
Transformation de Laplace - Mr.Retima Abderaouf - Mr.Ghandjoui abderahmane Université 20 aout 1955 Skikda.
Suites ordonnées ou mettre de l’ordre
Application des lois de probabilité -Variable aléatoire discrète-
Exploitation de logiciels :
Analyse, Classification,Indexation des Données ACID
Pierre Joli Cours de Mathématique Pierre Joli
Calculs de temps de trajets
Pas de variable globale
Loi Normale (Laplace-Gauss)
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
VI Graphes probabilistes
Master Réseaux et Systèmes Distribués (RSD)
Algorithmiques Abdelbasset KABOU
chapitre : Les Probabilités
Un Algorithme , c'est Quoi ?
Simulation des nanostructures à base de nanorubans de graphène
LES PRINCIPES DE LA THERMODYNAMIQUE
Introduction aux Statistiques Variables aléatoires
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
Technologies de l’intelligence d’affaires Séance 12
Méthodes de prévision (STT-3220)
2.2 Probabilité conditionnelle
3.3 loi discrète 1 cours 14.
Les tableaux.
4.2 Estimation d’une moyenne
La méthode du simplexe. 1) Algorithme du simplexe  Cet algorithme permet de déterminer la solution optimale, si elle existe, d’un problème de programmation.
1 RECURSIVITE PRESENTATION Ch. PAUL ALGORITHMIQUE Présentation de la récursivité.
Modélisation avec UML 2.0 Partie II Diagramme de classes.
Dérivation et intégration
Pierre Dumouchel 20 juillet 2009
LOG770 Annexe A Éléments de probabilité
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 29/04/2018Page 1 Commande optimale.
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 04/09/2018Page 1 Commande optimale.
Résolution d’un problème de diffusion 3D
OPTIMISATION 1ère année ingénieurs
Programme financé par l’Union européenne
Simulation de robots en MATLAB
Statistiques.
Résolution d’un problème de diffusion 1D
SYSTèMES à évènements discrets
Lois de Probabilité Discrètes
Etude de la commande du système à inertie
2.4 La loi de vitesse d’une réaction chimique
Les réseaux logiques programmables
Chapitre 2 Les Mesures de Fiabilité. Plan: 2.1 Mesures pour Système NON Réparable – Définition 1 : Fiabilité – Définition 2 : Taux de défaillance – Définition.
CalculmatricielCalculmatriciel. I. Matrices Définitions & notations :
Commande optimale de l'alunissage de Lunar Lander
Position, dispersion, forme
Information, Calcul, Communication
RABAH M ed Ali 2018/2019
Programme d’appui à la gestion publique et aux statistiques
Piles et files.
Tableau de bord d’un système de recommandation
Le modèle comptable et l’entreprise industrielle
Laboratoire 3 Implémentation d’un classifieur bayésien
Chapitre 2 Résolution des Problèmes et Jeux. Objectifs  Comment ? – Modéliser un Problème. – Modéliser un Jeu.  Comment ? – Passer d’un état à un autre.
A. Zemmari SDRP & MA Problème du rendez vous : un algorithme probabiliste et une analyse probabiliste A. Zemmari.
GESTION DE LA PRODUCTION Réalisé par : EL MAROUSSI Mohammed DRIOUCHI Mohammed Abdeljabbar WAKENNOU Salah CRMEF Grand Casablanca Cycle de préparation à.
Contenu Systèmes de test parallèles Multithreading Synchronisation
Couche limite atmosphérique
La programmation dynamique
Transcription de la présentation:

Processus stochastiques Adapté de Yannis Korilis, Christian St-Jean, Dave DeBarr, Bob Carpenter, Jennifer Chu-Carroll et plusieurs autres

Processus stochastique Processus séquentiel dont chaque valeur est une variable aléatoire. Caractérisé par ses différentes réalisations Ex: Suite de lancers de dé (par ex., 1,3,2,5,3,6,2,4… Signal radar, Écho de voix réalisation V.A. Notation pour les processus chronologiques : Temps continu : x(t ) Temps discret : X(tn) ; X(nTe) ; X(n) ; Xn

Processus de Poisson Les signaux observés sont « rares » et leur survenue dépend du temps d’attente T et d’un paramètre  Le nombre de signaux durant T est: Le délai entre deux signaux suit une loi exp. de paramètre  Le temps d’attente entre « k » signaux suit une loi G Processus de renouvellement typique (c.à.d sans mémoire)

Exemple Dans un ensemble de documents analysés, le nombre moyen de motifs remarquables est 3 par document : Temps moyen d’attente : 1/3 de document Nombre moyen de motifs par document : 3 Probabilité qu’il n’y ait aucun motif recherché dans 1 document : Probabilité qu’il y ait moins de 3 motifs recherchés dans 3 documents : Probabilité de fouiller plus d’un document avant de trouver un motif recherché : Probabilité de fouiller plus de 3 documents avant de trouver un motif recherché :

Exemple Le nombre quotidien de personnes qui visitent une bibliothèque suit une loi de Poisson de paramètre  = 12. Quelle est la probabilité que plus de 250 personnes viennent durant 22 jours ouvrables ? On a lT = 12·22 = 264. La probabilité recherchée est donc P(X ³ 250) = 1 - P(X < 250) = 1 - exp(-264)·Si=0..249 264i/i! = 0.813 On peut accélérer les calculs en faisant l’approximation de la distribution de Poisson par une gaussienne de moyenne m = et de variance s2, valant toues les deux lT = 264. Cela donne : P(X ³ 250) = P(X - m ³ -14) @ P((Y - m)/s ³ 250/s) = P(Z ³ -14/264½) où Z est une variable normale standard. Donc P(X ³ 250) @ ½·[1 + erf(7·33½/66)] = 0.806

Processus de Markov L’évolution du processus dépend de son comportement passé (processus à mémoire) 1er ordre : Si on observe on à l ’instant tn, alors L’état courant du système suffit pour prédire son prochain état 2nd ordre : L’état courant du système et celui le précédant suffisent pour prédire le prochain état. Andrei Markov (1856-1922) : statisticien russe spécialisé en modèles probabilistes temporels.

Chaîne de Markov Processus de Markov du 1er ordre à temps discret où les états Xn forment une suite d’indice {0,1,2,…} Propriété de Markov : Hypothèse de stationnarité : Probabilités de transition entre états : Matrice des probabilités de transition P=[Pij] Probabilités initiales : Exemple: Alphabet :  = {‘A’,’C’,’G’,’T’} Séquence : {Xn} = ACGCCTAGGCTAGCTTATCG

Représentation d’une chaîne de Markov Il faut définir: L’espace des observations ={o1,...,om}, où oi est un élément d’un alphabet définissant la valeur possible de chaque état observé de X(t) La matrice des probabilités de transitions A={ai,j}, où ai,j = P(oj|oi) est la probabilité d’observer oj après avoir observé oi à l’état précédent Le vecteur des probabilités initiales ={i}, où i=P(oi) est la probabilité d’observer oi à l’état initial Exemple: X(t) : Temps qu’il fait sur 3 jours ={‘ neige ’,‘ pluie ’, ’soleil ’} A=  = {0.02 , 0.4, 0.58} Représentation Graphique Neige Pluie Soleil 0.4 0.1 0.2 0.6 0.3 0.8 0.02 0.58

Probabilité d’une séquence d’états Th. Bayes Propriété de Markov Représentation Graphique Neige Pluie Soleil 0.4 0.1 0.2 0.6 0.3 0.8 0.02 0.58 Application: Quelle est la probabilité qu’il fasse ‘ Soleil ’, 5 jours de suite ? P(Soleil, Soleil, Soleil, Soleil, Soleil)= 0.58*0.8*0.8*0.8*0.8 =0.2375 P(Neige, Neige, Pluie, Pluie, Soleil)= 0.02*0.4*0.3*0.6*0.2=0,000288

Et s’il y a plusieurs chemins ? Probabilité de faire une transition en n sauts Note : est l’élément (i, j) de la matrice Pn ; Les équations de Chapman-Kolmogorov permettent des « pauses » Quelle est la probabilité qu’il fasse ‘ Soleil’ dans 2 jours sachant qu’il neige aujourd’hui ? N S P 0.4 0.3 0.8 0.2

système d’évènements complet On s’intéresse uniquement au résultat, en suivant les chemins possibles sans se soucier de l’état de départ : Quelle est la probabilité qu’il fasse ‘ Soleil ’ dans 3 jours ? N S P 0.4 0.3 0.8 0.2

Exemple Un programme informatique comprend 5 modules indépendants, sp1, .., sp5, et un module de sortie sp6 De sp1 on peut : aller à sp2 avec probabilité de ½ boucler avec probabilité de ½ De sp2 on peut : aller à sp1 avec probabilité de ½ aller à sp4 avec probabilité de ½ De sp3 on peut : aller à sp1 avec probabilité de ¼ aller à sp2 avec probabilité de ¼ aller à sp5 avec probabilité de ¼ à sp6 avec probabilité de ¼ De sp4 on va à sp3 De sp5, on boucle De sp6, on boucle 1 2 3 4 5 6 0.50 1.00 0.25

Partant de sp2, quelle probabilité d’y être à nouveau au temps « 4 » ? Première solution : graphique Il existe 3 chemins pour aller de 2 à 2 en quatre temps : 24312 avec une proba : 0.50x1x0.25x0.50=1/16 21212 avec une proba : 0.50x0.50x0.50x0.50=1/16 21112 avc une proba : 0.50x0.50x0.50x0.50=1/16 Soit une proba de 3/16=0.187 1 2 3 4 5 6 0.50 1.00 0.25

Deuxième résolution : par matrice Si on pose les probabilités pij sous forme de matrice P, on a 1 2 3 4 5 6 0.50 1.00 0.25 Matrice initiale P P4

Distribution limite des états Probabilités des états en fonction du temps: Sous forme matricielle: Si  n tend vers une valeur stationnaire  , on a : et (En partant de ) L’existence de  dépend de la structure de la chaîne

La distribution stationnaire existe et est indépendante de l’état initial si la chaîne est irréductible et apériodique Irréductible : Deux états i et j communiquent si : La chaîne est irréductible si tous les états communiquent Apériodique : Une chaîne est apériodique si aucun état n’est périodique Un état i est périodique si : 3 4 2 1 3 4 2 1

Détermination de la distribution stationnaire Nombre d’états fini Deux possibilités : Résoudre le système d’équations : Dériver  de , sachant que et donc que Pn converge vers une matrice dont les lignes valent  Valable pour un petit nombre d’états B. Nombre d’états infini Méthodes précédentes non applicables On doit deviner la solution, ou la trouver par itération:

Exemple Modèle markovien Avec i le nombre de parapluies disponibles à l’endroit présent, on obtient le diagramme de transition Une professeure possède deux parapluies. S’il pleut et l’un d’eux est disponible, elle le prend; sinon, elle sort sans parapluie. Si p est la probabilité qu’il pleuve à chaque fois qu’elle se déplace, quelle est la probabilité qu’elle prenne une douche involontaire alors? i=0 2 1 La mMatrice des probabilités de transitions entre états Se mouiller

Ex.: chaîne Markov avec un nombre fini d’états 2 1 Se mouiller

Ex.: chaîne Markov avec un nombre fini d’états Si on prend p = 0.1: On peut aussi calculer  en évaluant numériquement L’efficacité du calcul dépend de la structure de P Se mouiller

Exemple montrant l’indépendance de  des états initiaux 1 2 3 0.6 0.4 À l’équilibre, on a : =[1/4 1/2 1/4] Ainsi, si on part de trois états différents : On obtient par simulation :

Autres processus markoviens Chaînes de Markov généralisées (ou Semi-Markov) : Le prochain état dépend de l’état présent, plus la durée de temps passée dans ce dernier. Chaînes de Markov à temps continu : Cas spécial des processus semi-markoviens. Champs de Markov Modèle de Markov s’appliquant à une distribution spatiale de variables aléatoires Chaînes de Markov cachées : Elles sont accessibles uniquement à travers des observations indirectes