Rappel de statistiques F. d’Alché-Buc Email: florence.dalche@ibisc.fr
I Rappels de probabilistés 1. Modèle probabiliste Expérience aléatoire évènement 2. Théorie des probabilités 3. Variables aléatoires Exemples Définitions Variables continues Moments Suite de variables aléatoires Loi des grands nombres Théorème central-limite
Outils probabilistes (suite) Simulation de lois IV. Couple de variables aléatoires Lois jointes, marginales, conditionnelles V. Vecteurs aléatoires Définitions Espérance et matrice de variance-covariance La loi multinormale Formes quadratiques
Modélisation probabiliste Expérience aléatoire : expérience dont on ne peut prévoir à l’avance le résultat et qui, répétée dans des conditions identiques peut donner ou aurait donné lieu à des résultats différents [Saporta ] Résultat d’une expérience aléatoire : élément de l’ensemble de tous les résultats possibles W (univers des possibles) Exemple d’expérience aléatoire: Réception d’un message électronique Visualisation d’une image acquise par rayons X Mesure des conditions d’utilisation d’un appareil portable au temps t
Définitions Evénement : assertion relative au résultat de l’expérience. Un événement est réalisé si l’assertion est vraie après l’accomplissement de l’expérience. On identifie un événement à la partie de W pour laquelle l’événement est réalisé : Événement = sous-ensemble C de W Evénement élémentaire : partie de réduite à un seul élément. Loi de probabilité : régit l’issue d’une expérience aléatoire
Exemple: expérience = 1 lancer de deux dés Evénement : somme des faces des 2 dés > 10 soit l’ensemble A = {(5,6), (6,5), (6,6)} Quelle est la probabilité pour que cet événement se réalise ?
Définition de la loi P qui régit l’issue de l’expérience Probabilités des événements élémentaires =1/6 Probabilité de l’événement E : P(E) = P({(5,6), (6,5), (6,6)})= 3/36 = 1/12
Rappels. Théorie des probabilités Définition : Soit A la tribu des parties de W . On appelle probabilité sur (W,A) ou loi de probabilité une application P de A dans [0,1] telle que : [Axiomatique de Kolmogorov] P(W) = 1 P( U Ai) = S P(Ai) pour tout sous ens. dénombrable, disjoint, Ai
Tribu A Classe des parties de W vérifiant : _ . " A Î A, A Î A . " A1,...,An Î A, Ai dénombrable ou finie, U Ai Î A . W Î A. 9
Propriétés d’une loi de probabilité P(A) = 1 - P(A) P(A) £ P(B) si A ÌB P(A È B) = P(A) + P(B) - P(A Ç B) 10
Probabilité conditionnelle et indépendance Loi de probabilité conditionnelle Soit B un événement de probabilité non nulle. P(A| B) = P(AÇB)/P(B) Indépendance de deux événements Définition : A est indépendant de B si P(A|B) = P(A) Propriété : P(AÇB) = P(A).P(B) ssi A et B sont indépendants
Formule de Bayes P(A|B).P(B) P(B|A) = P(A)
2. Variables aléatoires variable aléatoire : «grandeur» variant selon le résultat d’une expérience aléatoire . somme des faces de deux dés (discrète) . distance entre le point d’impact d’une flèche et la cible (continue) . [ kilométrage parcouru retard du bus] (vecteur aléatoire de dimension 2)
Variable aléatoire : exemple de la somme des faces de deux dés Une v.a X associe aux évènements possibles une valeur dans IR X(w) = i+j X w = (i,j) j i
point d’impact d’une fléchette sur une cible Exemple point d’impact d’une fléchette sur une cible IR+ d2 = x2 +y2 w = [x y] : ensemble des événements élémentaire : ici, points d’impact de fléchettes sur une cible
B = [0, 9] IR+ d2 = x2 +y2 X-1(B) w = [x y] X-1(B) est noté (X Î B) Soit P définie sur (W, A) On s’intéresse à P(X Î B)
Définition d’une variable aléatoire réelle une variable aléatoire réelle est une application mesurable de (W, A,P) dans (IR,B(IR)) telle que : Pour tout B appartenant à B(IR) , X-1(B) = {w Î W | X(w) Î B } Î A l’ensemble est noté (X ÎB) X-1(B)
v.a. discrète ou continue X(W) fini ou dénombrable : v.a. discrète X(W) non dénombrable : v.a. réelle Au tableau : distribution, densités,…
Loi gaussienne (normale)
Variable gaussienne (loi gaussienne) 1 exp ( -(x-m)2 ) p(x) = s Ö 2p 2 s2 espérance E[X] = m varianceV[X] = s2 Les paramètres de la v.a. gaussienne sont exactement son espérance et sa variance
Variable gaussienne Exemple : La loi gaussienne s’appelle aussi la loi normale c’est la v.a. qui généralise à l’incertain une valeur certaine Exemple : L’heure du cours est fixée à 9h30 ( modélisation sans incertitude) L’heure du cours est une v.a. gaussienne Centrée en 9h30 et de variance 3 minutes ( modélisation avec incertitude)
Valeurs remarquables de la loi normale P(m -1.64 s < X < m + 1.64 s) = 0.90 P(m -1.96 s < X < m + 1.96 s) = 0.95 P(m -3.09 s < X < m + 3.09 s) = 0.99
Suites de variables aléatoires Convergence presque sûre : P(lim Xn = X ) = 1 n Convergence en probabilité : lim P[ | Xn – X | > e ] = 0 Convergence en moyenne quadratique : Lim E[ (Xn –X)2] = 0 Convergence en distribution ou en loi : Lim FXn(t) = FX(t)
La loi des grands nombres Soit X définie comme la moyenne de n variables indépendantes (X1,…Xn) de même espérance m et de même variance s2. Alors quand n tend vers l’infini, cette v.a. converge en espérance vers m. lim E[X] = m n ¥
Théorème de la limite centrée dit théorème central-limite Supposons maintenant les variables seulement i.i.d Alors la variable Ön(X - E[Xi] )converge en probabilité (sa distribution converge) vers une loi normale avec espérance 0 et variance Var[Xi]. Quand on moyenne à l’infini, on aboutit à une gaussienne
Simulation de lois Loi normale >> méthode de simulation . la somme de n variables uniforme est approximativement une loi normale (central-limite) d’espérance n/2 et de variance n/12 (loi uniforme d ‘espérance 1/2 et de variance 1/12) >> méthode de simulation
Simulation d’une loi gaussienne il faut n supérieur ou égal à 12 n = 12 pour obtenir une réalisation de N(6,1) ajouter 12 nombres tirés aléatoirement entre 0 et 1. Cas général N(m,s) x1, ... x12 tirés x = m + s . (S xi - 6)
Simulation d’une loi de densité f par la méthode du rejet f finie à support bornée on suppose X compris entre 0 et 1 Soit m un majorant de f(x). On tire un nombre u uniformément entre 0 et 1 et ensuite v uniformément entre 0 et m. Si v < f(u), on conserve u qui est une réalisation de X sinon on rejette u et on recommence.
II. Introduction à l’inférence statistique Estimation de paramètres 1. Définition 2. Notions d’échantillon, d’estimateur ponctuel 3. Qualités souhaitables d’un estimateur ponctuel 4. Estimation par intervalle de confiance 29
Statistique Une statistique T est une variable aléatoire, fonction mesurable de (X1,…,Xn). Echantillon de taille n N réalisations d’une loi P, identiquement, indépendamment distribuées
Estimateur Soit (X1,…,Xn) un n-échantillon issu d’une v.a. parente de densité f(x;q) de paramètre q Un estimateur de q est une statistique Tn = .. qui prend ses valeurs dans l’ensemble des valeurs possibles de q.
Estimation Soit (x1,…,xn) une réalisation de (X1,…,Xn). T(x1,…,xn) est une estimation de q Exemple : donner une estimation de l’espérance d’une variable X
Biais d’un estimateur Biais : E[T] – q soit E[T – q ] On souhaite évidemment des estimateurs sans biais
Efficacité des estimateurs : 1. Cas sans biais Pour les estimateurs sans biais, la précision de l’estimateur est mesurée par la variance On souhaite que l’estimateur sans biais Soit de variance minimale (voir schéma au tableau)
Efficacité des estimateurs sans biais Soient deux estimateurs T et U sans biais L’efficacité de T comparée à U est : Var(U) Var(T)
Efficacité des estimateurs 2. Cas général (biais non nul) L’efficacité des estimateurs biaisés est mesurée par l’espérance de l’erreur quadratique. En effet, on a : E [(Tn – q)2] = Var [Tn – q] + (E[Tn – q])2 Espérance de l’erreur quadratique = Biais2 + variance
Estimateur le plus efficace Celui qui minimise l’erreur quadratique moyenne
Propriété de consistance ( ou convergence) Finit-on par atteindre la valeur cible quand on dispose d’un échantillon infini ? définition : un estimateur Tn de q est consistant ou convergent si : "e >0, P( | Tn - q | > e ) tend vers 0 quand n tend vers l’infini Propriété : si E[Tn ] converge vers q et Var[Tn ] converge vers 0 alors Tn est consistant. définition : si E[Tn ] converge vers q quand n tend vers l’infini, Tn est dit asymptotiquement sans biais. 38
Consistance en moyenne quadratique Si E [(Tn – q)2] converge vers 0 quand n tend vers l’infini
Critères de qualité d’un estimateur sans biais efficacité, espérance de l’erreur quadratique convergent : quand la taille n de l’échantillon tend vers l’infini, la probabité pour que T(x1,...,xn) diffère de q tend vers 0 40