La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Rappel de statistiques

Présentations similaires


Présentation au sujet: "Rappel de statistiques"— Transcription de la présentation:

1 Rappel de statistiques
F. d’Alché-Buc

2 I Rappels de probabilistés
1. Modèle probabiliste Expérience aléatoire évènement 2. Théorie des probabilités 3. Variables aléatoires Exemples Définitions Variables continues Moments Suite de variables aléatoires Loi des grands nombres Théorème central-limite

3 Outils probabilistes (suite)
Simulation de lois IV. Couple de variables aléatoires Lois jointes, marginales, conditionnelles V. Vecteurs aléatoires Définitions Espérance et matrice de variance-covariance La loi multinormale Formes quadratiques

4 Modélisation probabiliste
Expérience aléatoire : expérience dont on ne peut prévoir à l’avance le résultat et qui, répétée dans des conditions identiques peut donner ou aurait donné lieu à des résultats différents [Saporta ] Résultat d’une expérience aléatoire : élément de l’ensemble de tous les résultats possibles W (univers des possibles) Exemple d’expérience aléatoire: Réception d’un message électronique Visualisation d’une image acquise par rayons X Mesure des conditions d’utilisation d’un appareil portable au temps t

5 Définitions Evénement : assertion relative au résultat de l’expérience. Un événement est réalisé si l’assertion est vraie après l’accomplissement de l’expérience. On identifie un événement à la partie de W pour laquelle l’événement est réalisé : Événement = sous-ensemble C de W Evénement élémentaire : partie de réduite à un seul élément. Loi de probabilité : régit l’issue d’une expérience aléatoire

6 Exemple: expérience = 1 lancer de deux dés
Evénement : somme des faces des 2 dés > 10 soit l’ensemble A = {(5,6), (6,5), (6,6)} Quelle est la probabilité pour que cet événement se réalise ?

7 Définition de la loi P qui régit l’issue de l’expérience
Probabilités des événements élémentaires =1/6 Probabilité de l’événement E : P(E) = P({(5,6), (6,5), (6,6)})= 3/36 = 1/12

8 Rappels. Théorie des probabilités
Définition : Soit A la tribu des parties de W . On appelle probabilité sur (W,A) ou loi de probabilité une application P de A dans [0,1] telle que : [Axiomatique de Kolmogorov] P(W) = 1 P( U Ai) = S P(Ai) pour tout sous ens. dénombrable, disjoint, Ai

9 Tribu A Classe des parties de W vérifiant : _ . " A Î A, A Î A
. " A1,...,An Î A, Ai dénombrable ou finie, U Ai Î A . W Î A. 9

10 Propriétés d’une loi de probabilité
P(A) = 1 - P(A) P(A) £ P(B) si A ÌB P(A È B) = P(A) + P(B) - P(A Ç B) 10

11 Probabilité conditionnelle et indépendance
Loi de probabilité conditionnelle Soit B un événement de probabilité non nulle. P(A| B) = P(AÇB)/P(B) Indépendance de deux événements Définition : A est indépendant de B si P(A|B) = P(A) Propriété : P(AÇB) = P(A).P(B) ssi A et B sont indépendants

12 Formule de Bayes P(A|B).P(B) P(B|A) = P(A)

13 2. Variables aléatoires variable aléatoire : «grandeur» variant selon le résultat d’une expérience aléatoire . somme des faces de deux dés (discrète) . distance entre le point d’impact d’une flèche et la cible (continue) . [ kilométrage parcouru retard du bus] (vecteur aléatoire de dimension 2)

14 Variable aléatoire : exemple de la somme des faces de deux dés
Une v.a X associe aux évènements possibles une valeur dans IR X(w) = i+j X w = (i,j) j i

15 point d’impact d’une fléchette sur une cible
Exemple point d’impact d’une fléchette sur une cible IR+ d2 = x2 +y2 w = [x y] : ensemble des événements élémentaire : ici, points d’impact de fléchettes sur une cible

16 B = [0, 9] IR+ d2 = x2 +y2 X-1(B) w = [x y] X-1(B) est noté (X Î B)
Soit P définie sur (W, A) On s’intéresse à P(X Î B)

17 Définition d’une variable aléatoire réelle
une variable aléatoire réelle est une application mesurable de (W, A,P) dans (IR,B(IR)) telle que : Pour tout B appartenant à B(IR) , X-1(B) = {w Î W | X(w) Î B } Î A l’ensemble est noté (X ÎB) X-1(B)

18 v.a. discrète ou continue
X(W) fini ou dénombrable : v.a. discrète X(W) non dénombrable : v.a. réelle Au tableau : distribution, densités,…

19 Loi gaussienne (normale)

20 Variable gaussienne (loi gaussienne)
1 exp ( -(x-m)2 ) p(x) = s Ö 2p 2 s2 espérance E[X] = m varianceV[X] = s2 Les paramètres de la v.a. gaussienne sont exactement son espérance et sa variance

21 Variable gaussienne Exemple :
La loi gaussienne s’appelle aussi la loi normale c’est la v.a. qui généralise à l’incertain une valeur certaine Exemple : L’heure du cours est fixée à 9h30 ( modélisation sans incertitude) L’heure du cours est une v.a. gaussienne Centrée en 9h30 et de variance 3 minutes ( modélisation avec incertitude)

22 Valeurs remarquables de la loi normale
P(m s < X < m s) = 0.90 P(m s < X < m s) = 0.95 P(m s < X < m s) = 0.99

23 Suites de variables aléatoires
Convergence presque sûre : P(lim Xn = X ) = 1 n Convergence en probabilité : lim P[ | Xn – X | > e ] = 0 Convergence en moyenne quadratique : Lim E[ (Xn –X)2] = 0 Convergence en distribution ou en loi : Lim FXn(t) = FX(t)

24 La loi des grands nombres
Soit X définie comme la moyenne de n variables indépendantes (X1,…Xn) de même espérance m et de même variance s2. Alors quand n tend vers l’infini, cette v.a. converge en espérance vers m. lim E[X] = m n ¥

25 Théorème de la limite centrée dit théorème central-limite
Supposons maintenant les variables seulement i.i.d Alors la variable Ön(X - E[Xi] )converge en probabilité (sa distribution converge) vers une loi normale avec espérance 0 et variance Var[Xi]. Quand on moyenne à l’infini, on aboutit à une gaussienne

26 Simulation de lois Loi normale >> méthode de simulation
. la somme de n variables uniforme est approximativement une loi normale (central-limite) d’espérance n/2 et de variance n/12 (loi uniforme d ‘espérance 1/2 et de variance 1/12) >> méthode de simulation

27 Simulation d’une loi gaussienne
il faut n supérieur ou égal à 12 n = 12 pour obtenir une réalisation de N(6,1) ajouter 12 nombres tirés aléatoirement entre 0 et 1. Cas général N(m,s) x1, ... x12 tirés x = m + s . (S xi - 6)

28 Simulation d’une loi de densité f par la méthode du rejet
f finie à support bornée on suppose X compris entre 0 et 1 Soit m un majorant de f(x). On tire un nombre u uniformément entre 0 et 1 et ensuite v uniformément entre 0 et m. Si v < f(u), on conserve u qui est une réalisation de X sinon on rejette u et on recommence.

29 II. Introduction à l’inférence statistique
Estimation de paramètres 1. Définition 2. Notions d’échantillon, d’estimateur ponctuel 3. Qualités souhaitables d’un estimateur ponctuel 4. Estimation par intervalle de confiance 29

30 Statistique Une statistique T est une variable aléatoire, fonction
mesurable de (X1,…,Xn). Echantillon de taille n N réalisations d’une loi P, identiquement, indépendamment distribuées

31 Estimateur Soit (X1,…,Xn) un n-échantillon issu d’une v.a. parente de
densité f(x;q) de paramètre q Un estimateur de q est une statistique Tn = .. qui prend ses valeurs dans l’ensemble des valeurs possibles de q.

32 Estimation Soit (x1,…,xn) une réalisation de (X1,…,Xn).
T(x1,…,xn) est une estimation de q Exemple : donner une estimation de l’espérance d’une variable X

33 Biais d’un estimateur Biais : E[T] – q soit E[T – q ]
On souhaite évidemment des estimateurs sans biais

34 Efficacité des estimateurs : 1. Cas sans biais
Pour les estimateurs sans biais, la précision de l’estimateur est mesurée par la variance On souhaite que l’estimateur sans biais Soit de variance minimale (voir schéma au tableau)

35 Efficacité des estimateurs sans biais
Soient deux estimateurs T et U sans biais L’efficacité de T comparée à U est : Var(U) Var(T)

36 Efficacité des estimateurs 2. Cas général (biais non nul)
L’efficacité des estimateurs biaisés est mesurée par l’espérance de l’erreur quadratique. En effet, on a : E [(Tn – q)2] = Var [Tn – q] + (E[Tn – q])2 Espérance de l’erreur quadratique = Biais2 + variance

37 Estimateur le plus efficace
Celui qui minimise l’erreur quadratique moyenne

38 Propriété de consistance ( ou convergence)
Finit-on par atteindre la valeur cible quand on dispose d’un échantillon infini ? définition : un estimateur Tn de q est consistant ou convergent si : "e >0, P( | Tn - q | > e ) tend vers 0 quand n tend vers l’infini Propriété : si E[Tn ] converge vers q et Var[Tn ] converge vers 0 alors Tn est consistant. définition : si E[Tn ] converge vers q quand n tend vers l’infini, Tn est dit asymptotiquement sans biais. 38

39 Consistance en moyenne quadratique
Si E [(Tn – q)2] converge vers 0 quand n tend vers l’infini

40 Critères de qualité d’un estimateur
sans biais efficacité, espérance de l’erreur quadratique convergent : quand la taille n de l’échantillon tend vers l’infini, la probabité pour que T(x1,...,xn) diffère de q tend vers 0 40


Télécharger ppt "Rappel de statistiques"

Présentations similaires


Annonces Google