Rappel de statistiques

Slides:



Advertisements
Présentations similaires
Chapitre I : Rappels Chapitre II: Eléments d’échantillonnage (Tassi, Chap. 2, Kauffmann, Chap. 5 et 6) Chapitre III: L’information au sens de Fisher (Kauffmann,
Advertisements

Probabilités et statistiques au lycée
GESTION DE PORTEFEUILLE 3 Catherine Bruneau
GESTION DE PORTEFEUILLE 3bis Catherine Bruneau RISQUE & PROBABILITE.
STATISTIQUE INFERENTIELLE L ’ESTIMATION
TESTS RELATIFS AUX CARACTERES QUANTITATIFS
Inférence statistique
Inférence statistique
Variable aléatoire, estimation ponctuelle et par intervalle
Les TESTS STATISTIQUES
Les TESTS STATISTIQUES
Échantillonnage-Estimation
4 Les Lois discrètes.
5 La Loi de Laplace Gauss ou loi Normale
Notions de variable aléatoire et de probabilité d’un événement
Corrélations et ajustements linéaires.
Moyenne, écart type et incertitude de mesure.
Les tests d’hypothèses
Maria-João Rendas CNRS – I3S Novembre 2006
Cours analyse spectrale Part I
variable aléatoire Discrète
Fluctuations d’une fréquence selon les échantillons, Probabilités
Programmes du cycle terminal
2. Expériences aléatoires et modélisation
Statistiques et Probabilités au lycée
La segmentation
DEA Perception et Traitement de l’Information
Conception et analyse des algorithmes Les algorithmes probabilistes
Algorithmes probabilistes
Régression linéaire (STT-2400)
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Régression linéaire (STT-2400)
LES LOIS BINOMIALES.
Probabilités et Statistiques
Probabilités et Statistiques Année 2010/2011
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Outils mathématiques pour le datamining
Probabilités et Statistiques
Probabilités et Statistiques Année 2009/2010
STATISTIQUES DESCRIPTIVES
Micro-intro aux stats.
Probas-Stats 1A novembre 10 1 Probabilités et Statistiques Année 2010/2011
STATISTIQUES – PROBABILITÉS
Intervalles de confiance pour des proportions L’inférence statistique
Fabienne BUSSAC PROBABILITÉS 1. VOCABULAIRE
Probabilités (suite).
Probabilités.
Chapitre 3: Variables aléatoires réelles continues
TNS et Analyse Spectrale
Probabilités et Statistiques
LOIS DE PROBABILITE Variables aléatoires Lois discrètes Lois continues
Probabilités et Statistiques Année 2009/2010
Probabilités et Statistiques
Concepts fondamentaux: statistiques et distributions
Méthode des moindres carrés (1)
Rappels sur les fonctions et les suites aléatoires
Analyse de données Cours 3 Analyse en composantes principales (ACP)
Probabilités et Statistiques
Chapitre 4 Variables aléatoires discrètes
Probabilités et Statistiques
Résolution des équations différentielles

Remise à niveau en statistique Eric Marcon – Module FTH 2006.
Probabilités et Statistiques
LOI NORMALE LOI STUDENT ECHANTILLONS ET TESTS DE MOYENNE
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
ECHANTILLONAGE ET ESTIMATION
Probabilités et statistiques. SOMMAIRE CER ENSAM D'ANGERS  Notion de probabilité  Cas d’un espace fini  Cas d’un espace infini non dénombrable  Variable.
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

Rappel de statistiques F. d’Alché-Buc Email: florence.dalche@ibisc.fr

I Rappels de probabilistés 1. Modèle probabiliste Expérience aléatoire évènement 2. Théorie des probabilités 3. Variables aléatoires Exemples Définitions Variables continues Moments Suite de variables aléatoires Loi des grands nombres Théorème central-limite

Outils probabilistes (suite) Simulation de lois IV. Couple de variables aléatoires Lois jointes, marginales, conditionnelles V. Vecteurs aléatoires Définitions Espérance et matrice de variance-covariance La loi multinormale Formes quadratiques

Modélisation probabiliste Expérience aléatoire : expérience dont on ne peut prévoir à l’avance le résultat et qui, répétée dans des conditions identiques peut donner ou aurait donné lieu à des résultats différents [Saporta ] Résultat d’une expérience aléatoire : élément de l’ensemble de tous les résultats possibles W (univers des possibles) Exemple d’expérience aléatoire: Réception d’un message électronique Visualisation d’une image acquise par rayons X Mesure des conditions d’utilisation d’un appareil portable au temps t

Définitions Evénement : assertion relative au résultat de l’expérience. Un événement est réalisé si l’assertion est vraie après l’accomplissement de l’expérience. On identifie un événement à la partie de W pour laquelle l’événement est réalisé : Événement = sous-ensemble C de W Evénement élémentaire : partie de réduite à un seul élément. Loi de probabilité : régit l’issue d’une expérience aléatoire

Exemple: expérience = 1 lancer de deux dés Evénement : somme des faces des 2 dés > 10 soit l’ensemble A = {(5,6), (6,5), (6,6)} Quelle est la probabilité pour que cet événement se réalise ?

Définition de la loi P qui régit l’issue de l’expérience Probabilités des événements élémentaires =1/6 Probabilité de l’événement E : P(E) = P({(5,6), (6,5), (6,6)})= 3/36 = 1/12

Rappels. Théorie des probabilités Définition : Soit A la tribu des parties de W . On appelle probabilité sur (W,A) ou loi de probabilité une application P de A dans [0,1] telle que : [Axiomatique de Kolmogorov] P(W) = 1 P( U Ai) = S P(Ai) pour tout sous ens. dénombrable, disjoint, Ai

Tribu A Classe des parties de W vérifiant : _ . " A Î A, A Î A . " A1,...,An Î A, Ai dénombrable ou finie, U Ai Î A . W Î A. 9

Propriétés d’une loi de probabilité P(A) = 1 - P(A) P(A) £ P(B) si A ÌB P(A È B) = P(A) + P(B) - P(A Ç B) 10

Probabilité conditionnelle et indépendance Loi de probabilité conditionnelle Soit B un événement de probabilité non nulle. P(A| B) = P(AÇB)/P(B) Indépendance de deux événements Définition : A est indépendant de B si P(A|B) = P(A) Propriété : P(AÇB) = P(A).P(B) ssi A et B sont indépendants

Formule de Bayes P(A|B).P(B) P(B|A) = P(A)

2. Variables aléatoires variable aléatoire : «grandeur» variant selon le résultat d’une expérience aléatoire . somme des faces de deux dés (discrète) . distance entre le point d’impact d’une flèche et la cible (continue) . [ kilométrage parcouru retard du bus] (vecteur aléatoire de dimension 2)

Variable aléatoire : exemple de la somme des faces de deux dés Une v.a X associe aux évènements possibles une valeur dans IR X(w) = i+j X w = (i,j) j i

point d’impact d’une fléchette sur une cible Exemple point d’impact d’une fléchette sur une cible IR+ d2 = x2 +y2 w = [x y] : ensemble des événements élémentaire : ici, points d’impact de fléchettes sur une cible

B = [0, 9] IR+ d2 = x2 +y2 X-1(B) w = [x y] X-1(B) est noté (X Î B) Soit P définie sur (W, A) On s’intéresse à P(X Î B)

Définition d’une variable aléatoire réelle une variable aléatoire réelle est une application mesurable de (W, A,P) dans (IR,B(IR)) telle que : Pour tout B appartenant à B(IR) , X-1(B) = {w Î W | X(w) Î B } Î A l’ensemble est noté (X ÎB) X-1(B)

v.a. discrète ou continue X(W) fini ou dénombrable : v.a. discrète X(W) non dénombrable : v.a. réelle Au tableau : distribution, densités,…

Loi gaussienne (normale)

Variable gaussienne (loi gaussienne) 1 exp ( -(x-m)2 ) p(x) = s Ö 2p 2 s2 espérance E[X] = m varianceV[X] = s2 Les paramètres de la v.a. gaussienne sont exactement son espérance et sa variance

Variable gaussienne Exemple : La loi gaussienne s’appelle aussi la loi normale c’est la v.a. qui généralise à l’incertain une valeur certaine Exemple : L’heure du cours est fixée à 9h30 ( modélisation sans incertitude) L’heure du cours est une v.a. gaussienne Centrée en 9h30 et de variance 3 minutes ( modélisation avec incertitude)

Valeurs remarquables de la loi normale P(m -1.64 s < X < m + 1.64 s) = 0.90 P(m -1.96 s < X < m + 1.96 s) = 0.95 P(m -3.09 s < X < m + 3.09 s) = 0.99

Suites de variables aléatoires Convergence presque sûre : P(lim Xn = X ) = 1 n Convergence en probabilité : lim P[ | Xn – X | > e ] = 0 Convergence en moyenne quadratique : Lim E[ (Xn –X)2] = 0 Convergence en distribution ou en loi : Lim FXn(t) = FX(t)

La loi des grands nombres Soit X définie comme la moyenne de n variables indépendantes (X1,…Xn) de même espérance m et de même variance s2. Alors quand n tend vers l’infini, cette v.a. converge en espérance vers m. lim E[X] = m n ¥

Théorème de la limite centrée dit théorème central-limite Supposons maintenant les variables seulement i.i.d Alors la variable Ön(X - E[Xi] )converge en probabilité (sa distribution converge) vers une loi normale avec espérance 0 et variance Var[Xi]. Quand on moyenne à l’infini, on aboutit à une gaussienne

Simulation de lois Loi normale >> méthode de simulation . la somme de n variables uniforme est approximativement une loi normale (central-limite) d’espérance n/2 et de variance n/12 (loi uniforme d ‘espérance 1/2 et de variance 1/12) >> méthode de simulation

Simulation d’une loi gaussienne il faut n supérieur ou égal à 12 n = 12 pour obtenir une réalisation de N(6,1) ajouter 12 nombres tirés aléatoirement entre 0 et 1. Cas général N(m,s) x1, ... x12 tirés x = m + s . (S xi - 6)

Simulation d’une loi de densité f par la méthode du rejet f finie à support bornée on suppose X compris entre 0 et 1 Soit m un majorant de f(x). On tire un nombre u uniformément entre 0 et 1 et ensuite v uniformément entre 0 et m. Si v < f(u), on conserve u qui est une réalisation de X sinon on rejette u et on recommence.

II. Introduction à l’inférence statistique Estimation de paramètres 1. Définition 2. Notions d’échantillon, d’estimateur ponctuel 3. Qualités souhaitables d’un estimateur ponctuel 4. Estimation par intervalle de confiance 29

Statistique Une statistique T est une variable aléatoire, fonction mesurable de (X1,…,Xn). Echantillon de taille n N réalisations d’une loi P, identiquement, indépendamment distribuées

Estimateur Soit (X1,…,Xn) un n-échantillon issu d’une v.a. parente de densité f(x;q) de paramètre q Un estimateur de q est une statistique Tn = .. qui prend ses valeurs dans l’ensemble des valeurs possibles de q.

Estimation Soit (x1,…,xn) une réalisation de (X1,…,Xn). T(x1,…,xn) est une estimation de q Exemple : donner une estimation de l’espérance d’une variable X

Biais d’un estimateur Biais : E[T] – q soit E[T – q ] On souhaite évidemment des estimateurs sans biais

Efficacité des estimateurs : 1. Cas sans biais Pour les estimateurs sans biais, la précision de l’estimateur est mesurée par la variance On souhaite que l’estimateur sans biais Soit de variance minimale (voir schéma au tableau)

Efficacité des estimateurs sans biais Soient deux estimateurs T et U sans biais L’efficacité de T comparée à U est : Var(U) Var(T)

Efficacité des estimateurs 2. Cas général (biais non nul) L’efficacité des estimateurs biaisés est mesurée par l’espérance de l’erreur quadratique. En effet, on a : E [(Tn – q)2] = Var [Tn – q] + (E[Tn – q])2 Espérance de l’erreur quadratique = Biais2 + variance

Estimateur le plus efficace Celui qui minimise l’erreur quadratique moyenne

Propriété de consistance ( ou convergence) Finit-on par atteindre la valeur cible quand on dispose d’un échantillon infini ? définition : un estimateur Tn de q est consistant ou convergent si : "e >0, P( | Tn - q | > e ) tend vers 0 quand n tend vers l’infini Propriété : si E[Tn ] converge vers q et Var[Tn ] converge vers 0 alors Tn est consistant. définition : si E[Tn ] converge vers q quand n tend vers l’infini, Tn est dit asymptotiquement sans biais. 38

Consistance en moyenne quadratique Si E [(Tn – q)2] converge vers 0 quand n tend vers l’infini

Critères de qualité d’un estimateur sans biais efficacité, espérance de l’erreur quadratique convergent : quand la taille n de l’échantillon tend vers l’infini, la probabité pour que T(x1,...,xn) diffère de q tend vers 0 40