Probabilités et Statistiques Année 2009/2010

Slides:



Advertisements
Présentations similaires
Probabilités et statistiques au lycée
Advertisements

STATISTIQUE INFERENTIELLE L ’ESTIMATION
Inférence statistique
Inférence statistique
Échantillonnage-Estimation
4 Les Lois discrètes.
5 La Loi de Laplace Gauss ou loi Normale
Notions de variable aléatoire et de probabilité d’un événement
Moyenne, écart type et incertitude de mesure.
Les tests d’hypothèses
Nouveau programme rentrée 2012.
Programmes du cycle terminal
Fonctionnement de eaoréponses sur un exercice simple Cliquer pour changer de page.
2. Expériences aléatoires et modélisation
Statistiques et Probabilités au lycée
Septième étape : travailler avec des graphes probabilistes
Probabilités et Statistiques
Atelier Probabilités et statistiques
Probabilités et Statistiques
« 90% de nos trains arrivent à lheure! ». énoncé exercice : « Le retard sur un trajet train de 6h15 Marseille-Paris est en moyenne: 10mn avec écart type.
Applications des statistiques
Fonction puissance Montage préparé par : André Ross
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Méthodes Numériques appliquées à la
Probabilités et Statistiques
Calcul Intégral Au XVIIIème siècle, les mathématiciens progressent dans deux domaines séparés : les problèmes des tangentes (et la longueur des arcs) et.
DEA Perception et Traitement de l’Information
Comprendre la variation dans les données: Notions de base
Chapitre 6 Lois de probabilité.
La distribution normale
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Filtrage de Kalman et aperçu probabiliste
Suites Numériques.
Let’s Train ! Cet exercice est un questionnaire à choix multiples constitué de plusieurs questions indépendantes . Pour chacune d’elles, une seule des.
Régression linéaire (STT-2400)
PROBABILITÉS.
Probabilités et Statistiques
Probabilités et Statistiques Année 2009/2010
Probabilités et Statistiques
Probabilités et Statistiques Année 2010/2011
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Probabilités et Statistiques
Micro-intro aux stats.
Probas-Stats 1A novembre 10 1 Probabilités et Statistiques Année 2010/2011
TD4 : « Lois usuelles de statistiques »
STATISTIQUES – PROBABILITÉS
Intervalles de confiance pour des proportions L’inférence statistique
Échantillonnage (STT-2000)
Septembre Semaines du 2 au 13 septembre DATECOURSEXERCICESEXERCICES à fairePOUR le Jeudi 4 Prise de contact Rappels sur les suites 2 exemples donnés pour.
Probabilités (suite).
Probabilités et Statistiques Année 2010/2011
Atelier Probabilités et statistiques
Probabilités et Statistiques
Probabilités et Statistiques Année 2009/2010
Thème: statistiques et probabilités Séquence 6: Probabilités (Partie 1) Capacités : Déterminer la probabilité d’événements dans des situations d’équiprobabilité.
Probabilités et Statistiques
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
Méthode des moindres carrés (1)
Probabilités et Statistiques
Chapitre 4 Variables aléatoires discrètes
Probabilités et Statistiques
Rappel de statistiques
Résolution des équations différentielles
STATISTIQUES.
Probabilités et Statistiques
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
ECHANTILLONAGE ET ESTIMATION
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

Probabilités et Statistiques Année 2009/2010

Cours n°9 Théorème de la limite centrée Monte Carlo

Retour sur l’exercice On veut calculer π par simulation, en remarquant que π/4 = E(g(U)), avec U unif. sur [0,1] et g(x)=(1- x 2 ) 1/2 (arc de cercle…) Estimateur : M n = ( g(U 1 )+…+g(U n ) )/n Que vaut l’erreur quadratique moyenne dans ce cas ? E[ (M n - π/4) 2 ] = var(M n ) = var(g(U))/n Probas-Stats 1A novembre 09 3

Exercice (illustration) Probas-Stats 1A novembre 09 4 y = g(x) y = (g(x)+g(1-x))/2

Questions On effectue 1000 simulations, on obtient  Peut-on donner une idée de l’erreur autour de ?  Combien de simulations faut-il faire en plus pour que le 2 ème chiffre soit bon ? Probas-Stats 1A novembre 09 5

Problématique générale Probas-Stats 1A novembre 09 6 T HEOREME. [Loi des grands nombres]. Soient X 1, …, X n des v.a. i.i.d. telles que E(X i ) existe. Soit μ := E(X 1 ) et M n := (X 1 + … + X n )/n. Alors M n  E(X 1 ) Erreur quadratique moyenne : E((M n - μ) 2 )= var(M n ) = σ 2 / n Q UESTION. Comment se répartit M n autour de la valeur limite μ ?  permettra d’obtenir des intervalles de confiance

Loi d’une somme de v.a. i.i.d ? Probas-Stats 1A novembre 09 7

Loi d’une somme de v.a. i.i.d ? Probas-Stats 1A novembre 09 8

Cas de la loi de Bernoulli planche de Galton Probas-Stats 1A novembre Source :

Planche de Galton : modélisation Probas-Stats 1A novembre X i : déplacement de la boule au i ème étage : +1 si elle part à droite, -1 si elle part à gauche. Convention: X 0 = 0. Hypothèse : les X i sont 2 à 2 indépendantes. Soit S n = X 1 +…+X n Questions 1.Quelle est la loi de X i ? 2.Comment s’interprète S n ? 3.Traduire en termes probabilistes le phénomène observé sur la planche de Galton

Planche de Galton et loi binomiale Probas-Stats 1A novembre Définition : la loi binomiale B(n,p) est la loi de Y 1 +…+Y n lorsque Y 1, …, Y n sont i.i.d. de loi B(p) (de support {0,1}). Questions Interpréter avec le jeu de pile ou face Calcul de la loi : Que vaut P(Y 1 =…=Y k =1 et Y k+1 =…=Y n =0) ? En déduire P(Y 1 +…+Y n = k), pour 0 ≤ k ≤ n. Lien avec la planche de Galton Que dire de la loi B n, 1/2 lorsque n est grand ?

Théorème de la limite centrée Probas-Stats 1A novembre T HEOREME. [de la limite centrée] Soient X 1, …, X n des v.a. i.i.d. On ne précise pas la loi. On suppose seulement que var(X i ) existe. Soit μ := E(X 1 ), σ 2 := Var(X 1 ) et M n := (X 1 + … + X n )/n. Alors pour n grand, M n est approx. de loi N(μ, σ 2 /n) Ou encore : (M n – μ)/(σ/√n) est approx. de loi N(0,1) Formulation rigoureuse [convergence en loi] : Pour tout x, P( (M n – μ)/(σ/√n) < x)  F N(0,1) (x)

Commentaires Probas-Stats 1A novembre Remarquer la généralité des hypothèses sur la loi des X i ! On peut même alléger l’hypothèse d’indépendance … Contre-exemple si var(X i ) n’existe pas. Loi de Cauchy : f(t) = (1/π)×1/(1+t 2 ) Proposition : si les X i sont i.i.d. et de loi de Cauchy, alors pour tout n, M n est de loi de Cauchy.

Démonstration Probas-Stats 1A novembre Historique De Moivre (1733) : cas de la loi B(p) avec p=1/2 Laplace (1812) : cas de la loi B(p), p quelconque Lévy (≈1920) : cas général Grandes lignes (démo de Lévy, voir polycopié page 80) Utilise la transformée de Fourier Φ d’une v.a. (fonction caractéristique) et ses propriétés. Un calcul simple permet de voir que la fonction caract. de (M n – μ)/(σ/√n) tend vers la fonction t -> exp(-t 2 /2) Or t -> exp(-t 2 /2) est la fonction caract. de la loi N(0,1)

Loi normale  La loi N(m, s 2 ) est définie par sa densité Probas-Stats 1A novembre m m+s m-s

Loi normale standard  On peut toujours se ramener à la loi N(0,1) = loi normale standard EXERCICE  Soit X de loi N(0, 1). Quelle est la loi de m+sX ?  Calculer E(X) et var(X)  Que vaut E et var pour une loi N(m, s 2 ) ?  Comment passer d’une v.a. de loi N(m,s 2 ) à une v.a. de loi N(0,1) ? Probas-Stats 1A novembre 09 16

Loi normale standard  Un intervalle à connaître Probas-Stats 1A novembre %

Application : intervalle de confiance Probas-Stats 1A novembre Déduire du TLC que pour n « grand »: P( [M n – 2σ/√n ; M n + 2σ/√n] contient μ) ≈ 95% On admet que le résultat reste vrai en remplaçant σ 2 par un de ses 2 estimateurs (cf. polycopié p. 65): σ X 2 := 1/n × Σ(X i – M n ) 2 ou S X 2 := 1/(n-1) × Σ(X i – M n ) 2 Vocabulaire : pour n assez grand,  [M n – 2S X /√n ; M n + 2S X /√n] est un int. de conf. à 95% de μ

Retour sur l’exemple  Exemple avec n = 1000 simulations Moyenne empirique (M n ) : Ecart-type empirique (σ X ) : Intervalle de confiance : [ ] Probas-Stats 1A novembre 09 19