Analyse statistique des données expérimentales

Slides:



Advertisements
Présentations similaires
Introduction à l’analyse
Advertisements

2-3-4 : Avantages de la médiane.
Probabilités et statistiques au lycée
Incertitudes lors d’un dosage acide base
Les tests d’hypothèses (I)
Inférence statistique
Répondez à ces quelques questions
MESURES ET INSTRUMENTATION
4 Les Lois discrètes.
Autour d’une expérience aléatoire simple:
Notions de variable aléatoire et de probabilité d’un événement
Moyenne, écart type et incertitude de mesure.
Les tests d’hypothèses
Statistiques et probabilités en première
variable aléatoire Discrète
La loi normale et l’estimation de paramètres
L’OUTIL STATISTIQUE.
Fluctuations d’une fréquence selon les échantillons, Probabilités
Le diaphragme (photographie)
Eléments de Statistiques
Introduction au calcul derreur KEITA HILL, Automne 2012 PHYSQ 130 | Campus Saint-Jean, Université dAlberta.
Cours de physique générale I Ph 11
Applications des statistiques
L’inférence statistique
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Probabilités et Statistiques
Régression linéaire simple
Tableaux de distributions
DEA Perception et Traitement de l’Information
Tableaux de distributions
Comprendre la variation dans les données: Notions de base
TECHNIQUES QUANTITATIVES APPLIQUEES A LA FINANCE
Chapitre 6 Lois de probabilité.
Les probabilités.
Calculs et écritures fractionnaires
La distribution normale
La statistique descriptive
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Corrélation Principe fondamental d’une analyse de corrélation
Dépannage du 12 mars 2007.
Théorie… Inférence statistique: étude du comportement d’une population ou d’un caractère X des membres d’une population à partir d’un échantillon aléatoire.
Analyse statistique des données expérimentales
Les familles de fonctions
Résoudre une équation du 1er degré à une inconnue
Écart moyen et écart type
Les intervalles de confiance pour la moyenne d’une population
ASI 3 Méthodes numériques pour l’ingénieur
Mise en forme en Mathématiques
1 - Programme de Seconde (juin 2009) Statistique et probabilités
Méthodes de Biostatistique
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Rappels de statistiques descriptives
Précision d'une mesure et chiffres significatifs
Théorème de la limite centrale l’inférence statistique
Probabilités et Statistiques Année 2009/2010
TD4 : « Lois usuelles de statistiques »
STATISTIQUES – PROBABILITÉS
Probabilités (suite).
Chapitre 3: Variables aléatoires réelles continues
Introduction.
Principales distributions théoriques
L’erreur standard et les principes fondamentaux du test de t
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Le Distribution Normale

Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
ECHANTILLONAGE ET ESTIMATION
Analyse statistique des données expérimentales
Transcription de la présentation:

Analyse statistique des données expérimentales Incertitudes et analyse des erreurs dans les mesures physiques John Taylor

Plan Introduction : incertitudes sur les données Probabilités Distributions de probabilités Incertitudes, propagation des incertitudes Ajustement de courbes

Mesure et incertitude Toutes les quantités mesurées le sont à une précision finie La science de la mesure consiste à mesurer à la meilleure précision possible d’évaluer l’incertitude sur la mesure

Erreur vs incertitude Erreur : écart entre la mesure et la valeur vraie (en général inconnue) Incertitude : écart probable Les barres d’incertitude contiennent probablement la valeur vraie Attention de ne pas sous-évaluer l’incertitude Mieux vaut une mesure présentant une grande incertitude mais qui contienne la valeur vraie que l’inverse

Mesure et incertitude Chiffres significatifs et mesure Quelle est la signification de : Albert a 22 ans J’ai parcouru 100 kilomètres à vélo Le LEP mesure 26,66 km de circonférence Ce pointeur laser éclaire à 50 m This laser pointer shines to 54,68 yards

Mesure et incertitude Quelle est la signification de: G = (6,67428 ± 0,00067) × 10-11 m3 kg-1s-2 me = (9,10938215 × 10-31 kg) ± 50 ppb www.physics.nist.gov/constants

Chiffres significatifs a = 7,35678 ± 0,345 (utilisation incorrecte) a = 7,3 ± 0,3 a = 7,356 ± 0,04 a = 7,3568 ± 0,005 a = 7,35678 ± 0,0007 On arrondit l’incertitude à 1 chiffre significatif On arrondit la valeur au dernier chiffre significatif

Chiffres significatifs (exemple) Soit a = 3 m et b = 7 m a/b = 0,428571 ... ? a/b = 0,4

Incertitude Erreur de mesure Erreur systématique Incertitude aléatoire Incertitude sur une quantité dérivée Propagation des incertitudes Distribution de probabilité

Erreur de mesure Mesure de distance avec une règle graduée en millimètres: La précision ~ ½ mm Mesure de tension avec un multimètre: La précision dépend de l’appareil L’appareil est très précis mais la tension varie

Erreur systématique Vous avez mesuré une longueur à ± ½ mm Mais la règle est fausse de 10% ! Vous avez mesuré une tension à 0,01% Mais l’appareil est décalibré de 5% Vous avez fait une mesure avec grand soin Mais un des appareils était débranché

Incertitude aléatoire (statistique) Vous répétez une mesure 100 fois Les résultats se ressemblent mais ...

Incertitude L’ensemble des valeurs possibles sont décrites par une distribution de probabilité L’incertitude représente un intervalle à l’intérieur duquel la vraie valeur se trouve probablement L’incertitude = 1 déviation standard

Incertitude Quelle est la signification de: G = (6,67428 ± 0,00067) × 10-11 m3 kg-1s-2 me = (9,10938215 × 10-31 kg) ± 50 ppb L’incertitude = une déviation standard La probabilité que la vraie valeur soit dans cet intervalle est de 68%

Exemple de mesures Fréquence d’un pendule (~ 1 s) Chronomètre très précis (~ 1s par an) À quelle précision puis-je mesurer la période ? quelques dixièmes de seconde L’histogramme présente une fluctuation Je peux moyenner sur plusieurs périodes

Exemple de mesures Fréquence de ma respiration Même précision de mesure que précédemment L’histogramme est plus large Le phénomène présente plus de variabilité que la précision de la mesure Je peux moyenner

Est-ce la meilleure façon de mesurer la période ?

Non Je compte 100 périodes ~ 100 s ± 0,2 s Plus facile et plus précis qu’avec plusieurs mesures 100 mesures de ~2 s à ± 0,2 s donnent

Incertitude relative ou fractionnaire G = (6,67428 ± 0,00067) × 10-11 m3 kg-1s-2 G = 6,67428 × 10-11 m3 kg-1s-2 dG = 0,00067 × 10-11 m3 kg-1s-2 dG/G = 0,00067/ 6,67428 = 10-4 = 0,01 % me = (9,10938215 × 10-31 kg) ± 50 ppb d me / me = 5 × 10-8 d me = 4,6 × 10-38 kg

Propagation des incertitudes Additions et soustractions a = 9 ± 3 a entre 6 et 12 b = 7 ± 2 b entre 5 et 9 s = a + b = 16 ± 5 car s entre 11 et 21 d = a - b = 2 ± 5 car d entre -3 et 7

Propagation des incertitudes Produits et quotients a = 29 ± 3 a entre 26 et 32 b = 37 ± 2 b entre 35 et 39 ab = 1073 et est entre 910 et 1248

Propagation d’incertitudes pour une somme Soit 2 mesures x ± dx et y ± dy z = x + y dz = dx + dy (provisoire) La règle est provisoire car on exagère un peu x ± dx contient ~68% y ± dy contient ~68% z ± dz contient ~90%, ce qui surévalue dz

Propagation d’incertitudes pour un produit b = 37 ± 2 z = ab = 1073 ± 169

Propagation d’incertitudes pour un quotient z=a/b On trouve le même résultat : (règle provisoire)

Ajouter ou soustraire un nombre exact ne change pas l’incertitude absolue Multiplier ou diviser par un nombre exact ne change pas l’incertitude relative 4 x (7,3 ± 0,2) = 29,2 ± 0,8

Puissance et on additionne les incertitudes relatives a une incertitude 4 fois celle de a ça ressemble à une dérivée

Règle générale (ou presque)

Incertitudes indépendantes z = x + y dz = dx + dy surestime l’incertitude sur z si les dx et dy sont indépendants l’erreur sur x a autant de chance d’être + ou - l’erreur sur y a autant de chance d’être + ou -

Propagation d’incertitudes

Incertitudes indépendantes x et y sont des variables indépendantes Et dx et dy sont des erreurs indépendantes Leurs effets s’additionnent quadratiquement

Incertitudes indépendantes pour des incertitudes indépendantes

Propagation d’erreurs (sans corrélations) Fin #3 29 janvier 2003

Probabilités et Statistiques

Probabilité Probabilité qu’un événement X se produise Où N = nombre d’essais

Probabilité On lance un dé 6 résultats possibles Chaque résultat a un pi = 1/6 Normalisation

Complément p = la probabilité que X se produise 1 - p = la probabilité que X ne se produise pas q = 1 - p est le complément de p

Calcul de la probabilité 1) Calculez le nombre total de combinaisons N, supposées équiprobables 2) Calculez le nombre de ces combinaisons qui représentent un succès S 3) p = S/N

Calcul de probabilité Probabilité de tirer 3 avec 1 dé 1) N = 6 possibilités 2) S = 1 seule bonne combinaison 3) p = 1/6

Calcul de probabilité Probabilité de tirer une somme de 4 avec 2 dés 1) N = 6 x 6 = 36 possibilités 2) S = 3 (1,3) (2,2) (3,1) 3) p = 3/36 = 1/12

Calcul de probabilité Probabilité de tirer une somme de 7 avec 2 dés 2) S = 6 (énumérez les) 3) p = 6/36 = 1/6

Distribution de probabilité Indique la probabilité de succès pour chaque type d’événement Se présente sous forme graphique

Distribution pour 1 dé

Somme de 2 dés Fin #1 le 1er février 2002

Distributions Propriétés des distributions Moyenne, mode, médiane Valeur attendue Moments Distributions de probabilité particulières Binôme, Gauss, Poisson, ...

2 types de distributions Distributions discrètes Distributions continues

Distributions discrètes (comme on a déjà vu) P(xi) > 0 pour des xi discrets P(xi) = 0 partout ailleurs

Somme de 2 dés

Distributions continues Le nombre de résultats permis est  Chaque résultat a une probabilité = 0 On définit la densité de probabilité f(x) dx = probabilité de trouver le résultat entre x et x + dx Normalisation:

Distribution continue

Mode Valeur la plus probable = 7 pour la somme de 2 dés Non défini pour un dé Non défini pour pile ou face

Médiane Point qui sépare la distribution en 2 moitiés égales = 7 pour la somme de 2 dés = 3,5 pour un dé (ou toute valeur entre 3 et 4)

Moyenne Ou valeur attendue Discrète : Continue :

Pour une distribution symétrique Moyenne = Mode = Médiane

Valeur estimée Moyenne = La moyenne de x est la valeur estimée de x est la valeur attendue (ou estimée) de x Notée La moyenne de x est la valeur estimée de x La valeur attendue de toute fonction f(x) est Fin #1 22 janvier 2003

Normalisation La normalisation représente la valeur attendue de 1 qui est bien sûr égale à 1

Propriétés de la valeur attendue

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans la bonne enveloppe? Xi= 0 ou 1 selon que la lettre i est dans la bonne enveloppe ou non

Ex: N lettres au hasard dans N enveloppes Combien y a-t-il de lettres dans la bonne enveloppe? Xi= 0 ou 1 selon que la lettre i est dans la bonne enveloppe ou non Quel que soit N, il y a en moyenne 1 lettre dans la bonne enveloppe

Moments Différentes distributions peuvent avoir la même moyenne mais être différentes

Moments On peut représenter une distribution par l’ensemble de ses moments Normalisation Moyenne ...

Moments centrés ... On soustrait la moyenne pour recentrer Normalisation Moyenne recentrée = 0 Variance = s ...

Écart-type Représente la largeur de la distribution s = Écart quadratique moyen = Déviation moyenne

Mesure et incertitude Je mesure une quantité 5 fois x = 17, 16, 18, 17, 18 Quelle est la valeur probable de x et son incertitude ?

Probabilité de N événements Obtenir 25 piles en 35 lancers Obtenir 30 fois 6 en 100 lancers Que 10 noyaux de radium se désintègrent en 5 minutes Que la bactérie se divise 20 fois en 1 heure Que 8 de vos 10 mesures soient dans un certain intervalle

Distribution binômiale On lance un dé 100 fois La valeur attendue du nombre de 6 est ~17 Quelle est la probabilité de tirer r fois 6 ?

Toutes les séries (a1, a2,..., a100) sont équiprobables La probabilité de 6 à chaque case est p = 1/6 Chaque combinaison de r succès et n- r échecs a une probabilité Il y a combinaisons de r succès Probabilité pour r succès et n- r échecs =

Désintégration radioactive 1 g de radium = 2,7*1021 atomes = 1 Ci = 1,7*1010 désintégrations/s Demi-vie = 5,26 *108 min ~ 1000 ans Probabilité qu’un atome donné se désintègre dans les 5 minutes est faible p ~ 10-8 µ = np = 5*1012 désintégrations en 5 minutes

Probabilité de r désintégrations = Mais n! est impossible à calculer n est très grand p est très petit np = µ est fini On remplace p par µ/n

Pour la première relation, on note que pour µ=0, ça fonctionne et que par la suite, les deux expressions ont la même dérivée df/dµ.

Distribution de Poisson

n = 10, p = 0,5 µ = 5 n = 100, p = 0,05 µ = 5

Propriétés de la distribution de Poisson Normalisation Écart-type

Rayons cosmiques 180 rayons cosmiques / (m2 min) Combien en passe-t-il en 10 secondes ? µ = 180*10/60 = 30 On peut prédire qu’il passera rayons cosmiques en 10 secondes

Fin #2 6 février 2002

Distributions de Poisson Nombre de fautes de frappe dans une page Nombre d’individus vivant plus de 100 ans Nombre de a émis par une source Nombre d’incendies à Montréal par semaine Nombre de gens tirant le numéro gagnant

Additivité x obéit à y obéit à Alors, z = x + y obéit à

Additivité x obéit à y obéit à Alors, z = x + y obéit à

Distribution gaussienne La distribution de Poisson est asymétrique Mais devient plus symétrique pour µ grand Pour µ>30, la distribution est symétrique Fin #2 23 janvier 2003

Fin #2 6 février 2002

Distribution gaussienne Abraham de Moivre 1733 Distribution continue de à Maximum en x = µ Forme en cloche D’application très générale Théorème de la limite centrale Approximation de pour µ grand

Distribution gaussienne Taille des individus QI Incertitudes Vitesse des molécules

Distribution gaussienne 2 paramètres : µ et s Symétrique autour de µ

Additivité x obéit à y obéit à Alors, z = x + y obéit à

Distribution normale Distribution gaussienne µ = 0 s = 1 Fonction tabulée Fonction standard

Distribution normale

Largeur à mi-hauteur

Distribution gaussienne

Fonction erreur erf(x)

Fonction erreur

Théorème de la limite centrale Sans démonstration Indique pourquoi tant de phénomènes obéissent à une distribution gaussienne

Théorème de la limite centrale Soit xi i = 1, ..., n n variables indépendantes Les xi obéissent à des distributions caractérisées par des µi et des si Alors, est distribuée selon une gaussienne avec

Lorentz Pas de lien avec les autres distributions Phénomènes de résonance Circuits RLC

Lorentz s est infini On utilise G

Lorentz