La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

29 - Octobre 2004Université Paris Sud - Soudani K. Modèles statistiques et modélisation de processus stochastiques 1- Modèles statistiques 1.1- Statistiques.

Présentations similaires


Présentation au sujet: "29 - Octobre 2004Université Paris Sud - Soudani K. Modèles statistiques et modélisation de processus stochastiques 1- Modèles statistiques 1.1- Statistiques."— Transcription de la présentation:

1 29 - Octobre 2004Université Paris Sud - Soudani K. Modèles statistiques et modélisation de processus stochastiques 1- Modèles statistiques 1.1- Statistiques corrélationnelles - Modèles de régressions linéaire simple et multiple - Modèles non linéaires - Quelques infos sur les distributions théoriques de probabilités 1.2- Modélisation Black-Box : modélisation par réseaux neuronaux 2- Modélisation des processus stochastiques 2.1- Automates cellulaires 2.2- Chaînes de Markov

2 Introduction aux modèles empiriques Objectif: établir des relations statistiques entre une variable quon souhaite prédire et des variables potentiellement capables dexpliquer cette variable. Souvent, le problème revient à étudier leffet de la variabilité des variables explicatives sur la variabilité de la variable à expliquer (Analyse de variance). On peut diviser les problèmes de prédiction en deux catégories: Régression : prédire la valeur dune variable à partir dune ou plusieurs variables quantitatives continues (ou supposées lêtre). Classification : déterminer à quelle classe une ou plusieurs variables quantitatives peuvent appartenir. Les variables dentée sont quantitatives et la variable de sortie est nominale (classe).

3 Modèle linéaire simple : régression linéaire donnant une équation fonctionnelle de prévision entre deux variables : Y = + x + Où x est la variable indépendante (explicative ou prédictive) et Y est la variable dépendante (réponse ou prédite). est lerreur de prédiction de Y i en X i Principe destimation des constantes (paramètres de léquation de prédiction) par la méthode des moindres carrés: Si n est le nombre dobservations et x i et y i sont les quantités mesurées et si f est le modèle à établir (modèle de prédiction) : y = f(x) Alors la méthode de moindres carrés sapplique à toutes les fonctions f(x) et cherche à déterminer les paramètres de la fonction f en minimisant la somme des carrés des écarts ( i ) entre la variable prédite par le modèle et la valeur mesurée: Analyse de régression

4 Modèle linéaire multiple : régression linéaire donnant une équation fonctionnelle de prévision entre une variable à expliquer et plusieurs variables explicatives : Y = + 1 x x 2 +…+ p x p + Où xi sont les variables indépendantes (explicatives ou prédictives) et Y est la variable dépendante (réponse ou prédite). Exemple : la croissance végétale peut être potentiellement expliquée par la quantité de pluie et le rayonnement. Pour deux variables Pour p variables >2 1. Y = + 1 x x Y = + 1 x x 2 +…+ p x p + Y définit un plan Y définit un hyperplan 1 : est la pente du plan en x 1 i : est la pente selon la dim. x i 2 : est la pente du plan en x 2

5 Modèle multilinéaire Y = X * A + YX A Le modèle comporte deux composantes : - Une composante déterministe (explicable) : A*X - Une composante stochastique (aléatoire): Hyp. 1: E(Y) = A*E(X) en supposant que les erreurs sannulent mutuellement. Hyp. 2: E( ) = 0 Dans lensemble le système est stable mais individuellement, le même x i nimplique pas obligatoirement le même y i. Hyp. 3: Les erreurs suivent la même loi statistique (loi normale). Hyp. 4: Les erreurs ne sont pas autocorrelées. Hyp. 5: Les variables X (1 à p) sont indépendantes.

6 Modélisation de distributions de données expérimentales: Quelques infos sur les fonctions de densité de probabilités Si X est une variable quantitative aléatoire et si n est la taille de léchantillon dobservations x i, la distribution des fréquences donne : Pour X=xi : f(xi) est la fréquence relative. Est la fréquence cumulée X x i Si la variable X est continue, alors la distribution des fréquences correspond à une distribution de probabilités. Pr(X>xi) =F(xi)= f(x) est la fonction de densité de probabilité. F(x) est la fonction de répartition

7 Quelques fonctions théoriques de densité de probabilités La loi normale (loi de Gauss-Laplace) Signification: Une variable X suit une loi normale lorsque plusieurs causes sont à lorigine de sa variation, ayant des effets additifs et quaucune nest prépondérante. μ et σ sont respectivement la moyenne et lécart-type.

8 La loi de Poisson Particularité : la moyenne est égale à la variance La loi de Poisson simulée (lamda = 50, k=1:100 Application en Ecologie : (Ex.) - Mesure de la répartition spatiale dune variable aléatoire. Si : Variance/Moyenne =1 La variable est géographiquement répartie dune manière aléatoire. Variance/Moyenne >>1 La répartition est agrégative Variance/Moyenne <<1 La répartition est regulière

9 Simulation de distributions foliaires dans un volume végétal pour un modèle de lancée de rayons Extrait :Walter J-MN, Fournier R., Soudani K. and Meyer E. (2003) : Integrating clumping effects in forest canopy structure : an assessment through hemispherical photographs. Canadian Journal of Remote Sensing (CJRS)- 29,3,

10 Loi Gamma k > 0 est le paramètre de forme et θ > 0 est le paramètre d échelle. Signification : La durée de vie d'un appareil ou d'un organisme suit sous leffet dun vieillissement une loi Gamma avec k>1.

11 Loi de Weibull Exemples : La distribution des diamètres de tronc dans une parcelle forestière gérée suit une loi de Weibull. La distribution des indices foliaires locaux dans une parcelle forestière suit également une loi de Weibull.

12 Relations entre les variabilités spatiales LAI et NDVI dans des couverts forestiers Conclusions : Pour un indice foliaire moyen de la parcelle correspond une distribution particulière des LAIs locaux. Pour un indice foliaire moyen de la parcelle correspond une distribution particulière des NDVI locaux. Plus lindice foliaire moyen est élevé plus la variance du NDVI intaparcelle diminue. LAI in situ-NDVI LAI-NDVI simulés Davi et al.2004

13 Modélisation Boîte noire par réseaux de neurones Variables dentrée Variable (s) de sortie Modélisation "boîte noire". On ne s'intéresse pas aux mécanismes et aux processus expliquant le lien entre les entrées et les sorties mais seulement à leurs relations au sens statistique.

14 Principe de la modélisation par réseaux de neurones Analogie aux neurones biologiques Principe : chaque neurone reçoit des signaux (impulsions électriques) des autres neurones par lintermédiaire des dendrites. Si le signal dépasse un seuil, le neurone transmet un signal aux autres par lintermédiaire de son axone. Finalement, la tâche dun neurone est simple mais cest lensemble qui fait quon est pas bête Analogie mathématique : un neurone correspond à une entité fonctionnelle recevant des informations, faisant leur somme et émet un signal si la somme dépasse un seuil Chez lhomme : 10 milliards de neurones. Chaque neurone est connecté à environ autres. Extraits:Frédéric Perez

15 inputs Poids attribués aux inputs Somme pondérée Fonction dactivation Output p1 p2 X1 X s Seuil Principe de fonctionnement dun réseau dun seul neurone

16 p1 p2 X1 X s Seuil Différentes fonctions dactivation Pas unitaireSigmoïdeLinéaire à seuilGaussienne Identité Si xi sont les entrées, alors La sortie y est donnée par : f étant la fonction dactivation

17 Principe : 1 - Des entrées : Quantitatives ou non 2 - >> Une couche de neurone : Chaque neurone calcule une somme pondérée des entrées. De cette somme, on soustrait souvent un biais (constante). 3- A la sortie du neurone, le résultat est traité par une fonction dactivation (une sorte de filtre). 4- Le résultat de lapplication de la fonction dactivation est la participation du neurone considéré dans la sortie y. Létape primordiale est la détermination des poids : nécessité dun apprentissage. Principe de fonctionnement dun réseau de plusieurs neurones

18 Automates cellulaires Historique Les automates cellulaires ont été inventés par Stanislaw Ulam ( aussi inventeur de la méthode Monte Carlo) et John von Neumann ( ) à la fin des années 40 Les règles sont : Dans un espace de n cellules : 1. Les cellules peuvent se trouver dans deux états : vivant / mort. 2. Au départ, lespace cellulaire est composé de cellules dans létat mort, sauf pour quelques unes. 3. Lévolution de chaque cellule est déterminée en fonction du nombre de cellules (Nv pour vivantes) vivantes se trouvant autour delle. Les règles sont : Une cellule vivante meurt (devient vide) pour Nv 1 : état disolement de cellule. Une cellule vivante meurt pour Nv 4 : un état de surpeuplement autour de la cellule. Une cellule morte peut devenir vivante pour Nv = 3 : cela correspond à une reproduction « trisexuée ». Jeu de la vie (Game of life)

19 Propriétés des automates cellulaires Voisinage : létat dune cellule dépend des états de ses voisines Parallélisme : les modifications des états de toutes les cellules sont synchrones. Déterminisme et stochasticité Automates déterministes Létat dune cellule est déterminé avec certitude par les états de ses voisines. Automates stochastiques Létat dune cellule est stochastiquement déterminé par les états de ses voisines selon des probabilités de transition. Autrement dit, une même configuration peut donner des situations différentes. Homogénéité: les mêmes règles sappliquent à toutes les cellules Discrétisation:lévolution de lensemble du système se fait selon un pas de temps discret.

20 Quelques domaines dapplication des automates cellulaires : 1.Simulation de la propagation des feux de forêts; 2.Modélisation et simulation de la dynamique des écosystèmes forestiers; 3. Application en Urbanisation; 4. Application en physique (Turbulence dans un fluide); 5. Informatique (Cryptographie),Electronique, etc.

21 Exemple dapplication : diffusion dun feu de forêt Paysage initial (50 * 50 cellules): 1 - Occupation en surface Eau = 5% Feuillues = 25% Pin = 50% Sols nus= 10% Cultures =10% 2- Inflammabilité (Probabilité) Eau : 0 Sol nu : 0 Feuillues : 0.80 Pin : 0.95 Cultures :0.5 Etat possibles: - Occupation - Feu - Cendre

22 Modélisation des processus stochastiques par les chaînes de Markov Un processus est appelé chaîne de Markov lorsque létat dun phénomène aléatoire ou le résultat dune expérience aléatoire peut influencer létat suivant ou le résultat de lexpérience suivante. Soit un système quelconque composés de trois états A, B et C tels que les probabilités de passage dun état à un autre sont les suivantes: Etat A Etat BEtat C P AA P AB P AC Etat B Etat AEtat BEtat C P BA P BB P BC Etat C Etat B P CC P CB Etat B Etat A Etat C P AA P AB P AC P BB P BA P BC P CB P CC

23 Etat B Etat A Etat C P AA P AB P AC P BB P BA P BC P CB P CC Les probabilités (P) correspondent à des probabilités de transition entre états: On a P AA +P AB +P AC = 1, P BB +P BA +P BC =1, P CC +P CB =1 Entre les temps t et t+1, on a: (Etat A) t+1 = P AA *(Etat A) t + P BA *(Etat B) t (Etat B) t+1 = P AB* (Etat A)t + P BB *(Etat B)t + P CB *(Etat C)t (Etat C) t+1 = P Ac *(Etat A)t + P Bc *(Etat B)t P CC* (Etat C)t Autrement :

24 Etat B Etat A Etat C P AA P AB P AC P BB P BA P BC P CB P CC Etats initiaux (temps t) Etats finaux (temps t+1) ABC AP AA P AB PAC BP BC P BB P BC CP CA P CB P CC Les matrices ETAT sécrivent : (ETAT) t+1 = (ETAT) t [T] La matrice [T] est la matrice de transition dont les éléments sont donnés dans le tableau ci-dessus. P = 1

25 Exemple tiré de : Coquillard et Hill- Modélisation et simulation décosystème Etat Initial (t=0) :V 0 Chênes = 20% Vignes = 20% Pelouse = 10% Garrigue = 15% Pinède = 35% Létat à un instant t quelconque est donné par:

26

27 MERCI


Télécharger ppt "29 - Octobre 2004Université Paris Sud - Soudani K. Modèles statistiques et modélisation de processus stochastiques 1- Modèles statistiques 1.1- Statistiques."

Présentations similaires


Annonces Google