Module 3 : Concepts de base des SPE

Slides:



Advertisements
Présentations similaires
Non linéarités liées à la thermique
Advertisements

Module 4.9 Etablir un sytème de surveillance pour chaque point contrôle pour la maîtrise (CCP) (Etape 9 / Principe 4)
Stage effectué au CERFACS, sous la direction de Laurent Terray
Initialisation du modèle ORCA à laide danalyses MERCATOR : application des outils de lassimilation variationnelle. des outils de lassimilation variationnelle.
Modélisation de l’hydrodynamique du plateau atlantique
SMOS : une mission vitale > Tour d’horizon scientifique
Observations visuelles
Sylvain Mondon Météo-France
Perturbations tropicales
MODÈLE DE BILAN D’ÉNERGIE TERRESTRE
Modélisation du climat : les équations primitives maltraitées
Couche limite atmosphérique
Télédétection des Océans : quels défis pour le futur ?
ECHANGES D’ENERGIE Caractéristiques du rayonnement Bilan radiatif
Comprendre notre climat maritime
Prévisions météorologiques, projections climatiques : que peut- on prévoir et avec quelle fiabilité ? Exercice 2: estimation de la prévisibilité dans le.
Projet DEPHY ( ) Laboratoires : IPSL, LSCE, LGGE, LA, LOCEAN, LATMOS, LMD, CNRM-GAME, CEA, SISYPHE Le projet DEPHY visait à regrouper et coordonner.
Évaluation des nuages et de leur interaction avec le rayonnement dans le modèle GEM Par Danahé Paquin-Ricard Directeur: Colin Jones Codirecteur: Paul Vaillancourt.
Directeurs de recherche: Eric Girard et Colin Jones Étudiant: Dragan Simjanovski Évaluation des processus radiatifs et des nuages par le modèle GEM-LAM.
Pour faire des prévisions, on a besoin de modèles…
Simulations 2D méridien-vertical sur l’Afrique de l’Ouest P
4 ème Réunion des utilisateurs de Méso-NH – 23 et 24 avril 2007 Influence des conditions initiales sur un événement de précipitations intenses Sébastien.
J’espère qu’il vise bien… Arrière les nuages se cache Cupidon.
Méthodes d’assimilation: Le problème du point de vue de la mesure (P. Prunet, Noveltis) Assimilation de données en zones cotières (P. De Mey, LEGOS/POC)
Couche limite atmosphérique
Simulations LES du cycle diurne des nuages stratocumulus avec Méso-NH Méso-NH in configuration LES Schema microphysique bulk pour les Sc (Khairoutdinov.
Galileo ? Bien plus qu’un système de navigation ! R. Warnant Professeur Université de Liège Géodésie et positionnement par satellites Chef de section ff.
Comprendre notre climat maritime
UQÀM Sciences de l'Atmosphère Le modèle 1D COBEL.
Couche limite et micrométéorologie
La stabilité verticale
Étude de l’écoulement moyen
Couche limite atmosphérique Conditions frontières.
Objectifs Comprendre les processus thermodynamiques amenant à
Couche limite atmosphérique
Couche limite atmosphérique Conditions frontières.
Couche limite atmosphérique
II.3) Principes de bases d'un modèle de circulation générale de l'atmosphère Un Modèle de Circulation Générale de l'Atmosphère calcule l'évolution temporelle.
Couche limite atmosphérique Micro météorologie. SCA7025 Professeure: Eva Monteiro Bureau: PK-2345 Téléphone: 6807 courriel:
Étude de la variabilité interne du Modèle Régional Canadien de Climat à l'échelle saisonnière Adelina ALEXANDRU Ramon de ELIA René LAPRISE UQÀM Université.
L’ATMOSPHERE Définition Composition air sec et vapeur aérosols
La stabilité verticale
Les dépressions polaires Par Danahé Paquin-Ricard Image du satellite NOAA-9 d’une dépression polaire au-dessus de la mer de Barent le 27 février 1987.
Couche limite atmosphérique
Couche limite atmosphérique
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
Homogénéité statistique horizontale
Couche limite et micrométéorologie Le problème de fermeture Fermeture d’ordre 0 : Couche neutre Couche convective Couche nocturne stable.
Couche limite atmosphérique
Couche limite atmosphérique Micrométéorologie. Limitations des théories K Ces fermetures sont extrêmement dépendants du type de turbulence. Les valeurs.
Méthode des moindres carrés (1)
Formation sur les SPE Module 1 : Introduction Richard Verret (Normand Gagnon) Service météorologique du Canada L'illusion du déterminisme...
Approximation des équations de la magnéto-hydrodynamique
Circulation de grande échelle Circulation de petite échelle
Conditions frontières
Couche limite atmosphérique
Couche limite atmosphérique
Couche limite atmosphérique et micrométéorologie
Cours d’aujourd’hui Échelles météorologiques
Soline Bielli, René Laprise
Comparaison multi-échelle des précipitations du modèle Méso-NH et des données radar Colloque CNFSH – Ecole des Ponts ParisTech – 11/12 juin 2009 A., Gires.
Couche limite atmosphérique Conditions frontières.
Modélisation Atmosphérique M2-PCE. Processus atmosphériques proc. dynamiques vent 3D, pression et densité de l’air, turbulence proc. thermodynamiques.
Modélisation du signal de télédétection
Application des équations primitives à l’écoulement turbulent
Couche limite atmosphérique Micrométéorologie. Équations de Reynolds 7 équations et 16 inconnues...
Couche limite atmosphérique Micrométéorologie. Exemples de paramétrisations de K Contraintes: K=0 quand il n ’y a pas de turbulence K=0 au sol (z=0) K.
Couche limite atmosphérique et micrométéorologie Hiv 2008 : 08/01 à 24/04 Semaine de relâche : 25/02-03/03.
Les indices du commerce extérieur (ICE) méthodologie et réforme.
Conversion des luminances en températures dans le cas des images du rayonnement émis par les objets.
Transcription de la présentation:

Module 3 : Concepts de base des SPE Formation sur les SPE Module 3 : Concepts de base des SPE Page titre L'incertitude dans la prévision… Richard Verret (Olivier Fortin) Service météorologique du Canada

Module 3 – Concepts de base des SPE Principes des prévisions numériques du temps (PNT) : Concepts de base. Assimilation des données. Modélisation PNT. Modèle global GEM. Modèle régional GEM. Modèle à échelle méso GEM. Sources d'erreur dans la PNT : Conditions initiales. Erreurs de modélisation. Conditions frontières. Dépendance sur les conditions initiales – chaos. Concepts de base des SPE. SPE et prévisions probabilistes : Relation dispersion-habileté. Probabilités : Comptage de membres. Calibration. Regroupement. Fonction de densité de probabilité. Valeur des SPE. Conclusions. Le plan du module 3 est présenté aux participants. Dans ce module, les participants verront les concepts de base en modélisation de la prévision numérique du temps (PNT). Les participants comprendront qu’il y a des sources d’erreur et d’incertitude à chaque étape du processus de modélisation de modélisation de la prévision numérique du temps. L'incertitude dans la prévision…

Principes de la PNT Modélisation numérique : Appliquer les lois fondamentales de la science pour exprimer sous forme mathématique les relations physiques appropriées. Résoudre les équations mathématiques (impliquant des dérivées temporelles) pour décrire et comprendre le comportement des systèmes météorologiques. Équations de la dynamique des fluides décrivant le comportement des fluides dans l'espace et dans le temps. La complexité des équations nécessite d'appliquer des approximations. L’impossibilité de solutions analytiques, demande l'application d'approximations numériques permettant de simplifier le jeu d'équations. Les approximations numériques fournissent des systèmes d'équations algébriques que l'informatique permet de résoudre. Méthodes requises pour résoudre les problèmes liés aux valeurs initiales ou limites : État initial comme point de départ de l'évolution de l'atmosphère. Conditions frontières permettant de fermer le problème dans l'espace. Techniques numériques pour résoudre les équations dans l'espace et dans le temps. De façon très générale, la science se définit comme l'étude des relations. Un certain nombre d'approches permettent de diagnostiquer, d'exprimer, de comprendre et d'appliquer ces relations. La stratégie de base en modélisation numérique consiste à appliquer les lois fondamentales de la science, afin d'exprimer les relations physiques appropriées au moyen du langage de la science : les mathématiques. Par la suite, on tente de résoudre les équations mathématiques qui en résultent, dans le but de décrire et de comprendre le comportement du système étudié. En général, les équations mathématiques ainsi posées sont trop complexes pour être résolues avec exactitude; c'est pourquoi, nous appliquons des approximations qui n'auront à notre sens pas de réel impact sur le problème concerné. Même les équations approximatives sont trop difficiles à résoudre de façon analytique; par conséquent, nous appliquons des approximations numériques pour résoudre ce jeu simplifié d'équations. Les approximations numériques fournissent des systèmes d'équations algébriques que l'informatique permet de résoudre. Dans le cadre de la prévision numérique du temps, nous essayons de prévoir le comportement futur de l'atmosphère. Nous nous concentrons ainsi sur les facteurs responsables des changements atmosphériques, et donc de la dynamique des fluides. Les équations relatives à la dynamique des fluides décrivent le comportement du fluide dans l'espace et dans le temps, ce qui nécessite de recourir à des méthodes permettant de résoudre les problèmes liés aux valeurs initiales et limites.

Principes de la PNT Nécessite une analyse précise et détaillée des conditions initiales de l'atmosphère à toutes les échelles : De l'échelle globale à la micro-échelle. Nécessite une prise en compte raisonnable des interactions complexes à toutes les échelles : Zones frontales. Lignes de grains. Cellules orageuses. Autres... Nécessite une représentation précise de la topographie et des champs géophysiques : Caractéristiques topographiques à haute résolution influant sur le temps local. Champs géophysiques détaillés sur une topographie à haute résolution. Il convient de déterminer l'état initial qui servira de point de départ à l'évolution de l'atmosphère, ainsi que les conditions limites, notamment applicables à la surface de la Terre, dans le but de fermer le problème dans l'espace. Les techniques numériques nous permettent de résoudre les équations qui dépendent de variables spatio-temporelles, dans le but d'extrapoler notre représentation approximative de l'atmosphère au-delà de notre état initial sur la période de prévision voulue et dans notre zone d’intérêt. Nous avons également besoin d'ordinateurs puissants, capables de générer les solutions numériques assez rapidement pour que celles-ci puissent être utiles comme prévisions, et décrire les développements importants à plus long terme possible.

Principes de la PNT chimie O3 oxydation CH4 nuages radiation ondes longues ondes courtes chimie O3 oxydation CH4 nuages convection profonde restreinte model océan surface frottement orographique sous-mailles diffusion turbulente flux ondes longues et courtes vents vagues chaleur Latente sensible Cette image décrit les principaux processus atmosphériques à prendre en compte dans les modèles numériques. R. Buizza, CEPMMT

Principes de la PNT Observations Collecte des données radiosondes, stations terrestres, navires, satellites, aéronefs, bouées dérivantes, etc. Observations Réseaux nationaux Réseaux d’aviation STG Collecte des données fournit la valeur des variables atmosphériques aux points de grille Contrôle de qualité Détection d’erreur Assimilation des données Analyses fournit la valeur prévisionnelle des variables atmosphériques aux points de grille Ce diagramme représente l'organigramme des données entrant dans le processus de modélisation numérique, depuis la phase d'observation jusqu'à la transmission des prévisions finales. Les observations proviennent de toutes les sources disponibles à l'échelle du globe. Les données d’observation comprennent les observations de surface (stations terrestres, navires, bouées), les radiosondages en altitude, les observations aériennes et la télédétection (satellite et radar). Toutes les données d'observation recueillies font l'objet d'un contrôle de qualité avant d'être traitées dans le schéma d'assimilation des données. Le rôle du schéma d'assimilation des données est de générer sur une grille les champs de variables atmosphériques que les modèles numériques peuvent traiter. Le schéma d'assimilation des données fournit l'analyse objective et constitue le processus par lequel les données d'observation inégalement réparties dans le temps et dans l'espace sont intégrées dans une grille régulière à un temps donné. L'analyse objective détermine l'état initial de l'atmosphère à partir duquel le modèle numérique est intégré pour solutionner les équations et ainsi pour générer les états futurs prévus de l'atmosphère. Les sorties des modèles numériques peuvent ensuite être utilisées et traitées par différentes applications, dans le but de générer les prévisions finales qui seront transmises aux utilisateurs. Modèles PNT Modèle qualité de l’air d’intervention d’urgence vagues Autres produits Adaptation statistique Temps violent Météorologie aviation

Principes de la PNT MODÉLISATION INITIALISATION NUMÉRIQUE OBSERVATIONS Échantillonnage de l’état actuel de l’atmosphère Traitement des données en vue d’initialiser les modèles Projection dans le temps INITIALISATION MODÉLISATION NUMÉRIQUE OBSERVATIONS Champ d’essai Le schéma ci-dessus représente l'organigramme simplifié des données entrant dans le processus de modélisation numérique de l'atmosphère, qui peut être résumé en trois étapes principales. La première étape représente la collecte des données d'observation provenant de toutes les sources disponibles à l'échelle du globe. Les données d'observation représentent des échantillons de l'état actuel de l'atmosphère. Il faut en effet bien comprendre que l'atmosphère est un continuum et que les observations ne constituent que des échantillons de ce continuum. Par conséquent, les données d'observation ne peuvent fournir qu'une approximation de l'état actuel de l'atmosphère à un temps donné. Une fois collectées, les données d'observation sont traitées dans le schéma d'assimilation des données, ce qui permet de générer l'analyse objective. À ce stade, la première étape consiste à contrôler la qualité de toutes les données d'observation. La seconde étape consiste à traiter les données d'observation inégalement réparties dans le temps et dans l'espace, afin de générer des champs météorologiques sur une grille régulière à un temps donné. De cette deuxième étape s'en suivra l'analyse objective dont le but est de décrire l'état initial de l'atmosphère en vue de la modélisation numérique. Le modèle extrapolera ensuite l'état initial de l'atmosphère fourni par l'analyse objective en générant les états futurs de l'atmosphère sur la zone d’intérêt. Il faut savoir que le schéma d'assimilation des données menant à l'analyse objective doit s'appuyer sur des champs d’essai ou premières estimations ou champs d’arrière-plan, fournis par le modèle numérique. Le schéma d'assimilation des données est conçu pour alimenter le modèle numérique destiné à produire les états futurs de l'atmosphère, mais il est en même temps tributaire de ce dernier et de sa capacité à générer les champs d’essai qui seront utilisés au cours du cycle suivant d'assimilation des données. Radiosondages Stations terrestres Navires/bouées Observations aériennes Données satellitaires Contrôle de qualité Intégration des variables observées sur la grille du modèle Génération des variables atmosphériques prévues sur la grille du modèle

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. Jusqu'ici, voici ce qu'il faut retenir... Questions ?

Principes de la PNT – assimilation des données Processus d'estimation des conditions initiales des prévisions par une prise en compte optimale des données d'observation en tant que sources d'information. Nécessite une première estimation (champs d’essai – champs d’arrière-plan). Le nombre de données d'observation est d'environ ~105-106, tandis que le nombre de degrés de liberté du modèle est d'environ ~109 – le problème est largement sous-déterminé. La résolution du problème nécessite de recourir à des méthodes mathématiques sophistiquées. Requiert une caractérisation statistique de l'erreur pour toutes les sources d'information (champs d’essai et tous types d'observation). En prévision numérique du temps, l'assimilation des données est le processus d'estimation des conditions initiales des prévisions par une prise en compte optimale des données d'observation en tant que sources d'information. L'assimilation des données repose sur des champs d’essai fournis par un modèle numérique. En règle générale, l'ordre de grandeur du nombre de données d'observation couramment utilisées varie entre 100 000 et 1 000 000 (selon la fenêtre de temps utilisée). Par ailleurs, les modèles numériques classiques utilisés dans les principaux centres opérationnels ont une résolution horizontale d'environ 35 km avec approximativement 50 niveaux dans la verticale. Étant donné le nombre de variables prévisionnelles du modèle, cela représente un nombre de degrés de liberté de l'état du modèle de l'ordre de 1 000 000 000. Le nombre de degrés de liberté du modèle augmentera lorsque la résolution du modèle est améliorée. En supposant que le problème d'estimation des conditions initiales soit linéaire, il s'avère que ce problème est très largement sous-déterminé (l'information relative à l'observation est insuffisante pour que les degrés de liberté du modèle puissent être totalement prescrits) . L'ajout de renseignements tels que des champs d’essai ou des observations réparties dans le temps, ainsi que le recours à des méthodes mathématiques adaptées au problème s'imposent alors. Par conséquent – fait connexe – toute l'information disponible, y compris tous les types de données, doit impérativement faire l'objet d'une caractérisation statistique précise. De plus, il est habituellement nécessaire d'introduire des opérateurs mathématiques, afin de mettre en relation les observations et les variables de l'analyse, dans la mesure où celles-ci sont en règle générale de nature très différente. Ces deux aspects fondamentaux vont solliciter le modèle numérique lui-même.

Principes de la PNT – assimilation des données Le processus d'assimilation des données a pour objectif d'intégrer les données inégalement réparties dans l'espace et dans le temps sur une grille régulière au temps voulu (cf. précédemment). Pour ce faire, des champs d’essai sont nécessaires. But : projeter les données distribuées de façon irrégulière sur une grille régulière Analyse = champ d’essai Observations

Principes de la PNT – assimilation des données Sources d'erreur dans les observations : Erreurs de mesure inhérentes aux instruments. Mauvais étalonnage des instruments. Erreur de représentativité. Mauvais enregistrement des observations. Erreurs de codage des données. Erreurs de transmission des données. Objectif : Rejeter toutes les erreurs autres que les erreurs de mesure. Des erreurs sont associées à chaque donnée d'observation. Il y a des erreurs de mesure dues aux instruments ou à un mauvais étalonnage des instruments, des erreurs associées à la représentativité, à un problème d'enregistrement des observations, ainsi qu'à une mauvaise codification ou transmission des données. Les erreurs de représentativité sont bien plus que de simples erreurs associées aux emplacements ou à la configuration des sites d'observation. Les erreurs associées à la représentativité relèvent aussi du fait que chaque observation représente un échantillon de toutes les échelles de l'atmosphère, y compris celles qui ne peuvent être résolues dans le modèle. L'objectif du contrôle de la qualité des données est de rejeter toutes les erreurs autres que les erreurs de mesure.

Principes de la PNT – assimilation des données Méthodologie du contrôle de la qualité : Au cours de l'étape de décodage, vérification de la source et du lieu d'observation. Vérification de la déviation à partir de valeurs climatologiques. Contrôles hydrostatiques relativement aux températures et aux hauteurs du géopotentiel des radiosondages. Comparaison contre des sites les plus proches : Interpolation statistique aux points d'observation reposant sur les données des sites les plus proches et sur un champ d’essai. Rejet, si l'erreur estimée dépasse m (typiquement 4) fois l’erreur d’analyse. Surveillance des résultats de l'analyse objective. Surveillance des statistiques accumulées « observée moins champ d’essai ». Échange de données statistiques avec d'autres Centres chefs de file. Rétroaction à l'intention des producteurs de données. On a recours à différentes approches pour contrôler la qualité des données d'observation. Lors de la phase de décodage, on procède à un contrôle des données pour en vérifier la cohérence interne. Il est possible de contrôler les données à partir de valeurs climatologiques. Des contrôles physiques sont envisageables, comme le contrôle hydrostatique. Enfin, les données peuvent être comparées à celles des sites voisins.

Principes de la PNT – assimilation des données observations non sur grille fixe réseau d’observations moins dense que la grille d’analyse la télédétection peut fournir des données extrêmement denses l’analyse est le fruit d’une synthèse entre le champ d’essai et les observations le poids sur les observations est fonction de l’erreur d’observation le poids sur le champ d’essai est fonction de l’erreur de prévision utilise des fonctions de corrélation statistiques pour projeter les observations sur la grille d’analyse Le processus d'assimilation des données nécessite de procéder à la caractérisation statistique de tous les types de données, ainsi que des champs d’essai, sous forme de matrices de covariance des erreurs. Interpolation optimale Techniques variationelles Filtres de Kalman Statistiques sur les erreurs d’observation et les erreurs du champ d’essai

Principes de la PNT – assimilation des données Observations Statistiques d’erreur – champ d’essai champs d’essai Analyse Modèle PNT Statistiques d’erreur – observations Ce diagramme décrit le processus d'assimilation des données. Dans les grandes lignes, les statistiques d'erreur appliquées aux champs d’essai et aux observations servent à modifier les champs d’essai en fonction des données d'observation. Remarquez que les observations ne sont jamais modifiées. Les statistiques d’erreur sur le champ d’essai et sur les observations sont utilisées pour évaluer la grandeur de la modification à apporter au champ d’essai pour qu’il s’approche de l’observation. Ce processus continu ne doit jamais être interrompu. Le CMC procède à l'assimilation des données toutes les 6 heures. Il faut savoir que les matrices de covariance des erreurs sont calculées une fois pour toutes (elles ne sont pas modifiées à chaque cycle). Elles sont néanmoins mises à jour de temps à autre. R. Verret, CMC

Principes de la PNT – assimilation des données Exemple de données d'observation disponibles au cours d'un cycle d'assimilation de données. Sont représentées ci-dessus les observations par aéronef (avion) utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principes de la PNT – assimilation des données Cette image représente les données satellite AMSU-A utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principes de la PNT – assimilation des données Les données satellite AMSU-B utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC sont représentées ci-dessus.

Principes de la PNT – assimilation des données Les observations SATWINDS utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC sont représentées ci-dessus.

Principes de la PNT – assimilation des données Les observations TEMP/DROP utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC sont représentées ci-dessus.

Principes de la PNT – assimilation des données Les observations PILOT utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC sont représentées ci-dessus.

Principes de la PNT – assimilation des données Les observations SYNOP utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC figurent ci-dessus.

Principes de la PNT – assimilation des données Les observations de bouées utilisées dans le cadre de l'analyse effectuée le 7 janvier 2010 à 00 UTC figurent ci-dessus.

Principes de la PNT – assimilation des données Cette image illustre les observations de radiance GOES entrant dans l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principes de la PNT – assimilation des données Cette image illustre les observations des profileurs dont les données ont été intégrées à l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principes de la PNT – assimilation des données Cette image illustre les observations satellites GPS-RO entrant dans l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principles of NWP – data assimilation Cette image illustre les observations satellites AIRS entrant dans l'analyse effectuée le 7 janvier 2010 à 00 UTC.

Principes de la PNT – assimilation des données observation – analyse (O-A) observation – prévision (O-P) Les observations irrégulièrement réparties dans le temps contiennent une information spatio-temporelle spécifique. Il est possible d'extraire cette information grâce à l'assimilation des données quadridimensionnelles (4-D). L’un des algorithmes d’assimilation des données quadridimensionnelles est l'algorithme 4D-Var qui établit le problème comme suit. État donné un intervalle de temps donné, on recherche les conditions initiales qui conduiront à la trajectoire du modèle la mieux adaptée aux observations sur tout l'intervalle. L'assimilation impose ainsi une contrainte dynamique à la solution qui extrait l'information contenue dans la dimension temporelle des observations. Cet algorithme mène à la minimisation d'une fonction coût permettant d'évaluer le degré de vraisemblance entre les observations et leur équivalence dans le modèle. On procède à la minimisation de façon itérative en utilisant le gradient de la fonction coût obtenu grâce à l'adjoint (ou modèle transposé) de ce processus d'intégration. Ce qu'il faut retenir est que le modèle adjoint sert à calculer le gradient d'une fonction coût, permettant ainsi au résultat de cette intégration par en arrière de nous renseigner sur les modifications à apporter aux conditions initiales en vue d'obtenir le taux maximal de réduction de la fonction coût. En d'autres termes, le modèle adjoint nous indique comment modifier les conditions initiales pour que l'intégration qui en résulte s'adapte mieux aux observations qui seront disponibles ultérieurement. Fonction coût de l'algorithme 4D-Var d'assimilation des données P. Gauthier, ARMA and J. Morneau, CMC

Principes de la PNT – assimilation des données à 8:00Z Cycle global R200 R106 Cycle régional T+9 à 09Z T+3:05 à 3:05Z G200 G100 T+ 2:00 à 14:00Z T+ 2:00 à 14:00Z T+6 à 00Z T+6 à 12Z R100 R218 G218 G206 R206 R112 Cette diapositive offre un schéma des cycles déterministes d'assimilation des données opérés au CMC en février 2013. T+3:05 à 15:05Z T+8:15 à 20:15Z G112 G212 L’analyse est transmise Champ d’essai est produit L’analyse est produite T+ 2:00 à 20:00Z R118 R212 J. St-James , CMC

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. L'assimilation des données est le processus permettant de projeter les données d'observation inégalement réparties dans l'espace et dans le temps sur une grille. Elle nécessite des champs d’essai, des observations avec contrôle de qualité et des statistiques d'erreur sur les observations comme sur les champs d’essai. Jusqu'ici, voici ce qu'il faut retenir... Questions ?

Principes de la PNT – modélisation Lois de conservation régissant l'atmosphère : Conservation de la quantité de mouvement. Conservation de la masse. Conservation du contenu en eau. Conservation de l'énergie. La modélisation numérique doit prendre en compte les lois de conservation de l'atmosphère relatives à la quantité de mouvement, à la masse, au contenu en eau et à l'énergie.

Principes de la PNT – modélisation Équations primitives Moment Hydrostatique Thermodynamique Les équations primitives hydrostatiques (souvent appelées « équations primitives baroclines ») permettent plus ou moins de décrire le mouvement de l'atmosphère. Ces équations reposent sur la seconde loi du mouvement de Newton, la première loi de la thermodynamique, les lois de conservation de la masse, l'équation d'état pour les gaz parfaits et l'approximation hydrostatique valable pour l'atmosphère et applicable aux résolutions d'échelles compatibles avec nos grilles opérationnelles actuelles. Notons que certains modèles de haute résolution ne requièrent aucune approximation hydrostatique. Les équations primitives utilisent ici la coordonnée verticale sigma (définie dans la boîte dans le coin supérieur droit). Pour fermer les équations, il est prescrit que le mouvement vertical est zéro à la surface et au sommet de l’atmosphère. Dans les équations ci-dessus, les variables sont: p = pression Phi (lettre grecque) = hauteur géopotentielle R = constante des gaz T = température x = coordonnée dans la direction ouest-est. y = coordonnée dans la direction sud-nord. F = forçages. t = temps Rho (lettre grecque) = densité de l’air. q = humidité spécifique. V = vecteur vent horizontal. u = composante ouest-est du vent. v = composante sud-nord du vent. Continuité État à s = sT et s = 1

Principes de la PNT – modélisation Problème non linéaire Approximation numérique x Les équations primitives ne sont pas linéaires dans la mesure où la dérivée temporelle d'une variable dépend de la valeur de cette même variable. De plus la dérivée temporelle est proportionnelle au produit de cette variable avec son gradient. En outre, les équations analytiques doivent être discrétisées dans l'espace et dans le temps avant d'être solutionnées sur ordinateur. Il existe plusieurs façons d'aborder le problème. Le second encadré de la diapositive illustre le problème de la discrétisation dans l'espace.

Principes de la PNT – modélisation La physique de chaque modèle doit être compatible avec la dynamique du modèle et la maille de la grille. NON RÉSOLU RÉSOLU Convection profonde Méso--échelle Systèmes nuageux Cumulus congestus (convection restreinte) Convection profonde organisée Cumulus dans CLP (petits cumulus) Météorologie à grande échelle Effets orographiques (km) L'atmosphère observé est une intégration de tous les processus survenant à toutes les échelles. Lorsque la résolution du modèle numérique ne permet pas de résoudre certains processus, il faut procéder à leur paramétrage. Le paramétrage des processus non résolus doit être compatible avec la dynamique et la résolution du modèle. 0,1 1 10 100 1000 ÉCHELLES SOUS-GRILLE ÉCHELLE DE LA GRILLE Les processus qui surviennent à des échelles non-résolues doivent être paramétrés. Le paramétrage doit être compatible avec la dynamique du modèle et la maille de la grille. A. Erfani, CMC

Principes de la PNT – modélisation Paramétrage physique : Processus n'apparaissant pas en tant que tels dans les équations de base. Processus ayant un impact sur les échelles résolues par le modèle. Échelles impossibles à résoudre par le modèle. Échelles non encore résolues par le modèle. Valeurs calculées sur grille. Couplage : dynamique/physique. L'atmosphère observée est une intégration de tous les processus survenant à toutes les échelles. Lorsque la résolution du modèle numérique ne permet pas de résoudre certains processus, il faut procéder à leur paramétrage. Le paramétrage des processus non résolus doit être compatible avec la dynamique et la résolution du modèle. Dynamique Physique

Principes de la PNT – modélisation Processus paramétrés : Processus de surface : Traitement différent au-dessus des océans et de la surface terrestre. Bilan d'énergie thermique pour la température de surface au sol. Bilan d'eau pour l'humidité du sol (en surface et en profondeur). Cycle diurne. Caractéristiques des processus de surface : Propriétés de sol. Échanges au niveau de la couche de surface : Flux d'énergie en fonction de la stratification de la couche de surface. Diffusion verticale turbulente : Relie l'atmosphère près de la surface et l'atmosphère libre. Repose sur l'énergie cinétique turbulente. Générée par le cisaillement du vent et la stratification thermique. Voici la liste de quelques uns des processus physiques devant être paramétrés (en fonction de la résolution du modèle actuel). Note: Termes du côté droit des équations primitives

Principes de la PNT – modélisation Radiation solaire Précipitations stratiformes Convection profonde Turbulence couche limite infrarouge Processus de surface Illustration des processus à prendre en compte dans un modèle numérique. Cette figure, qui résume les principaux processus physiques en action dans l’atmosphère, permet d’apprécier la diversité et la complexité des processus que les modèles atmosphériques doivent représenter (ou paramétrer). Rayonnement solaire et infrarouge. Comme le Soleil est la première source d’énergie à la base de toute la dynamique de l’atmosphère terrestre, il est évidemment essentiel de prendre en compte de façon appropriée les effets du rayonnement solaire descendant pour pouvoir représenter correctement le cycle diurne. Il sera également question des tendances des températures attribuables à l’absorption, à la réflexion et à la diffusion du rayonnement solaire et infrarouge, ainsi que du rôle joué par les nuages. Processus opérant en surface. Les échanges de chaleur, de vapeur d’eau et de quantité de mouvement entre la surface terrestre et l’atmosphère comptent pour beaucoup dans les caractéristiques et la structure de la basse atmosphère (essentiellement, la couche limite planétaire (CLP)). Ils sont fonction du bilan énergétique à la surface ou, en d’autres termes, de la répartition de l’énergie disponible à la surface (le rayonnement solaire descendant moins le rayonnement réfléchi et le rayonnement infrarouge) entre le flux de chaleur sensible, le flux de chaleur latente et le flux de chaleur au sol. Le traitement de l’eau du sol (évaporation, drainage et ruissellement) joue un rôle critique dans la représentation appropriée du bilan énergétique à la surface. Turbulence dans la couche limite. La turbulence atmosphérique (surtout dans la couche la plus basse) résulte d’un phénomène mécanique, soit l’intense cisaillement du vent causé par le frottement à la surface, et d’un phénomène thermique, c’est-à-dire le flux de chaleur sensible. Cette turbulence à basse altitude a pour principal effet de bien mélanger l’air, y compris ses composantes chimiques, dans la CLP. Processus de condensation. Y aura-t-il ou non de la pluie (neige) est l’une des questions qui importent le plus aux destinataires des prévisions. Dans les modèles atmosphériques, les mécanismes causant la forte activité convective responsable du temps violent qui s’organise à la moyenne échelle (c.-à-d. de 20 à 2 000 km) sont paramétrés suivant différentes stratégies. La condensation qui se produit à l’échelle de la maille (c.-à-d. celle qui est résolue par le modèle) est également représentée. À la résolution actuelle des modèles opérationnels, les processus de condensation sont toujours paramétrés au moyen d’un ensemble couplé de schémas physiques, dont un se rapporte aux nuages de convection non résolus (schéma implicite) et l’autre, aux nuages stratiformes résolus (schéma explicite). S. Bélair, RPN

Principes de la PNT – modélisation Troposphère Nuages Aérosols Terre Radiation infrarouge solaire Soleil Illustration des processus de rayonnement à prendre en compte dans un modèle numérique. On remarquera en premier lieu que deux « types » différents de rayonnement sont représentés, à savoir le rayonnement « solaire » (en provenance du Soleil) et le rayonnement « infrarouge » (en provenance de la Terre et de son atmosphère). Comme il existe un écart de température considérable entre les deux sources de rayonnement (Tterre ~ 255 K, tandis que Tsoleil ~ 5 780 K), les longueurs d’onde auxquelles le rayonnement émis atteint son intensité (énergie des ondes par unité spectrale) maximale sont très différentes. D’après la loi de Wien, qui représente le rayonnement spectral d’un corps noir, le rayonnement du corps « le plus chaud » (le Soleil) atteint son intensité maximale à une plus courte longueur d’onde que le corps « le plus froid » (la Terre et son atmosphère). Ainsi donc, les rayonnements solaire et infrarouge ne sont pas vraiment différents quant à leur nature; ils se distinguent en ce qu’ils atteignent leur intensité maximale à différentes longueurs d’onde. De toute évidence, un important effet du rayonnement, en particulier le rayonnement de courte longueur d’onde, est le réchauffement de la surface terrestre. Ce réchauffement est responsable des flux de chaleur sensible à la surface, ce qui entraîne la déstabilisation thermique des basses couches de l’atmosphère, phénomène qui produit à son tour de la turbulence dans la couche limite. Toutefois, avant d’atteindre le sol (ondes descendantes) ou de sortir de l’atmosphère terrestre (ondes ascendantes), les ondes électromagnétiques doivent parcourir de grandes distances dans l’atmosphère. Le signal est donc atténué par l’absorption et la diffusion sous l’effet de gaz comme la vapeur d’eau (H20), l’ozone (O3) et le dioxyde de carbone (CO2). Les interactions avec les nuages et les aérosols sont également importantes. Très simplement, les tendances au réchauffement/refroidissement H associées au rayonnement atmosphérique sont représentées par la convergence des flux où Fz est le flux radiatif net. S. Bélair, RPN

Principes de la PNT – modélisation Convection profonde Réchauffement et Humidification (déstabilisation) Illustration des processus de convection à prendre en compte dans un modèle numérique. Il peut paraître curieux de souligner l’importance d’une représentation adéquate dans les modèles atmosphériques des processus se déroulant en surface. En réalité, la principale raison d’être des prévisions météorologiques est la prévision de l’évolution de l’atmosphère (précipitations, vent, température, etc.). Or, les échanges entre la surface (constituée du sol, des masses d’eau, de la végétation, de la couverture de neige et des glaces) et l’atmosphère peuvent avoir, dans certains cas, d’importantes répercussions sur l’état de la basse atmosphère (la CLP). En conséquence, il peut être important de représenter le mieux possible les processus physiques en action à la surface car, après tout, presque toutes les activités humaines se déroulent dans la plus basse couche de l’atmosphère. Dans les modèles atmosphériques, la prise en compte des processus opérant en surface a pour but premier de déterminer les conditions à la couche limite inférieure. Pour les modèles utilisés au CMC/RPN, il s’agit de déterminer les conditions pour la diffusion verticale turbulente. Dès lors, les modèles peuvent prendre en compte l’effet de la surface (à l’exception du frottement de l’onde de gravité) seulement par le biais des échanges turbulents de chaleur, de vapeur d’eau et de quantité de chaleur aux bas niveaux, échanges qui sont déterminés en majeure partie par les flux de ces quantités en surface. Ces flux peuvent exercer une influence capitale sur l’évolution de certains systèmes atmosphériques. Prenons, par exemple, le cas de la déstabilisation verticale et de l’humidification d’une CLP diurne en été (sous l’effet d’intenses flux de chaleur sensible et de vapeur d’eau en surface) à l’avant d’un front froid en mouvement. Ces conditions contribuent de toute évidence à la propagation et au déclenchement d’une forte convection. Froid Surface chaude S. Bélair, RPN

Principes de la PNT – modélisation Atmosphère libre Hauteur de la CLP CLP bien mélangée Mélange turbulent dû aux grands tourbillons Illustration des processus de mélange turbulent à prendre en compte dans un modèle numérique. L’effet de la turbulence atmosphérique se fait sentir surtout aux bas niveaux, en réaction aux flux de chaleur (d’origine thermique) et de quantité de mouvement (d’origine mécanique) à la surface. Pendant le jour, la turbulence a comme principal effet un « brassage » aux bas niveaux, de sorte que les variables conservées (à l’état sec), telles que la température potentielle (theta ), l’humidité spécifique (q) et le vent (V), sont habituellement quasi constantes dans toute la CLP. L’effet de la turbulence est moins prononcé la nuit (période où celle-ci est très faible), période pendant laquelle la basse atmosphère est très stable à cause du refroidissement radiatif qui se produit près de la surface. Il est très utile de bien représenter l’évolution du brassage vertical de la couche limite sous l’effet de la turbulence, non seulement aux fins de la prévision météorologique, mais aussi pour le couplage des modèles atmosphériques et des modèles de transport de polluants. Les concentrations des substances chimiques sont grandement influencées par la diffusion verticale due à la turbulence. S. Bélair, RPN

Principes de la PNT – modélisation Bande étroite de convection profonde (ligne ~ 10 km) (cellules ~ 1-2 km) (non résolu) Type de précipitations stratiformes ~ 100 km (résolu) Illustration des processus de précipitations à prendre en compte dans un modèle numérique. Un des problèmes les plus ardus de la prévision météorologique consiste à prévoir le déclenchement, le lieu, le type et l’intensité des précipitations. Il s’agit fondamentalement du problème de la prévisibilité des systèmes de précipitations, qui dépend de la qualité des données sur les conditions initiales (langues d’air humide, zones de convergence à moyenne échelle, etc.) et du phénomène faisant évoluer ces systèmes : échelle spatiale dégressive (front froid produisant une activité convective intense) ou progressive (cellules de convection aléatoires formant un complexe convectif de moyenne échelle, en été). Dans la pratique, l’amorce et la simulation des processus physiques associés à une activité convective intense qui sont encore mal connus posent un défi de taille. Enfin, les interactions entre les circulations de méso- gamma -échelle (c.-à-d. de 2 à 20 km) et de méso- beta -échelle compliquent la situation encore davantage. Cette figure montre la région de précipitations associée à un système météorologique d’échelle synoptique. Des cellules de convection intense (~ 1-2 km) prennent naissance le long du front froid qui avance et forment une ligne de convection (~ 10 km). De toute évidence, cette activité de convection ne peut être résolue par des modèles méso-échelle (ayant une résolution d’environ 20 km sur l’horizontale) et doit donc être paramétrée. Dans le cas présent, il n’est pas nécessaire que les cellules de la grille du modèle atteignent la saturation avant que celui-ci simule des précipitations. L’enjeu ici consiste donc à représenter cette activité nuageuse (non résolue) basée implicitement sur les variables d’échelle comparable à celle du modèle. Qui plus est, ce paramétrage dépend de la résolution du modèle (certains schémas de paramétrage mis au point pour les modèles de grande échelle pourraient ne pas convenir aux modèles méso-échelle). Dans la partie arrière du système, les précipitations sont davantage étendues (sur quelques centaines de kilomètres) et le mouvement vertical est moins intense. Plus de précipitations de type stratiforme y sont produites. La région de précipitations est certainement résolue par le modèle, si bien que les processus de condensation devraient s’y opérer seulement quand les cellules de la grille du modèle sont saturées. La simulation de ce type de précipitations est dite « explicite » (ou résolue, à l’échelle de la grille) et les paramétrages requis ne sont pas basées sur les processus de convection des colonnes du modèle, tels que les courants ascendants/descendants, la convergence de masse, etc., mais plutôt sur les cellules de la grille dans lesquelles les phénomènes microphysiques (condensation, évaporation, sublimation, etc.) sont représentés. S. Bélair, RPN

Principes de la PNT – modélisation Cellules du modèle Région de précipitations stratiformes (résolu) Illustration des processus de précipitations et de convection à prendre en compte dans un modèle numérique. Cette figure montre un autre type de situation, une ligne de grains en été, sur laquelle on peut tirer les mêmes conclusions. Dans ce cas, la ligne préfrontale de forte activité convective n’est pas résolue par le modèle (les cellules de la grille sont représentées), alors que la région de précipitations stratiformes dans la partie arrière du système l’est. Idéalement, la partie avant du système devrait être traitée seulement par le paramétrage convectif (schéma implicite), tandis que la partie arrière devrait être représentée seulement par le schéma explicite à l’échelle de la grille. Ligne de convection préfrontale (non résolu) S. Bélair, RPN

Principes de la PNT – modélisation Frottement des ondes de gravité soulèvement Blocage de bas niveaux Ondes sous le vent Vent Illustration du frottement des ondes de gravité. Le vent qui rencontre un terrain complexe génère des ondes de gravité qui se propagent vers le haut. Le blocage de bas niveau cause aussi un frottement sur le champ de vent. Les ondes de gravité qui se propagent vers le haut et qui se brisent en altitude causent un effet de frottement sur les courants jets. Le frottement des ondes de gravité est généré par la topographie à petite échelle (0-100 km) et doit être paramétré. Le paramétrage du frottement des ondes de gravité représente la composante non résolu du frottement sur le vent de bas niveau qui est bloqué sur le flans des montagnes. Le terme de blocage et le frottement des ondes de gravité font maintenant partie du paramétrage unifié des frottements orographiques sous-maille qui est devenu opérationnel dans le modèle Global GEM le 11 décembre 2001. Le blocage orographique est une force, une forme de frottement qui agit sur les vents de bas niveau quand la topographie est présente. Il s’agit d’une des nombreuses façons par lesquelles l’atmosphère peut échanger du moment avec les montagnes, par exemple: (1) Une partie du flux passe au-dessus des montagnes, générant des ondes de gravité qui se propagent vers le haut et éventuellement se brisent, produisant ainsi un frottement aux niveaux élevés – appelé frottement des ondes de gravité (FOG). (2) Des ondes en aval peuvent aussi être générées sur le côté sous le vent des montagnes. Ces ondes peuvent aussi se briser et produire du frottement localement. (3) Dépendant de la vitesse des vents et des conditions de stabilité, il y a une partie du flux qui ne peut pas passer au-dessus des montagnes. À la place, le flux est forcé de contourner les flans des montagnes en échangeant du moment avec la surface – c’est l’effet de blocage orographique. (4) Aux échelles où la rotation de la terre est non négligeable, une topographie en pente peut induire un changement dans la direction des vents, un phénomène parfois appelé soulèvement orographique qui peut être compris en terme de conservation du tourbillon potentiel. Dans un modèle numérique à une certaine résolution, ces phénomènes sont en partie résolus. Mais une partie du frottement, associée avec la topographie non résolue, demeure et devrait être paramétrée. ~100 km A. Zadra, RPN

Principes de la PNT – modélisation Processus physiques : Processus de condensation et nuages : Convection profonde : Déclenchement d'une instabilité convective. Ajustement de la convection humide. Convergence d'humidité de grande échelle. Modèle de panache. etc. Convection restreinte : Couplage entre la couche limite planétaire et la convection profonde. Condensation stratiforme : Se produit aux échelles résolues par les modèles. Peut solliciter la microphysique. Teneur en eau liquide des nuages comme variable prévisionnelle. fonction de la résolution du modèle Liste des processus de précipitations, de condensation et de convection à prendre en compte dans un modèle numérique. Notons que la représentation de ces processus est fonction de la résolution du modèle.

Principes de la PNT – modélisation Processus physiques : Processus de condensation et nuages : Microphysique : Évaporation des gouttes de pluie. Formation de pluie / neige. Gel / dégel. Couverture nuageuse : Utilisée principalement pour les processus de rayonnement. Diagnostic empirique fondé sur l'humidité relative. Schéma de la teneur en eau des nuages comme variable prévisionnelle. Liste des processus de condensation à prendre en compte dans un modèle numérique.

Principes de la PNT – modélisation Processus physiques : Rayonnement solaire et infrarouge : Bilan radiatif de la Terre. Rayonnement solaire : Principal forçage radiatif de surface. Absorption et réflexion par les nuages. Fonction de la vapeur d'eau, des aérosols, de l'ozone, du CO2, des nuages. Rayonnement infrarouge : Refroidissement en surface et au sommet des nuages. Frottement due aux ondes de gravité : Généré par une orographie de petite échelle (0-100 km) Propagation verticale et dissipation dans les niveaux élevés. Applique une force de frottement sur les courants jets. Liste des processus de rayonnement à prendre en compte dans un modèle numérique. Il convient en outre de prendre en considération les ondes de gravité générées par une orographie de petite échelle et qui se propagent vers le haut (frottement des ondes de gravité).

Principes de la PNT – modélisation Conditions limites : orographie rugosité de surface masque terre-mer albédo couverture de glace épaisseur de neige température de surface (terre et mer) humidité de surface température du sol profond humidité du sol Climatologie Climatologie + Analyse Analyse Liste des conditions frontière de surface. Variables prévisionnelles

Principes de la PNT – modélisation Cette image illustre le couvert végétal canadien. Service canadien des forêts

Principes de la PNT – modélisation Stratégie pour modèles à court et moyen terme : Précision des prévisions : Qualité des conditions initiales. Formulation mathématiques. Précision des méthodes numériques. Facteurs à considérer dans la conception d’un modèle : Domaine global ou à aire limitée : Frontières latérales (source d'erreur) Longueur d'intégration (propagation d'erreur) Coûts informatiques Haute ou basse résolution : Précision par opposition aux coûts informatiques. La conception d'un modèle numérique est un compromis entre la résolution souhaitée, la précision de la prévision, la zone d’intérêt, le temps de prévision et les ressources informatiques disponibles.

Principes de la PNT – modélisation Stratégie pour modèles à court et moyen terme : Temps de prévision : Moyen terme (≥ 3 jours) : Bonne résolution sur la zone d’intérêt. Rapidité de production des prévisions. Compromis entre la résolution et le temps de prévision. Court terme (1-2 jours) : Haute résolution pour les détails. Modèles à échelle régionale ou aire limitée. Compromis entre une résolution améliorée à l’intérieur de la zone d’intérêt et une résolution moindre à l’extérieur. Pilotage – problème de consistance aux frontières – filtrage. Concernant les prévisions à moyen terme (sur plus de 3 jours), il vaut mieux privilégier la longueur du temps de prévision plutôt que la résolution du modèle. En ce qui a trait aux prévisions à court terme, il est préférable d’avoir une meilleure résolution afin d'obtenir des prévisions plus précises.

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. L'assimilation des données est le processus permettant de projeter les données d'observation inégalement réparties dans l'espace et dans le temps sur une grille. Elle nécessite des champs d’essai, des observations avec contrôle de qualité et des statistiques d'erreur sur les observations comme sur les champs d’essai. Les modèles résolvent les équations primitives afin de prévoir les états futurs de l'atmosphère. Les processus physiques qui se produisent aux échelles non résolues dans le modèle doivent être paramétrés. Jusqu'ici, voici ce qu'il faut retenir... Questions ?

Principes de la PNT – modèle global 1024x800 (25 km) Grille et structure des niveaux verticaux du modèle global GEM. La résolution du modèle est de 25 km sur une grille de 1024x800. Le modèle présente 80 niveaux hybrides. Image=800 X 600 (33 km) 80 niveaux hybrides En date de février 2013 A. Patoine, CMC

Principes de la PNT – modèle global (km) 0,1 1 10 100 1000 Convection profonde organisée Météorologie à grande échelle Méso--échelle Systèmes nuageux RÉSOLU NON RÉSOLU ÉCHELLES SOUS-GRILLE ÉCHELLE DE LA GRILLE Cumulus dans CLP (petits cumulus) Cumulus congestus (convection restreinte) profonde Effets orographiques Le modèle global GEM peut résoudre des échelles au-delà de 33 km (25 km). Les phénomènes qui se produisent à plus petite échelle doivent être paramétrés. GEM Global (33 km) GEM Global (25 km) opérationnel le 13 février 2013 A. Erfani, CMC

Nouveau système global en date du 13 février 2013 (SGPD 3.0.0) Moyenne (ligne tiretée) et écart-type (ligne continue) de l’erreur des prévisions du jour 5 contre les observations des radio-sondages du nouveau système global de prévisions SGPD 3.0.0 (ligne rouge) versus le système précédent SGPD 2.2.2 au-dessus de l’hémisphère nord durant la passe parallèle (octobre 2012 à janvier 2013). Ceci représente une des plus grandes améliorations dans l’histoire de ce système. A. Zadra, RPN

Principes de la PNT – modèle global Résolution : 800 X 600 X 80 N (33 km) – sommet à 0.1 hPa. Pôles numériques aux emplacements géographiques. Nuages et précipitations : Convection restreinte avec le schéma Kuo Transient Convection profonde avec le schéma Kain-Fritsch. Schéma Sundqvist modifié pour la condensation à l'échelle de la grille. Schéma radiatif de Li et al. du Centre climatique canadien (CCCma) Bougeault-Lacarrère pour la longueur de mélange turbulent. Longueur de rugosité thermodynamique constante au-dessus de l'océan dans les Tropiques. Schéma de surface terrestre d'ISBA (Interaction Sol-Biosphère-Atmosphère) avec assimilation séquentielle de l'humidité du sol (fondé sur l'interpolation optimale). Liste des principales caractéristiques du modèle global GEM, version opérationnelle en date de janvier 2010. En date de Janvier 2010

Principes de la PNT – modèle global Conservation de l'énergie Eau Analyse température de surface température moyenne du sol teneur en eau du sol superficiel teneur en eau totale du sol ~1-2 h ~1-2 jour(s) ~6-12 h ~10 jours Représentation simplifiée du schéma de paramétrage de surface d'ISBA. ISBA signifie « Interaction Sol-Biosphère-Atmosphère ». S. Bélair, RPN

Principes de la PNT – modèle global ISBA = Interaction Sol-Biosphère-Atmosphère. Méthode sophistiquée de la force de rappel avec traitement réaliste de la végétation et de la neige. Agrégation des caractéristiques de surface sur la base du sol dénudé, de la végétation et de la neige. Inclut le réservoir d'eau liquide dans la neige, et les processus physiques influant sur la densité de la neige. interception de la pluie par la végétation. Inclut des modèles d'infiltration, de ruissellement et de drainage. Inclut l'impact des précipitations liquides sur la fonte de la neige. Gel et dégel du sol. EAU LIQUIDE RETENUE SUR LE COUVERT FORESTIER (Wr) PLUIE NEIGE veg (1-psnv) Pr psn Pr PS Eg ES Er Etr gels fontes fonteg gelg Rneige Rsurf Drainage psn Rveg (1-psn) Rveg EAU LIQUIDE DANS LE SOL (w2) EAU GELÉE DANS LE SOL (w2) EAU LIQUIDE DANS LA NEIGE (WL) (WS) Température de surface Température du sol. Quantité d'eau près de la surface Quantité d'eau dans le sol Quantité d'eau gelée dans le sol Quantité d'eau sur la végétation Quantité d'eau liquide dans la neige Quantité de neige Densité de la neige Bilan hydrologique en surface Le schéma ISBA utilise un système d'équations à deux niveaux de la force de rappel permettant d'évaluer la température et l'humidité. La représentation de la végétation et de la neige est plus réaliste. La surface représente l'agrégation du sol dénudé, de l'eau, des glaciers et de la glace de mer. Il rend compte du processus de capture de l'eau par la végétation. L'infiltration, le ruissellement et le drainage sont en outre pris en compte dans le schéma. ISBA intègre également la quantité d'eau liquide dans la neige et l'impact de la pluie sur la fonte de la neige. Ce schéma comprend un bilan énergétique qui tient compte du gel et du dégel. S. Bélair, RPN

Principes de la PNT – modèle régional Grille et structure des niveaux verticaux du modèle régional GEM. La résolution du modèle est de 10 km. La grille du modèle est de 996x1028 points. À l'instar du modèle global GEM, le modèle régional GEM compte 80 niveaux hybrides. 996x1028 (10 km) Février 2013. 80 niveaux hybrides A. Patoine, CMC

Principes de la PNT – modèle régional (km) 0,1 1 10 100 1000 Convection profonde organisée Météorologie à grande échelle Méso--échelle Systèmes nuageux RÉSOLU NON RÉSOLU ÉCHELLES SOUS-GRILLE ÉCHELLE DE LA GRILLE Cumulus dans CLP (petits cumulus) Cumulus congestus (convection restreinte) profonde Effets orographiques Le modèle régional GEM peut résoudre des échelles au-delà de 10-20 km. Les phénomènes qui se produisent à plus petite échelle doivent être paramétrés. GEM Régional (10 km) A. Erfani, CMC

Principes de la PNT – modèle régional Résolution : 996 x 1028 X 80 N (10 km dans la fenêtre uniforme) – sommet à 0.1 hPa. Nuages et précipitations : Convection restreinte avec le schéma Kuo Transient Convection profonde avec le schéma Kain-Fritsch. Schéma Sundqvist modifié (Consun) pour la condensation à l'échelle de la grille. Schéma radiatif de Li et al. du Centre climatique canadien (CCCma) Diffusion verticale avec énergie cinétique turbulente en régime humide (moistTKE). Schéma de surface terrestre ISBA avec assimilation séquentielle de l'humidité du sol (fondé sur l'interpolation optimale). Liste des principales caractéristiques du modèle régional GEM, version opérationnelle en février 2013. En date de février 2013

Principes de la PNT – modèle à mésoéchelle Ces images présentent les deux fenêtres sur lesquelles est intégré le modèle GEM-Méso (à mésoéchelle). La topographie du modèle est affichée. La fenêtre Ouest se situe à gauche de l'écran et la fenêtre Est à droite. Le modèle GEM-Méso est un modèle à aire limitée (LAM pour limited area model) et requiert des conditions latérales frontières déterminées par un modèle à plus grande échelle, comme le modèle régional GEM. En d'autres termes, le modèle GEM-Méso est un modèle piloté. La résolution de GEM-Méso est de 2,5 km avec 58 niveaux êta en coordonnée verticale, version de mars 2007. Résolution de 2,5 km avec 58 niveaux verticaux M.F. Turcotte, CPI, Québec

Principes de la PNT – modèle à mésoéchelle These pictures give the two windows over which the GEM Meso (meso-scale) model is integrated. The model topography is displayed. The western window is on the left-hand side, and the eastern window is on the right-hand side. GEM Meso is a limited area model (LAM) model and is a model that requires lateral boundary conditions to be provided by a larger scale model such as the GEM Regional model. In other words, GEM Meso is a nested model. The resolution of GEM Meso is 2.5 km with 58 eta levels in the vertical, version of March 2007. Resolution: 2.5 km – 58 niveaux verticaux As of March 2007 A. Erfani, CMC

Principes de la PNT – modèle à mésoéchelle (km) 0,1 1 10 100 1000 Convection profonde organisée Météorologie à grande échelle Méso--échelle Systèmes nuageux RÉSOLU NON RÉSOLU ÉCHELLES SOUS-GRILLE ÉCHELLE DE LA GRILLE Cumulus dans CLP (petits cumulus) Cumulus congestus (convection restreinte) profonde Effets orographiques Le modèle GEM-Méso peut résoudre des échelles au-delà de 2,5-5 km. Les phénomènes qui se produisent à plus petite échelle doivent être paramétrés. GEM Méso (2.5 km) A. Erfani, CMC

Principes de la PNT – modèle à mésoéchelle Résolution horizontale de 2,5 km avec 58 niveaux. Pas temporel de 60 secondes. Non hydrostatique. Schéma de condensation Kong et Yau (1997). Convection restreinte. Pas de schéma de convection. Schéma de surface ISBA. Prévisions de 24 heures. Une intégration par jour depuis juillet 2005. Liste des principales caractéristiques du modèle global GEM-Méso, version de mars 2007. Mars 2007

Principes de la PNT – modélisation (km) 0,1 1 10 100 1000 Convection profonde organisée Météorologie à grande échelle Méso--échelle Systèmes nuageux RÉSOLU NON RÉSOLU ÉCHELLES SOUS-GRILLE ÉCHELLE DE LA GRILLE Cumulus dans CLP (petits cumulus) Cumulus congestus (convection restreinte) profonde Effets orographiques Ce schéma positionne les trois modèles utilisés au CMC en terme de leur résolution et en fonction de l'échelle des phénomènes atmosphériques. GEM Méso (2.5 km) GEM Régional (10 km) GEM Global (33 km) A. Erfani, CMC GEM Global (25 km) opérationnel le 13 février 2013

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. L'assimilation des données est le processus permettant de projeter les données d'observation inégalement réparties dans l'espace et dans le temps sur une grille. Elle nécessite des champs d’essai, des observations avec contrôle de qualité et des statistiques d'erreur sur les observations comme sur les champs d’essai. Les modèles résolvent les équations primitives afin de prévoir les états futurs de l'atmosphère. Les processus physiques qui se produisent aux échelles non résolues dans le modèle doivent être paramétrés. Tendance à la conception de modèles de plus haute résolution. La résolution est un enjeu majeur de la physique des modèles. Questions ? Jusqu'ici, voici ce qu'il faut retenir...

Sources d'erreur – incertitudes Échantillonnage de l’état actuel de l’atmosphère Traitement des données en vue d’initialiser les modèles Projection dans le temps INITIALISATION MODÉLISATION NUMÉRIQUE OBSERVATIONS Champ d’essai Nous avons vu jusqu'ici que le processus de modélisation numérique se décomposait en trois étapes principales : la collecte des données, l’assimilation des données et la modélisation en tant que tel. Où pourraient être selon vous les sources d’erreur ou d’incertitude dans le processus de prévision numérique dans son ensemble ? Où peuvent être les sources d'erreur ou d'incertitude dans le processus de prévision numérique du temps?

Sources d'erreur – incertitudes Échantillonnage de l’état actuel de l’atmosphère Traitement des données en vue d’initialiser les modèles Projection dans le temps INITIALISATION MODÉLISATION NUMÉRIQUE OBSERVATIONS Champ d’essai Incertitude Les erreurs et les incertitudes sont présentes à toutes les étapes du processus de modélisation numérique. Cliquez sur le mot « Incertitude » en noir sur fond bleu clair (sur la gauche) pour continuer. Incertitude Incertitude

Sources d'erreur – incertitudes Incertitudes liées aux conditions initiales : Erreurs de mesure inhérentes aux instruments. Mauvais étalonnage des instruments. Erreurs systématiques – écart. Erreurs aléatoires. Mauvais enregistrement des observations. Erreurs de codification des données. Erreurs de transmission des données. Couverture insuffisante – renseignements incomplets. Erreur de représentativité : Idéalement, un système d'observation devrait fournir des renseignements sur toutes les variables du modèle à chaque temps initial, caractéristiques de toutes les échelles du modèle et sur la grille du modèle. Les échelles non résolues par le modèle sont échantillonnées par les observations. L'incertitude liée aux conditions initiales peut être divisée en deux groupes : l'incertitude liée aux observations et l'incertitude associée à l'assimilation des données. L'incertitude liée aux observations provient d'erreurs de mesure et de représentativité. Cliquez sur le bouton « retour » pour continuer, puis sur le mot « Incertitude » en rouge sur fond bleu foncé (au milieu) pour continuer.

Sources d'erreur – incertitudes Incertitudes liées aux conditions initiales : Erreurs d'assimilation des données : Déficience du contrôle de la qualité des données. Déficience des champs d’essai qui sont généralement des prévisions de 6-h du modèle. Caractéristiques statistiques non représentatives des erreurs d’observations et des erreurs des champs d’essai. Lacunes du schéma d'assimilation des données. L'incertitude relative à l'assimilation des données provient de déficiences du contrôle de la qualité des données, déficiences des champs d’essai, de matrices de covariance des erreurs d'observation et des champs d’essai non représentatives, ainsi que de déficiences internes au processus d'assimilation des données lui-même. Cliquez sur le bouton « retour » pour continuer, puis sur le mot « Incertitude » en jaune sur fond vert (sur la droite) pour continuer.

Sources d'erreur – incertitudes Incertitudes liées à la modélisation : Troncature temporelle et spatiale – manque de résolution. Impact des processus non résolus. Formulation dynamique. Paramétrage des processus physiques. Hypothèses de fermeture. Approximations liées à la représentation numérique. Manque de compréhension de la physique de l'atmosphère. Erreurs de codage. Variabilité de modèle – une résolution accrue peut favoriser la variabilité de modèle. Conditions frontières imparfaites : Champs prescrits (p. ex. végétation, type de sol, etc.). Champs analysés (p. ex. humidité du sol, température à la surface de la mer, etc.). Les incertitudes de modélisation sont principalement liées aux approximations effectuées dans le modèle, au paramétrage des processus de petite échelle et aux erreurs de troncature de l'espace et du temps. Les erreurs de définition des conditions frontières et de caractérisation de la surface terrestre représentent également une source importante d'incertitude.

Sources d'erreur – incertitudes Dépendance sur les conditions initiales : Un tout petit écart dans l'état initial de l'atmosphère peut entraîner un gros écart dans la prévision – effet chaos. Le degré de précision numérique des conditions initiales présentées à un modèle de prévision numérique du temps peut avoir d'importantes répercussions sur la prévision, même sur de courtes périodes. Facteur favorisant la variabilité de modèle. L’aspect prédictibilité de l’atmosphère est chaotique et les prévisions dépendent beaucoup des conditions initiales. Un tout petit écart dans l'état initial de l'atmosphère peut entraîner un gros écart dans la prévision. Les écarts augmentent proportionnellement avec le temps de prévision. La croissance des erreurs dominent et le signal de prévision est perdu. C’est ce que l’on appelle l’effet chaos. La dépendance sur les conditions initiales est un facteur favorisant la variabilité de modèle. Effet chaos

Sources d'erreur Modèle du chaos de Lorenz Le modèle décrit le mouvement convectif d'un fluide dans une petite cellule idéalisée de Rayleigh-Bénard. Chaud Froid Le modèle du chaos conçu par Lorenz au début des années 1960 est la meilleure illustration possible de la subordination des prévisions aux conditions initiales. Lorenz étudiait la prévisibilité des solutions aux équations hydrodynamiques. Le modèle qu'on lui doit peut être perçu comme la simplification exagérée d'un trait caractéristique de l'atmosphère, à savoir le mouvement des fluides mus par une flottabilité thermique connue sous le nom de convection, bien qu'en théorie ce modèle ne soit supposé représenter qu'une série d'équations dont les solutions donnent un exemple extrêmement simple de flux déterministe non périodique. Le modèle décrit le mouvement convectif d'un fluide dans une petite cellule idéalisée de Rayleigh-Bénard. Ce modèle est idéalisé pour trois raisons : les conditions frontières du fluide au niveau de la plaque supérieure et de la plaque inférieure ne comportent aucun stress contrairement à la supposition plus réaliste de l’absence de frottement; les conditions limites latérales sont considérées comme périodiques et ne correspondent donc pas à des parois latérales réalistes et le mouvement est supposé bidimensionnel alors qu'il est en réalité tridimensionnel. Ces trois modifications simplifient allègrement l'analyse mathématique. Lorenz a « dédimensionné » les variables par rapport à la dimension (la profondeur de la cellule), l’intervalle de temps (le temps de diffusion thermique dans la profondeur de la cellule) et la température. Lorenz a élaboré son modèle en utilisant des équations dans l'espace de phase. X est l'intensité du mouvement de convection, Y la différence de température entre les courants ascendants et descendants et Z la distorsion du profil verticale des températures par rapport à la linéarité. Les équations sont autonomes (le temps n'apparaît pas explicitement du côté droit); elles ne comportent qu'une dérivée de temps du premier ordre, de sorte que l'évolution ne dépend que de la valeur instantanée de X, Y et Z; elles sont non linéaires, dissipatives et leurs solutions sont bornées. X = intensité du mouvement de convection Y = différence de température entre les courants ascendants et descendants. Z = distorsion du profil verticale des températures par rapport à un profil linéaire X et Y sont du même signe : ascension du fluide chaud et subsidence du fluide froid. Variable Z positive : les plus forts gradients surviennent près des frontières. Basé sur Lorenz, 1963

Sources d'erreur Modèle du chaos de Lorenz Équations simplifiées de Navier-Stokes Non linéaires Valeur des constantes de Lorenz : s = 10 r = 24,74 b = 8/3 Cliquez sur le papillon pour lancer une application du modèle du chaos de Lorenz. Dès que l'application apparaît, cliquez n'importe où dans la fenêtre pour lancer le modèle. Vous pouvez lancer deux modèles en même temps et suivre l'évolution des trajectoires en fonction du temps. Si vous cliquez rapidement à deux endroits très rapprochés l’un de l’autre dans la fenêtre, deux trajectoires divergentes dans le temps apparaissent. Notez que lorsque vous cliquez deux fois au même endroit l'application introduit un petit écart entre les points de départ des deux trajectoires. Le papillon de Lorenz illustre le haut niveau de subordination des prévisions aux conditions initiales. Note: la photo sur cette diapositive (papillon) est de Richard Verret. Certains régimes sont privilégiés. Les trajectoires dans l'espace de phase sont hautement prévisibles, sauf lorsqu'elles entrent dans la zone de sensibilité (à proximité de l'intersection entre les régimes). Basé sur Lorenz, 1963

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. L'assimilation des données est le processus permettant de projeter les données d'observation inégalement réparties dans l'espace et dans le temps sur une grille. Elle nécessite des champs d’essai, des observations avec contrôle de qualité et des statistiques d'erreur sur les observations comme sur les champs d’essai. Les modèles résolvent les équations primitives afin de prévoir les états futurs de l'atmosphère. Les processus physiques qui se produisent aux échelles non résolues dans le modèle doivent être paramétrés. Tendance à la conception de modèles de plus haute résolution. La résolution est un enjeu majeur de la physique des modèles. Les erreurs sont omniprésentes à toutes les étapes de la PNT – observations, conditions initiales, conditions frontières et processus de modélisation. Les prévisions dépendent fortement des conditions initiales à cause de l’effet chaos. D'où une incertitude inhérente au processus de prévision numérique du temps. Questions ? Jusqu'ici, nous avons vu...

Concepts de base Les SPE simulent : L'incertitude inhérente aux conditions initiales. L'incertitude inhérente aux simulations numériques. Les erreurs de prévisions qui sont fonction de la circulation. Cette image aussi est inspirée du modèle du chaos de Lorenz. Les systèmes de prévision d'ensemble tentent de simuler l'incertitude relative aux conditions initiales et aux simulations numériques. Certaines situations ou états de l'atmosphères ont un taux élevé de prédictibilité. Par exemple, sur le panneau de gauche, nous pourrions partir de conditions initiales qui conduisent à un nombre limité d'états futurs possibles. En revanche, sur le panneau du milieu, le nombre d'états de l’atmosphère susceptibles d'évoluer à partir de conditions initiales différentes est important, ce qui réduit le taux de prédictibilité. En ce qui concerne le panneau de droite, les conditions initiales conduisent à de possibles états futurs de l’atmosphère dont le degré de dispersion réduit et tel que la prédictibilité du système est réduite à néant. R. Buizza, ECMWF

Concepts de base Les SPE simulent les incertitudes inhérentes à la PNT : Conditions initiales. Simulations numériques. Conditions frontières (y compris les forçages de surface). Les erreurs de prévisions qui sont fonction de la circulation. La prévision d'ensemble fondée sur un nombre fini d'intégrations déterministes semble être la seule méthode plausible pour calculer la fonction de densité de probabilité (fdp) au-delà des limites de la croissance linéaire des erreurs. L’aspect prédictibilité de l’atmosphère est chaotique : La prédictibilité dépend de la circulation et des conditions initiales. Plusieurs intégrations de modèles (avec différentes conditions initiales et/ou caractéristiques d’erreurs de modèle et/ou conditions frontières). Exploration de différentes réalisations réalistes de l'atmosphère. Production d’estimations quantitatives des probabilités. Les systèmes de prévision d'ensemble (SPE) simulent toutes les sources d'incertitude inhérentes au processus de modélisation numérique, des observation aux prévisions finales en passant par l'assimilation des données. Nous savons qu’il y a un effet chaos dans l'atmosphère et qu'il est par conséquent impossible que les prévisions déterministes expriment toute l’information. Les SPE fournissent des moyens permettant d'évaluer l'incertitude et la prédictibilité sous forme de prévisions probabilistes et de fonctions de densité de probabilité. Les SPE ont pour but ultime de produire des estimations d'incertitude et de prédictibilité, en fonction de la circulation. Certaines situations ont un taux élevé de prédictibilité, d'autres un taux plus faible.

Concepts de base Qualités attendues des SPE : Coûts associés aux SPE : Rapport dispersion-habileté. Les réalisations des SPE doivent inclure la véritable solution. Membres en nombre suffisant pour définir la fdp. Coûts associés aux SPE : Contraintes en temps réel – les sorties devraient être disponibles peu après celles des modèles déterministes. La résolution des membres est généralement plus basse que celle des modèles déterministes : Par conséquent, les performances individuelles de chaque membre de l'ensemble seront mathématiquement plus faibles que celles du modèle déterministe de plus haute résolution (du moins sur des périodes de prévision courtes). Pour atteindre cet objectif, les systèmes de prévision d'ensemble doivent présenter un rapport dispersion-habileté. Les SPE doivent être suffisamment dispersifs (variance suffisamment élevée entre les membres) pour inclure les conditions réelles. Et le nombre de membres doit être suffisant pour raisonnablement échantillonner la fonction de densité de probabilité associée à la prévision. Il y des contraintes imposées aux SPE. La disponibilité des sorties des SPE doit se rapprocher le plus possible de celles du modèle déterministe si on veut pouvoir les utiliser pour évaluer la prédictibilité de la situation considérée. Les SPE représentent par conséquent un compromis entre la résolution des membres, le nombre de membres et la disponibilité des ressources informatiques. La résolution des membres des SPE est en règle générale plus basse que celle du modèle déterministe, ce qui implique que les performances des membres des SPE soient mathématiquement plus faibles que celles du modèle déterministe, du moins sur des périodes de prévision courtes.

Incertitude de état initial Concepts de base États finaux États initiaux Incertitude de état initial Prévision déterministe Analyse Moyenne d'ensemble Cette image donne une description d’un système de prévision d'ensemble. Plusieurs intégrations de modèle sont lancées à partir de conditions initiales légèrement différentes afin de fournir un ensemble de solutions possibles. Idéalement, on trouvera les conditions initiales véritables, qui sont inconnues, et l'analyse déterministe, qui constitue une approximation de l’état initial véritable, parmi les états initiaux perturbés. Idéalement, les solutions offertes par les membres de l'ensemble comprendront aussi la réalité future, qui est inconnue, en plus de la solution proposée par le modèle déterministe de résolution supérieure. De tels systèmes tenteront de simuler l'incertitude des conditions initiales par l'échantillonnage de la densité de probabilité de l’état initial avec des analyses légèrement différentes. Cela permettra de simuler l'incertitude de la prévision au moyen de divers scénarios. Les statistiques peuvent alors servir pour évaluer les probabilités des événements. Il est possible qu’un ou plusieurs membres soient à l’extérieur de la climatologie. État initial véritable État final véritable Climatologie R. Verret, N. Gagnon, CMC

Concepts de base membres fdp(t) modèle déterministe conditions réelles Intervalle de prévision membres modèle déterministe conditions réelles Voici une autre interprétation des systèmes de prévision d'ensemble placée cette fois-ci sous l'angle des fonctions de densité de probabilité. Une fonction de densité de probabilité représentant les conditions initiales est créée. Différents membres sont intégrés dans le temps à partir de différentes conditions initiales constituant des échantillons de cette fonction de densité de probabilité. L'ensemble de membres définit une fonction de densité de probabilité prévue à un intervalle de temps donné t. Dans cet exemple, le modèle déterministe (épaisse courbe noire) ne parvient pas à prévoir correctement les conditions réelles. En revanche, la fonction de densité de probabilité multimodale générée par l'ensemble de membres indique correctement une probabilité supérieure pour des états de l’atmosphère proches des conditions réelles. R. Buizza, CEPMMT

Concepts de base Les membres constituent un échantillonnage de la vraie fdp prévue sous les hypothèses suivantes : L’ensemble des conditions initiales constitue un échantillonnage parfait de la vraie fdp des conditions initiales. Les membres sont parfaits. fdp(0) fdp(t) Intervalle de prévision Le but des systèmes de prévision d’ensemble est de fournir de l’information sur l’incertitude ayan trait à l’état futur de l’atmosphère. Plutôt que de lancer les modèles une fois à partir de conditions initiales uniques, un ensemble de conditions initiales sont spécifiées, et le ou les modèles sont intégrés dans le temps (membres). La gamme de valeurs ainsi produites par l’ensemble des prévisions donne une information sur la confiance dans la prévision. Il y a deux conditions importantes qui doivent être rencontrées pour que nous puissions interpréter l’ensemble des valeurs prévues comme un échantillonnage de la vraie fdp prévue : 1) l’ensemble des conditions initiales doit être un échantillonnage parfait de la vraie fdp initiale et 2) les membres doivent être parfaits. En pratique, ces conditions ne sont jamais rencontrées. Mais une prévision d’ensemble probabiliste « incorrecte » n’est pas nécessairement inutile. Avec un ensemble de conditions initiales sensées, un post-traitement approprié et des résultats de vérification, une information utile peut être extraite de prévisions d’ensemble imparfaites.

Concepts de base Les systèmes de prévision d'ensemble échantillonnent la fonction de densité des probabilités des conditions initiales. L'ensemble des prévisions (membres) forme un ensemble d'échantillons de la fonction de densité de probabilité prévue. Dans un système de prévision d'ensemble fiable et équilibré... Une dispersion (variance entre les membres) réduite est l'indice d'une prévision plus performante – rapport dispersion-habileté. Les membres sont équiprobables. Les systèmes de prévision d'ensemble échantillonnent les conditions initiales, et les membres échantillonnent la fonction de densité de probabilité prévue. Dans un système de prévision d'ensemble équilibré, il y a un rapport dispersion-habileté (plus la dispersion est importante, plus la prédictibilité est réduite, et plus l’habileté attendue des prévisions est faible) et tous les membres sont équiprobables. Ces principes impliquent que les membres possèdent tous des performances similaires.

Rapport dispersion-habileté BSS pour tous les membres et la moyenne d’ensemble PdP 12 h (0,2 mm) 1 juin 2000 au 31 décembre 2000 Heures de prévision Moyenne Ce graphique représente l'indice d’habileté de Brier pour les prévisions parfaites (PP) de la probabilité des précipitations sur un intervalle de 12-h pour chacun des 16 membres du système de prévision d'ensemble canadien. Il y a une courbe pour chaque membre. On peut observer que l’indice d’habileté de Brier pour chaque membre franchit la ligne zéro (aucune habileté par rapport à la climatologie) à environ 96-h. La courbe mauve correspond à la prévision fondée sur le modèle déterministe de résolution supérieure. Les prévisions basées sur le modèle déterministe perdent leur habileté par rapport à la climatologique à environ 120-h, ce qui indique que les membres pris isolément sont moins performants que le modèle déterministe. L'épaisse ligne rouge représente l’indice d’habileté de Brier de la moyenne d'ensemble des probabilité des précipitations sur un intervalle de 12-h. Les prévisions moyennes indiquent une hausse de prédictibilité par rapport aux membres pris individuellement et par rapport au modèle déterministe. On note aussi une diminution asymptotique de leur habileté vers zéro au fur et à mesure que le temps de prévision s’allonge. Cette observation ne signifie pas que toutes les prévisions moyennes d'ensemble sont bonnes. Nous avons procédé à cette expérience pour montrer qu'il était possible d'obtenir de meilleures prévisions en se fondant sur les SPE plutôt que sur un modèle déterministe unique. On observera également sur ce graphique une convergence du système de prévision d'ensemble vers la climatologie aux temps de prévision les plus longs. F. Pithois, Météo-France

Rapport dispersion-habileté Bonne association prévision/écart Mauvaise association Séparation Heures de prévision Proportion du nombre total de cas Prévisions Bien Mauvais Réduit N1 N2 Important N3 N4 Ecart Échec de la prévision (N2 + N3) Succès de la prévision (N1 + N4) Ce graphique représente le rapport dispersion-habileté du système de prévision d'ensemble. On crée des tables de convergence de dimension 2X2. Les colonnes correspondent aux bonnes ou aux mauvaises prévisions et les rangées à une variance entre les prévisions réduite ou importante. Les prévisions utilisées ici sont celles des probabilités de précipitations sur un intervalle de 12-h basées sur l’approche prévisions parfaites (PP) pour chaque membre de l'ensemble. Toutes les prévisions sont vérifiées sur l'ensemble de l'échantillon de vérification. On détermine la valeur médiane des scores de vérification. Une prévision est jugée bonne lorsque son score de vérification est supérieur à la valeur médiane (pour un score de vérification positif, plus le score sera élevé, meilleure sera la prévision). Une prévision est jugée mauvaise lorsque son score de vérification est inférieur à la valeur médiane. Dans la même veine, on procède au calcul de l’écart-type entre les prévisions et à l'évaluation de sa valeur médiane sur l'ensemble de l'échantillon de vérification. Pour chaque cas, l'écart-type est jugé réduit lorsqu'il est inférieur à la valeur médiane et important lorsqu'il est supérieur à la valeur médiane. Les bonnes prévisions associées à un écart-type réduit et les mauvaises prévisions associées à un écart-type important sont représentées sur le graphique (courbe rouge). Cette courbe représente les prévisions qui sont correctement associées à l’écart-type : les bonnes prévisions associées à un écart-type réduit et les mauvaises prévisions associées à un écart-type important. La courbe bleue est le reflet de la courbe rouge et renseigne sur les mauvaises associations prévision/écart-type : les bonnes prévisions associées à un écart-type important et les mauvaises prévisions associées à un écart-type réduit. La courbe bleue se situe toujours sous la courbe rouge, quelle que soit l'heure de prévision – il y a plus de cas où l’association prévision/écart-type est correcte que de cas où l’association prévision/écart-type est inversée. La différence entre les deux est significative sur le plan statistique. Ceci montre que l'ensemble présente un rapport dispersion/habileté : l’habileté attendue des prévisions est élevée quand l'écart-type est réduit ou la prédictibilité est élevée quand l'écart-type est réduit. Inversement, la prédictibilité est réduite lorsque l'écart-type entre les membres est important. Noter que la variance peut aussi être utilisée comme mesure de la dispersion entre les membres. F. Pithois, Météo-France

Rapport dispersion-habileté Diagramme de dispersion entre EQM journalière et l’écart-type de l’ensemble pour la hauteur géopotentielle à 500 hPa en 2013 prévue au jour 6 par différents centres internationaux sur la région couvrant l’hémisphère nord. L’EQM est calculée pour chaque centre par rapport à leurs propres analyses. Un SPE bien équilibré aura ses points sur la diagonale (moins d’écart-type signifiera moins d’erreur alors que plus d’écart-type indiquera plus d’erreur). Ceci est une courtoisie du musée TIGGE de l’agence météorologique japonaise (http://tparc.mri-jma.go.jp/TIGGE/).

Rapport dispersion-habileté Habileté attendue plus faible quand la variance est élevée Habileté attendue plus grande quand la variance est faible Indice de Brier en fonction des terciles de variance 1 juin 2000 au 31 décembre 2000 Note: plus l’indice de vérification est élevé, meilleures sont les prévisions Ce graphique illustre la performance moyenne des prévisions de probabilité de précipitations sur 12 heures basées sur l’approche prévision parfaite (PP) faites avec chaque membre de l’ensemble en fonction des terciles de variance entre les membres. On observe que l’habileté attendue des prévisions est élevée lorsque la variance entre les membres est réduite. Inversement, l’habileté attendue des prévisions est réduite lorsque la variance entre les membres est élevée. Une courbe est associée à chaque heure de prévision, de 12-h à 240-h. Les même conclusions s’appliqueraient si l’écart-type avait été utilisé comme mesure de la dispersion entre les membres au lieu de la variance. petite variance grande variance F. Pithois, Météo-France

Rapport dispersion-habileté Validation de l’habileté des prévisions de GZ Extra-Tropiques nord 500 hPa Juin 2009 Validation de l’habileté des prévisions de GZ Domaine global 500 hPa Juin 2009 Nombre de prévisions Nombre de prévisions Ces deux graphiques illustrent les cas de bonnes prévisions associées à un écart (écart-type, variance ou dispersion) réduit et de mauvaises prévisions associées à un écart important (courbe continue). Ceci représente les associations correctes entre les prévisions et les écarts : les bonnes prévisions associées à une dispersion réduite et les mauvaises prévisions associées à une dispersion importante. La courbe pointillée est le reflet de la courbe continue et renseigne sur les mauvaises associations prévision/écart : les bonnes prévisions associées à un écart important et les mauvaises prévisions associées à un écart réduit. La courbe pointillée se situe toujours sous la courbe continue, quelle que soit l'heure de prévision ce qui témoigne d'un rapport dispersion/habileté du système de prévision d'ensemble. En fait la séparation est nette entre les prévisions correctement associées à l’écart et celles qui ne le sont pas. Les prévisions vérifiées ici sont celles des hauteurs géopotentielles à 500 hPa produites au cours du mois de juin 2009. Le graphique de gauche s’applique aux extra-tropiques Nord et le graphique de droite s’applique au globe. Maximum possible de succès Prévu correctement Prévu incorrectement Échecs inévitables Maximum possible de succès Prévu correctement Prévu incorrectement Échecs inévitables Temps (jours) Temps (jours)

Rapport dispersion-habileté Lorsque la dispersion du SPE est importante, la prévision déterministe devrait donner une estimation peu fiable des conditions réelles. Inversement, lorsque la dispersion du SPE est faible, la prévision déterministe correspondante devrait être fiable. En théorie, dans un SPE fiable et équilibré : Le rapport dispersion-habileté suppose que la prévision déterministe risque d'être peu fiable lorsque la dispersion entre les membres de l'ensemble est grande. En sens inverse, le modèle déterministe devrait être plus fiable lorsque la dispersion entre les membres de l'ensemble est petite. En théorie, on peut démontrer que la moyenne temporelle de la dispersion de l’ensemble est égale à la valeur moyenne de l’erreur quadratique moyenne de la moyenne d’ensemble (cliquez sur le texte pour un exemple et sur cliquer sur le bouton de retour pour revenir à la présente diapositive). On peut en outre démontrer que la valeur moyenne de l’erreur quadratique moyenne de n'importe quel membre de l'ensemble est égale à la racine carrée de deux fois l’erreur quadratique moyenne de la moyenne d’ensemble (cliquez sur les boîtes rouges pour un exemple). Dispersion de l’ensemble = EQM de la moyenne d’ensemble EQM d’un membre = fois l’EQM de la moyenne d’ensemble

Vérification Erreur quadratique moyenne de la moyenne d'ensemble Qualité des prévision d’ensemble Novembre 2009 Domaine global – 500 hPa Validation contre analyse Erreur quadratique moyenne de la moyenne d'ensemble Haute résolution Basse résolution Écart de l’ensemble Moyenne d’ensemble Scores moyens Dispersion de l’ensemble EQM en dam Ce graphique indique l’erreur quadratique moyenne de différentes composantes du système de prévision d'ensemble canadien concernant les prévisions des géopotentiels à 500 hPa. La période de vérification est le mois de novembre 2009 et le domaine de vérification est le globe. Nous avons mis en valeur deux courbes : l’erreur quadratique moyenne de la moyenne d'ensemble et la dispersion (écart-type) entre les membres. Dans un ensemble bien étalonné, ces deux courbes devraient rester très proches l'une de l'autre. Ici, la dispersion entre les membres est inférieure à l’erreur quadratique moyenne de la moyenne d'ensemble, ce qui indique que le système de prévision d'ensemble est sous-dispersif. L'explication des autres courbes fera l'objet de la diapositive suivante. Cliquez sur le bouton « retour » pour continuer. Jours de prévision

Vérification Qualité des prévision d’ensemble Novembre 2009 Domaine global – 500 hPa Validation contre analyse Moyenne de l’erreur quadratique moyenne des membres d'ensemble Erreur quadratique moyenne du modèle déterministe de haute résolution Haute résolution Basse résolution Écart de l’ensemble Moyenne d’ensemble Scores moyens Erreur quadratique moyenne de la moyenne d'ensemble EQM en dam Ce graphique indique l’erreur quadratique moyenne des prévisions des hauteurs géopotentielles à 500 hPa de différentes composantes du système de prévision d'ensemble canadien. La période de vérification est le mois de novembre 2009 et le domaine de vérification est le globe. Nous avons mis en valeur trois courbes : l’erreur quadratique moyenne de la moyenne d'ensemble, la moyenne de l’erreur quadratique moyenne des membres d'ensemble et l’erreur quadratique moyenne du modèle déterministe de haute résolution. L’erreur quadratique moyenne de la moyenne d’ensemble est inférieure à celle du modèle déterministe de haute résolution après trois ou quatre jours de prévision. La moyenne de l’erreur quadratique moyenne des membres est supérieure à celle de la moyenne d'ensemble et du modèle déterministe de haute résolution. Dans un ensemble bien équilibré, l’erreur quadratique moyenne des membres de l’ensemble devrait être égale à la racine carrée de deux fois l’erreur quadratique moyenne de la moyenne d'ensemble. La courbe dont nous n'avons pas encore parlé correspond à l’erreur quadratique moyenne du membre contrôle. Jours de prévision

SPE et prévisions probabilistes En cas de rapport dispersion-habileté, il est possible de produire des prévisions probabilistes à partir des membres d'ensemble : Écart réduit Forte probabilité d’occurrence Écart important Faible probabilité d’occurrence Si il y a un rapport dispersion-habileté, il est possible de produire des prévisions probabilistes à partir des membres d'ensemble.

SPE et prévisions probabilistes Un SPE doit compter suffisamment de membres : Les membres échantillonnent la fonction sous-jacente de densité de probabilité. En principe, plus l'ensemble compte de membres, mieux c’est pour établir la fdp et les prévisions probabilistes : Un ensemble important peut introduire une résolution probabiliste non nécessaire, mais aide néanmoins au calcul de la fdp. Seul un ensemble important peut explorer les queues des distributions – événements de faible probabilité mais de fort impact. La taille de l'échantillon de vérification sera proportionnelle à la taille de l'ensemble. Un ensemble est un compromis entre la résolution et le nombre de membres en fonction des ressources informatiques disponibles. Chaque membre devrait être doté des mêmes performances – équiprobabilité des membres. En pratique, on considère généralement que quelques dizaines de membres suffisent. En principe, les systèmes de prévision d'ensemble devraient compter suffisamment de membres pour générer des prévisions probabilistes parce qu’il est nécessaire de procéder à un échantillonnage satisfaisant de la fonction sous-jacente de densité de probabilité. En fait, plus l'ensemble compte de membres, plus il devrait être aisé d'établir la fonction de densité de probabilité. Nous devons néanmoins réaliser que la taille de l'échantillon de vérification sera proportionnelle à la taille de l'ensemble, car un nombre important de membres autorise le système à prévoir des événements avec une meilleure résolution probabiliste et à tenter de prévoir des événements rares dans les queues des distributions. L'échantillon de vérification devra être suffisamment important pour que ces événements rares soient bien représentés et être ainsi en mesure de valider convenablement les prévisions probabilistes. En résumé, la composition d'un SPE est un compromis entre la résolution des membres, le nombre de membres et la disponibilité des ressources informatiques. On considère en général que quelques dizaines de membres suffisent. Il convient tout de même de noter qu’à cause du nombre fini de membres il y aura toujours de l'incertitude dans l'estimation de l'incertitude.

SPE et prévisions probabilistes La dispersion (ou variance) entre les membres d'un SPE est fonction de la circulation : les probabilités sont par conséquent fonction de la circulation. La dispersion de l'ensemble est fonction de la circulation.

SPE et prévisions probabilistes Comptage des membres : Méthode directe. Apporte une estimation de l'incertitude : Repose sur l'hypothèse d’une performance parfaite des membres et d'une parfaite dispersion de l'ensemble (fdp prévue). Nombre minimum requis de membres. Si l’ensemble est fiable, cette estimation de l’incertitude correspond à une probabilité : La probabilité comprise comme une expression de l'incertitude. Probabilité que la prévision vérifie contre une occurrence de l’événement. La fiabilité peut être garantie par étalonnage – post-traitement statistique. Comment obtenir des prévisions probabilistes à partir du système de prévision d'ensemble ? Une méthode simple consiste à diviser le nombre de membres prévoyant l’occurrence d'un événement par le nombre total de membres. Ce calcul sera valable avec un nombre total de membres suffisant, et d’autant plus si le SPE est fiable. Ces soit disant « probabilités » peuvent être interprétées comme une mesure de l'incertitude : lorsque la probabilité est faible, la majorité des membres rejette la possibilité d’occurrence de l'événement. Inversement, lorsque la probabilité est forte, une majorité de membres approuvent la possibilité d’occurrence de l'événement. Si ces probabilités sont fiables, elles indiquent la probabilité que la prévision se vérifiera par l’occurrence du phénomène prévu. Notez qu'un manque de fiabilité peut être corrigé par un post-traitement statistique sur un échantillon de vérification. Cliquer sur le mot « incertitude » pour voir une description d’un SPE en terme de fdp. Cliquer ensuite sur le bouton retour pour revenir à cette diapositive-ci. Cliquer sur le mot « fiable » pour voir le terme de fiabilité tel que défini dans l’indice de Brier. Cliquer ensuite sur le bouton retour pour revenir à cette diapositive-ci.

SPE et prévisions probabilistes fdp(0) fdp(t) Intervalle de prévision membres modèle déterministe conditions réelles Voici une interprétation des systèmes de prévision d'ensemble placée sous l'angle des fonctions de densité de probabilité. Une fonction de densité de probabilité représentant les conditions initiales est créée. Différents membres sont intégrés dans le temps à partir de différentes conditions initiales constituant des échantillons de cette fonction de densité de probabilité. L'ensemble de membres définit une fonction de densité de probabilité de prévue à un intervalle de temps donné t. Dans cet exemple, le modèle déterministe (épaisse courbe noire) ne parvient pas à prévoir correctement les conditions réelles. En revanche, la fonction de densité de probabilité multimodale générée par l'ensemble de membres indique correctement une probabilité supérieure pour des états de l’atmosphère proches des conditions réelles. Cliquer sur le bouton retour pour continuer. R. Buizza, CEPMMT

SPE et prévisions probabilistes Fiabilité Ce diagramme d'attributs présente le terme de fiabilité de l'indice de Brier pour un système de prévision théorique. Ce composant mesure la différence entre la classe de probabilités prévues et la fréquence observée correspondante de l'événement. Plus le terme de fiabilité est faible, plus l'indice de Brier est faible. L'indice de Brier est orienté négativement : plus l'indice est faible, meilleures sont les prévisions. La fiabilité parfaite suppose que le terme de fiabilité de l'indice de Brier est égale à 0. Le terme de fiabilité mesure la superficie de la zone en bleu sur le diagramme d'attributs ou l'écart de la courbe de fiabilité par rapport à la diagonale. La climatologie en tant que prévision présente une fiabilité parfaite. Cliquer sur le bouton retour pour continuer R. Verret, CMC

SPE et prévisions probabilistes Voici un exemple de prévision probabiliste. Cet exemple montre la probabilité que les hauteurs de précipitations sur 24 heures dépasseront 2 mm au cours de la période de 24 heures fixée entre 00 UTC le 13 janvier 2010 et 00 UTC le 14 janvier 2010. Cette prévision a été émise à 00 UTC le 8 janvier 2010 (prévision sur 6 jours). J. Hodgson, CMC

Probabilité de hauteurs de précipitations sur 24 h Nombre de membres Probabilité (%) 5 25 10 50 15 75 20 100 1 6 30 11 55 16 80 2 7 35 12 60 17 85 3 8 40 13 65 18 90 4 9 45 14 70 19 95 Précipitations de plus de 2 mm/24 h Période de calibration: 200903-200905 Seuils originaux à 22, 47, 72% Précipitations de plus de 5 mm/24 h Période de calibration: 200903-200905 Seuils originaux à 22, 47, 72% Précipitations de plus de 10 mm/24 h Période de calibration: 200903-200905 Seuils originaux à 22, 47, 72% 53 Cette diapositive explique comment on peut calibrer les prévisions de probabilité de précipitations. Le tableau figurant en haut de la diapositive dresse la liste des valeurs de probabilités prévues possibles pour un ensemble composé de 20 membres. Supposons que nous voulions afficher les courbes de probabilité à 22%, 47% et 72% (ces trois valeurs définissent les quartiles de probabilités pour un ensemble de 20 membres). Un échantillon de vérification permet de calculer la fréquence observée de l'événement pour chaque valeur de probabilité prévue, dans le but de ré-étiqueter ces valeurs. Par exemple, pour les probabilité d’avoir 5 mm ou plus de précipitations par intervalle de 24 h, l'échantillon de vérification indique que lorsque la probabilité prévue est de 22 % (courbe inférieure sur le graphique du milieu), la fréquence observée de l'événement est de 15 % au quatrième jour de prévision. Il est donc possible de ré-étiqueter cette valeur de probabilité de 22 % en valeur de probabilité de 15 %. Dans la même veine, lorsque la valeur de probabilité est de 47 %, la fréquence observée de l'événement (hauteur de précipitation de 5 mm ou plus sur un intervalle de 24 h) est de 34 % au quatrième jour de prévision (courbe intermédiaire sur le graphique du milieu). On peut alors ré-étiqueter cette valeur en valeur de probabilité de 32 %. Enfin, de façon similaire, la valeur de probabilité de 72 % peut être ré-étiquetée en valeur de probabilité de 53 %. Cet étalonnage permet de garantir la fiabilité de la prévision probabiliste mais est effectué au détriment de l’acuité. Cliquer sur le bouton retour pour revenir au produit de probabilité de hauteurs de précipitations sur 24 h. Pourcentage calibré Pourcentage calibré Pourcentage calibré 34 15 Jours de prévision Jours de prévision Jours de prévision P. Houtekamer, ARMA and M. Klasa, CMC

SPE et prévisions probabilistes Groupement : Permet de grouper les membres en fonction de leurs similitudes. Crée des sous-ensembles de scénarios possibles. La probabilité d‘occurrence est proportionnelle au nombre de membres favorisant chaque scénario. fdp : fdp empirique. Ajustement de fdp aux données. Mesure des tendances centrales et de dispersion. Méthodes bayesiennes. Grouper les membres en fonction de leurs similitudes est une autre méthode utilisée pour produire des prévisions probabilistes. On va ainsi créer des sous-ensembles de scénarios possibles dont la probabilité d'occurrence s'évaluera en fonction du nombre de membres de chaque groupe. L'ensemble permet également de définir une fonction de densité de probabilité. On peut obtenir une fonction de densité de probabilité empirique directement à partir des membres. Il est en outre possible de calculer des mesures de tendance centrale, ainsi que des mesures de dispersion, dans le but d'ajuster une distribution théorique au problème observé. Le recours aux méthodes bayesiennes est également envisageable.

EPS-grams Ceci est un exemple de SPE-grammes. Ce type de diagrammes donne de l’information sur les Fonctions Densité Probabilités prévues.

SPE et prévisions probabilistes Voici un exemple de méthode bayesienne appliquée à un ensemble. Nous étudierons ce point plus en détail au module 5 – Produits des SPE. Globalement, cette méthodologie repose sur la pondération des membres en fonction de leur performance à partir d'un échantillon d'apprentissage, ainsi que sur l'application d'une fonction noyau (distribution normale), dans le but de générer la fonction de densité de probabilité pour les températures. La ligne verte verticale correspond à la médiane de la fdp. Les deux lignes noires verticales situées de part et d'autre indiquent une probabilité de 80 % : la probabilité que l'observation s'inscrive dans la fourchette des valeurs de température définie par les deux lignes noires verticales est de 80 %, à condition que la fdp soit fiable. S. Beauregard, CMC

SPE et prévisions probabilistes La valeur des SPE réside dans les prévisions probabilistes – probabilités et fdp. Chaque membre pris isolément a moins de valeur intrinsèque que le modèle déterministe : Qualité et performance plus faibles. Plus basse résolution. Initialisation à partir de conditions initiales perturbées. Conditions frontières perturbées et physique perturbée. Chaque membre est sujet à la variabilité de modèle. Il est inutile de vouloir déterminer le « membre du jour » : Tâche très difficile, surtout si le nombre de membres est élevé. Dans ce cas précis, il serait préférable d’utiliser le modèle déterministe de résolution supérieure. Vous devez toujours garder à l'esprit que la valeur des SPE réside dans les prévisions probabilistes. Les SPE ne sont pas conçus pour générer des prévisions consensuelles. Chaque membre pris isolément devrait avoir une performance plus faible que celle de la moyenne d'ensemble et que celle du modèle déterministe de résolution supérieure. Il est inutile de vouloir déterminer le « membre du jour ». L'important est d’étudier la dispersion des membres d'ensemble, afin d'obtenir une idée approximative de l'incertitude relative au problème d’intérêt. Cliquer sur le texte souligné pour voir un exemple. Cliquer ensuite le bouton retour pour revenir à cette diapositive-ci.

SPE et prévisions probabilistes Qualité des prévision d’ensemble Novembre 2009 Domaine global – 500 hPa Validation contre analyse Moyenne de l’erreur quadratique moyenne des membres d'ensemble Erreur quadratique moyenne du membre contrôle Haute résolution Basse résolution Écart de l’ensemble Moyenne d’ensemble Scores moyens Erreur quadratique moyenne du modèle déterministe de haute résolution Erreur quadratique moyenne de la moyenne d'ensemble EQM en dam Ce graphique indique l’erreur quadratique moyenne des prévisions des hauteurs géopotentielles à 500 hPa de différentes composantes du système de prévision d'ensemble canadien. La période de vérification est le mois de novembre 2006 et le domaine de vérification est le globe. Nous avons mis en valeur trois courbes : l’erreur quadratique moyenne de la moyenne d'ensemble, la moyenne de l’erreur quadratique moyenne des membres d'ensemble et l’erreur quadratique moyenne du modèle déterministe de haute résolution. L’erreur quadratique moyenne de la moyenne d’ensemble est inférieure à celle du modèle déterministe de haute résolution après trois ou quatre jours de prévision. La moyenne de l’erreur quadratique moyenne des membres est supérieure à celle de la moyenne d'ensemble et du modèle déterministe de haute résolution. Dans un ensemble bien équilibré, l’erreur quadratique moyenne des membres de l’ensemble devrait être égale à la racine carrée de deux fois l’erreur quadratique moyenne de la moyenne d'ensemble. Cliquer sur le bouton retour pour continuer. Jours de prévision

SPE et prévisions probabilistes La moyenne d'ensemble n'est pas toujours une bonne prévision : Susceptible de mieux vérifier que n’importe quel membre individuel. Susceptible de mieux vérifier que le modèle déterministe. Ceci est en partie dû au fait que la moyenne d'ensemble subit un processus de lissage – variance interne plus faible. Fournit de l'information erronée en cas de groupement ou de distribution multimodale. La moyenne d’ensemble et la médiane donnent de meilleurs résultats : Lorsque la dispersion de l'ensemble est faible. En cas de distribution uni-modale proche d'une distribution normale – moyenne, médiane et mode proches les uns des autres. Lorsque l'asymétrie de la distribution n'est pas trop forte. La moyenne d'ensemble n'est pas nécessairement une bonne prévision, bien qu’elle soit susceptible de mieux vérifier que chacun des membres individuels et mieux que le modèle déterministe, notamment pour les périodes de prévision plus longues. La moyenne d'ensemble fournit une information erronée en cas de groupement ou de distribution multimodale des membres. La moyenne (et la médiane) d'ensemble donne de meilleurs résultats lorsque la dispersion des membres est faible, lorsque la distribution est uni-modale ou proche d'une distribution normale et lorsque l'asymétrie de la distribution n'est pas trop forte.

SPE et prévisions probabilistes Un pilote veut survoler une montagne cachée par les nuages. On lui donne trois topographies différentes du terrain. Le pilote veut utiliser la moyenne d’ensemble. Niveau de vol proposé Est-ce une bonne idée ? Ce dessin explique pourquoi la moyenne d’ensemble peut ne pas toujours être une bonne prévision. La valeur des systèmes de prévision d’ensemble réside dans les prévisions probabilistes et réside dans la dispersion parmi les membres d’ensemble. Dans cet exemple, les trois membres de l’ensemble sont d’accord pour indiquer que la montagne est beaucoup plus élevée que ce que peut suggérer la moyenne d’ensemble; le pilote est susceptible de s’écraser si il/elle effectue son vol selon la moyenne d’ensemble. Même si la moyenne d’ensemble peut indiquer que l’élévation du sol est plus basse, elle conduit à une mauvaise décision. La question ici en est une de support à la décision beaucoup plus qu’une question de prévision. Note: Les photos sur cette diapositive (montagne et nuage) sont de Richard Verret. Les ensembles peuvent donner une information valable; ne la rejetez pas. La moyenne d’ensemble, seule, n’a généralement pas de signification. Il s’agit d’une question de support à la décision. R. Verret, CMC

SPE et prévisions probabilistes Tous les membres prévoient des hauteurs de précipitations de 50 mm sur 24 heures. Cependant, les membres sont décalés de 12 heures dans le temps l’un par rapport à l’autre. La moyenne d'ensemble prévoit également un événement de précipitations de l'ordre de 50 mm, mais... elle répartit l'événement sur une période de 48 h et non de 24 h. elle ne parvient pas à rendre compte du taux maximal de précipitations. Supposons un ensemble de trois membres… Voici un exemple où la moyenne d’ensemble est erronée. Supposons un ensemble de trois membres. Chaque membre prévoit un important événement de précipitations de 50 mm sur une période de 24 h, mais chaque membre accuse un décalage de 12 h par rapport aux deux autres membres. Les trois membres sont affichés sur le graphique (bleu foncé à gauche pour le membre 1, rouge au milieu pour le membre 2 et vert à droite pour le membre 3). L’axe horizontal est le temps de prévision en heures et l’axe vertical est le taux de précipitation prévu en mm/h. Sur ce graphique, la courbe en cyan correspond à la prévision moyenne d'ensemble. Nous nous apercevons que la moyenne d'ensemble indique également un événement de précipitations de l'ordre de 50 mm, mais sur une période de 48 h et non sur une période de 24 h comme le suggèrent tous les membres. R. Verret, CMC

SPE et prévisions probabilistes Cette carte représente la moyenne d'ensemble prévue à 96h le 6 janvier 2010 à 00Z de la pression atmosphérique au niveau moyen de la mer (lignes noires) et l'analyse correspondante valide le 10 janvier 2010 à 00Z (lignes en trait tireté rouge). Il est à noter que la moyenne d'ensemble peut sous-estimer les gradients, particulièrement lorsqu’il y a beaucoup de dispersion dans la prévision. Par exemple, le centre de basse pression sur à l’est de Terre-Neuve est analysé à une pression de 963 hPa alors que la moyenne prévue est plutôt près de 984 hPa.

SPE et prévisions probabilistes Supposons un ensemble de 20 membres avec l'histogramme de fréquence suivant pour les températures  : Voici un exemple de distribution bimodale des températures pour un ensemble constitué de 20 membres. La valeur moyenne d'ensemble se situe au niveau des températures dont la probabilité d'occurrence est la plus faible. Distribution bimodale… la moyenne d'ensemble est de 11,35 – parmi les événements les moins probables. R. Verret, CMC

SPE et prévisions probabilistes Schéma montrant comment un modèle de prévision probabiliste peut être utilisé pour la prise de décision basée sur le risque. SPE Comparer T contre Tcr Prendre action appropriée Le principe des systèmes de prévision d'ensemble associés aux prévisions probabilistes est le suivant : A partir des prévisions d’une variable P par les membres (P1...PN), il est possible de créer une fonction de distribution de probabilité prévue pour cette variable P donnée. L'utilisateur aura calculé une valeur critique de P (nommée Pcr) correspondant à un seuil dont le dépassement devra occasionner la mise en œuvre de mesures appropriées. À partir de la fdp associée à la prévision, on peut calculer la probabilité T de dépassement de Pcr. L'utilisateur définit une valeur de probabilité Tcr en fonction du niveau de risque possible à gérer. Si la probabilité T que P est supérieure à Pcr dépasse le niveau de tolérance Tcr, alors des mesures s'imposent. P1… PN = prévisions de la variable d’intérêt P (N = nombre de membres de l’ensemble). F(P) = fonction de densité de probabilité de P. Pcr = valeur critique de P définie par l'utilisateur, dont le dépassement nécessite la mise en œuvre de mesures. T = probabilité de dépassement de Pcr. Tcr = niveau de tolérance de probabilité spécifié par l'utilisateur. S. Tracton, NCEP

SPE et prévisions probabilistes Paradigme déterministe Paradigme probabiliste Réduit l'incertitude Processus prévisionnel Réduit et évalue l'incertitude Déterminisme mal interprété Milieu naturel Hypersensibilité aux conditions initiales – chaos. Réduit l'incertitude liée à l'observation Système d'observation Quantifie l'incertitude liée à l'observation Estime la valeur attendue Assimilation des données Estime la distribution Réduit les erreurs de modélisation Modélisation de la PNT Réduit et représente les erreurs de modélisation Occasions ad hoc Prévision d'ensemble Approche systématique Réduit les erreurs systématiques Post-traitement statistique Étalonne l'incertitude Valeurs uniques Produits de base Caractéristiques de distribution Prévisions oui/non adaptées au processus décisionnel Service d'assistance aux utilisateurs Intègre l'information relative à l'incertitude Diffusion limitée de l'information – recours limité aux prévisions Société Diffusion de toute l'information – Optimise les décisions des utilisateurs Ce tableau établit une comparaison entre le paradigme déterministe et le paradigme probabiliste. Le tableau parle de lui-même… Z. Toth, NCEP

Jusqu'ici… La prévision numérique du temps repose sur l'application des lois fondamentales de la physique (mécanique des fluides) pour prévoir les états futurs de l'atmosphère. Elle requiert une description précise des conditions initiales, des conditions limites et de tous les processus physiques présents dans l'atmosphère. L'assimilation des données est le processus permettant de projeter les données d'observation inégalement réparties dans l'espace et dans le temps sur une grille. Elle nécessite des champs d’essai, des observations avec contrôle de qualité et des statistiques d'erreur sur les observations comme sur les champs d’essai. Les modèles résolvent les équations primitives afin de prévoir les états futurs de l'atmosphère. Les processus physiques qui se produisent aux échelles non résolues dans le modèle doivent être paramétrés. Tendance à la conception de modèles de plus haute résolution. La résolution est un enjeu majeur de la physique des modèles. Les erreurs sont omniprésentes à toutes les étapes de la PNT – observations, conditions initiales, conditions frontières et processus de modélisation. Les prévisions dépendent fortement des conditions initiales à cause de l’effet chaos. D'où une incertitude inhérente au processus de prévision numérique du temps. Jusqu'ici, voici ce qu'il faut retenir...

Jusqu'ici… Les SPE permettent de simuler et d'estimer l'incertitude. Les SPE présentent un rapport dispersion-habileté. On peut utiliser les SPE pour obtenir des fdp et des prévisions probabilistes. La valeur des SPE réside dans le calcul de probabilités. Les SPE ne devraient pas être utilisés comme des modèles déterministes. La moyenne d'ensemble n'est généralement pas une bonne prévision, même si souvent elle vérifie mieux. La moyenne d’ensemble et la médiane offrent de meilleurs résultats comme prévision lorsque la distribution est proche d'une distribution normale. Jusqu'ici, nous avons vu...

Questions? Avez-vous des questions?

Horaire proposé de la formation 8:30 – 9:00 Module 1 - Introduction 9:00 – 10:15 Module 2 – Prévisions probabilistes 10:15 – 10:45 Pause 10:45 - 11:45 Module 3 – Concepts de base des SPE 11:45 – 12:45 Lunch 12:45 – 13:45 Module 4 – Construction des SPE 13:45 – 14:00 14:00 – 15:00 Module 5 – Produits des SPE 15:00 - 15:15 15:15 – 16:15 Module 6 – Application des SPE, sites web 16:15 - 16:30 Module 7 – Futur / Conclusion