Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim.

Slides:



Advertisements
Présentations similaires
D’un intranet Top-Down aux réseaux sociaux dans l’entreprise
Advertisements

A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Classification et prédiction
Classification et prédiction
1.Est-ce que tu as un portable? __________________________________________________________ 2. Est-ce que tu as une voiture? __________________________________________________________.
LES RESEAUX DE NEURONES
Application de réseaux bayésiens à la détection de fumées polluantes
Centrale hydraulique.
THÈME APPLICATION OF THE ARTIFICIAL NEURAL NETWORK FOR MODELING THE THERMAL BEHAVIOR OF BUILDING IN HUMID REGION Léopold Mbaa, Pierre Meukamb, Alexis.
Vers une approche de construction de composants ontologiques pour le web sémantique – synthèse et discussion. Nesrine Ben Mustapha (RIADI, ENSI Tunis)
Traitement de données socio-économiques et techniques d’analyse :
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Apprendre à partir des observations
Il est quelle heure?.
Retour sur la mission dappui au SSE pour le projet GERES « efficacité énergétique dans lhabitat domestique, province de Bamyan » Le Système dInformation.
How to solve biological problems with math Mars 2012.
FDD et Arbres de Décision
Applications du perceptron multicouche
IFT313 Introduction aux langages formels
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Échantillonnage de l'eau et des facteurs connexes pour mesurer les caractéristiques physiques, chimiques et microbiologiques de l'eau de surface et des.
28/04/2003 ©PEPITe S.A.
La Classification
Apprentissage Jean-François Bérubé Dans le cadre du cours IFT 6802
Réseaux de neurones.
Les réseaux de neurones
Mémoires associatives
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Les Arbres de décision ou régression
Structure discriminante (analyse discriminante)
CLS algorithm Step 1: If all instances in C are positive, then create YES node and halt. If all instances in C are negative, create a NO node and halt.
A. Bultot1 To present a project – To write the same thing several times!
Les réseaux de neurones artificiels (RNA)
L’hydrosphère.
Vers un nouvel empirisme: l’ancien et le nouvel empirisme John Goldsmith Université de Chicago CNRS MoDyCo.
Laboratoire des outils informatiques pour la conception et la production en mécanique (LICP) ÉCOLE POLYTECHNIQUE FÉDÉRALE DE LAUSANNE 1 Petri nets for.
Apport du Data Mining pour prédire la facture de patients hospitalisés
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
Une méthode de prévision à un pas de temps Application à la prévision de la qualité de l’air S. Canu, Ph. Leray, A. Rakotomamonjy laboratoire PSI, équipe.
Fast and Furious Decision Tree Induction
Réseaux de neurones artificiels « programmation par l’exemple »
Smart Building Antoine Delley, Urs Grossenbacher, Julien Jeanneret, Andres Perez-Uribe, Stéphane Pierroz © IT Valley | Equipe Smart Building |
PDARE M.R.E.
Algorithmes pour le web “A Unified Approach to Personalization Based on Probabilistic Latent Semantic Models of Web Usage and Content”
Arbres de décision flous
Adapté de Michael Negnevitsky
Adapté de Michael Negnevitsky
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
Objectif: Comment employer un exposant?. Objective: How to use an exponent?
Olivier Leclair, Université Laval Un algorithme de fouille dans une représentation des données par objets: une application médicale SIMON, Arnaud.
Travail 1 Tutorial de mathématique Français English.
(ref : Bray section pages 259 à 266)
1 Programmation en C++ Marianne Morris. 2 Intro générale à la programmation On a déjà étudié le langage assembleur Langage de bas niveau Meilleur que.
Le Passé Composé - avec “avoir” Look at the following 3 sentences. Ali played football yesterday They have visited Paris 3 times We did tidy the bedroom.
Intelligence artificielle
Les verbes réfléchis au passé composé
Year 10. Bon appetit unit. Introducing ‘en’. ‘en’ – ‘some of it’ or ‘some of them’ ‘En’ is a small but important word in French that is commonly used.
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
Knowledge discovery in Databases (KDD)
Classification automatique des messages électroniques
Les Extra-Trees+SW Réalisé par : Encadrante:
Extreemly Random Trees + SubWindows HOURRI Soufiane NAIT ABDELLAH OUALI Ismail OUFQIR Anouar OUSSAFI Mohammed.
The Passé Composé Regular verbs with avoir Look at the following 3 sentences. Ali played football yesterday They have visited Paris 3 times We did tidy.
Unité 6 Leçon B. Forming yes/no questions  To form a yes/no question in French in the simplest way, add a question mark at the end of the sentence, and.
1 Apprentissage par exemples Jean-François Bérubé Traitement statistique des langages naturels Université de Montréal DIRO, 10 Avril 2003.
The Passé Composé Objective: to talk about things we have done on a visit to explain what events happened to speak and write about events in the past.
How do we make nouns plural in English? book – books table – tables school - schools.
Rapports équivalents Écrire, modéliser et identifier.
1.  L’HYDROSPHÈRE…  C’est l’ensemble de l’eau – sous tous ses états – qui se trouve sur terre, dans l’atmosphère et dans le sol.  Elle comprend océans,
Transcription de la présentation:

Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim Lounis, Vincent Siveton

Le Contexte Le réseau hydroélectrique d’Alcan : (circa ~2000) 200 km 500 km Le réseau hydroélectrique d’Alcan : (circa ~2000) 73 800 km² de surface 2000 MW d’électricité par an 6 stations hydroélectriques actives, 28 installation en réserve 43 groupes de turbines-alternateurs 850 km de lignes de transmission 30 stations hydro-météorologiques, etc.

Exemples du bassin de la Chute du Diable au Saguenay Le problème Le niveau des bassins versants pour les barrages dépend des décharges des rivières, des précipitations et de contributions souterraines (apports non contrôles) On veut prédire le volume des apports non contrôles indirectement, à partir de mesures d’autres variables Exemples du bassin de la Chute du Diable au Saguenay Variable à prédire Abréviation Données historiques Volume quotidien d’apports non contrôlés à CD durant les 7 jours précédents ucCD_D1 - ucCD_D7 1992 – 99 Contributions totales au volume de débit durant les prochains 3 jours Vol_3D Contributions totales au volume de débit durant les prochains 7 jours Vol_7D

Données historiques On dispose des données historiques suivantes : Variable # Contribution naturelle au débit à CD pour les deux jours précédents 2 Variation de la contribution naturelle au débit à CD durant les deux jours précédents 1 Débits des rivières Manouane, Serpent, and Petite Péribonka les 4 heures d’avant(m3/s/hr) 3 Débits des rivières Manouane, Serpent, and Petite Péribonka le jour d’avant Variation des débits des rivières Manouane, Serpent, and Petite Péribonka pour les 4, 12, 24 heures précédentes 9 Tendance de la variation des débits des rivières Manouane, Serpent, and Petite Péribonka entre 4 et 12 heures Précipitations de jour –4 à jour-1 dans le bassin versant de CD 4 Précipitations de jour–3 à jour-1 aux stations CD, CDP, Mistassini 2 et Manouane Est 12 Prévisions météorologiques de jour+1 à jour+7 pour le bassin versant de CD 7 Prévisions météorologiques équilibrées de jour+1 à jour+7 pour le bassin versant de CD

Prédicteurs classiques Regression linéaire ou logistique Interpolation polynômiale Test d’hypthèse N’ont pas donné de bons résultats

Prédicteurs reliés à l’apprentissage machine Arbres de décision binaires (C4.5 & OC1) Inducteurs de règles (CN2) Algorithmes de groupement (LVQ, Kohonen, k-centroïdes, c-centroïdes) Classifieurs bayesiens (ROC) Réseaux de neurones artificiels (PMC, Elman, Jordan) Classifieurs flous ou neuro-flous (ANFIS, CANFIS)

Prédicteur neuro-flou basé sur un arbre de décision binaire “flouïfié” X grand B petit C grand 1 0.65 0.35 0.2 0.8 0.7 0.3 Déflouïfication (PMC) Flouïfication (SOM + MM) Arbre de décision flou … Variables d’entrée A1 An Valeur prédite/classe

Création d’un arbre de décision binaire par induction C4.5 algorithm: If no more training examples: Stop; Else: If all training examples belong to the same class Create a leaf with the classname ; - Select a test to identify the next best discriminating attribute in the learning set ; - Divide the learning set into subsets according to the value of the selected attribute ; End if ; End if The entropy of A={ai}i=1,…,n, is : where p(ai) is the probability of A=ai In the fuzzy approach, ai takes n’ linguistic values, and Where k(ai) is the membership of ai to linguistic value k and p(ai) is its frequency in the domain of k. We want, each time, to find the attribute that maximizes

Flouïfication des données d’entrée Processus en deux étapes: On trie les données selon deux catégories (« grand », « petit ») On définit les fonctions d’appartenance correspondantes (forme et limites) Entrées à valeurs Classification Fonctions précises symbolique d’appartenance SOM FMM SOM = Carte auto organisatrice de Kohonen : divise les données en catégories FMM = Filtre à morphologie mathématique : Trouve les points limites de fonctions d’appartenance

Déflouïfication des feuilles de l’arbre de décision flou Effectuée à l’aide d’un réseau de neurones artificiel de type perceptron multi-couche avec apprentissage par retropropagation d’erreurs Particularités : Opère par association des patrons d’entrée avec des valeurs mémorisées avec un bon pouvoir de généralisation (données incomplètes, vagues, bruitées, etc.) Peut faire autant la classification que la régression

Résultats (1) 14 output neurons (2) 1 output neuron

Conclusion Un arbre de décision flou peut donner de meilleurs résultats de prédiction qu’un arbre de décision précis L ’approche neuro-floue peut donner de meilleurs ou moins bons résultats qu’un réseau de neurones L’usage d’un réseau de neurones pour la phase de déflouïfication donne de meilleurs résultats que la méthode du centre de gravité L ’approche neuro-floue offre la possibilité d’extraire des règles (savoir explicite) en plus de prédire les variables hydro-électriques (savoir implicite)