Spécificités du Data Mining

Slides:



Advertisements
Présentations similaires
Definition : Ensemble des actions qui dans une économie de marché, ont pour objectif de prévoir, constater, stimuler, susciter ou renouveler les besoins.
Advertisements

© 2006 Les Éditions de la Chenelière inc., La gestion dynamique: concepts, méthodes et applications, 4 e édition1/14 Chapitre 4 : Le gestionnaire en tant.
Présentation de Scribe Votre nouvelle organisation du Réseau Informatique Pédagogique.
1 Systèmes informatiques embarqués Direction Technique Systèmes Ce document est la propriété intellectuelle de DASSAULT AVIATION. Il ne peut être utilisé,
Présentation LabPlus v3. Solution novatrice en Technologies de l’information Solution novatrice en Technologies de l’information Application pour la Gestion.
CLEF Pilote Service Emploi Demandeur emploi OFPPT Centre de formation Fédérations Entreprises Administration Secrétaire Activ’ Action Formateur Cellule.
Business intelligence comme outil clé de prise de décisions stratégiques et efficaces pour nos organisations TEL : / /
Comité technique du 30/03/2012 Point d'étape sur l'assistance de la DISI Ouest.
1 Gestion Electronique de documents (GED) ✔ Définition Efficacité d'une entreprise dépend de la capacité à traiter et consulter les informations qu'elle.
L’évolution du SI. Introduction De nombreux éléments peuvent amener une organisation à faire évoluer son système d’information : Modification des besoins.
Refonte du portail eaufrance Présentation du cadre de référence pour avis GCIB – 14/10/2014 – Anne Macaire.
J.-L. QUEMARD, S.G.C.B SGCB Echanges d’informations en vue d’une mise en œuvre efficace de Bâle II Groupe des Superviseurs Bancaires Francophones, 7 mars.
LA METHODE DU BARYCENTRE.  Objectif :  La méthode du barycentre permet de déterminer le milieu d’un réseau de points à desservir dont les coordonnées.
PLAN Introduction 1. Le concept GIMSI I. La démarche de construction du tableau de bord II. Exemples concrètes conclusion.
RAPPEL DE L’ATELIER : GARANTIR LES COMPETENCES
Enseigner autrement les mathématiques au travers du socle commun et des nouveaux programmes Un collège réformé, adapté et contextualisé.
LA FONCTION LOGISTIQUE ET APPROVISIONNEMENTS
BTS Comptabilité et Gestion
Présenté par M. Anis DIALLO
1.1 La définition de la déontologie Textes de référence § 3.1 Principes et cadre d’intervention § Déontologie a) une attitude générale.
Portfolio électronique au BAA
Usine de Développement.
Gestion des flux pysiques
Les Bases de données Définition Architecture d’un SGBD
MOT Éditeur de modèles de connaissances par objets typés
Introduction Data Mining
MARKETING MANAGEMENT Semestre 2
Le cabinet d’avocat: une entreprise du droit Présentation de Maître Mame Adama GUEYE Formation Continue CIFAF Dakar 2 Décembre 2014.
Étude “Aide au Budget” Cadre conceptuel
INRODUCTION a la comptabilité générale
Spécificités du Data Mining
Tableau de bord des risques
Offres Viveris Systèmes
Notion De Gestion De Bases De Données
PROGRAMMATION INFORMATIQUE D’INGÉNIERIE II
Institut Universitaire Virtuel de Formation des Maîtres
Processus « Contrôler les subventions réglementaires» Harmonisation et simplification administrative – 11 mai CSS.
ERP Réalisé par : Chelly Fatma Fehri Saif Weli Amer Classe : 1TSI 2.
Groupe d’élaboration des normes financières et comptables
DATA WEARHOUSE 1ère année LA: Technologies systèmes d’information
Branche Professionnelle des organismes de formation
Prélude ERP 7 Présentation 19/09/2018 © Gérard Baglin,
Integrated Business intelligence
Gestion de Stocks & Achats
Projet d’Appui à la Gouvernance Economique (PAGE)
Audit des ASBL Code de bonne gouvernance à
Responsable Petite et Moyenne Structure
5 Analyse avec Designer d'Oracle
Prélude 7 ERP Présentation 15/11/2018 © Gérard Baglin,
Pôle 3 - Gestion administrative interne
RÈGLEMENT D’EXAMEN ET CCF
Présenté par M. Anis DIALLO
Réalisé Par : Ahmed Ben Dahmen Slimen Ouni Chahed Ben Slama
Prélude ERP 7 Présentation 09/12/2018 © Gérard Baglin,
Distribution spécialisée Réponses (suite)
Un Mécanisme d‘Adaptation Guidé par le Contexte en Utilisant une Représentation par Objets Manuele Kirsch Pinheiro Laboratoire LSR – IMAG, Équipe SIGMA.
Chapitre V La Procédure Comptable
CHAPITRE III OBJET DE LA COMPTABILITE : L’Enregistrement des Flux
Points de vue et sémantiques ad hoc
Réforme du Lycée
Enseignement de spécialité
STMG Au lycée Camille Corot MORESTEL
Groupe de travail « Gestion des données de l’université »
L’analyse de la valeur des projets informatiques
Design, innovation et créativité
Gestion des Transports et Logistique Associée
Conférence Témoignage-Métiers
MOT Éditeur de modèles de connaissances par objets typés
Les données structurées et leur traitement
Séquence 1:Analyse du système d’information comptable
Transcription de la présentation:

Spécificités du Data Mining Année universitaire 2016/2017 Spécificités du Data Mining Ingénierie Economique et Financière Fahmi Ben Rejab FBR.2016-2017.ISG Tunis. FBR.2016-2017.ISG Tunis.

Contexte Besoin: prise de décisions stratégiques et tactiques Pourquoi: besoin de réactivité Qui: les décideurs (non informaticiens) Comment: répondre aux demandes d’analyse des données, dégager des informations qualitatives nouvelles Pourquoi et comment le chiffre d’affaire a baissé? Qui sont mes meilleurs clients? Quels français consomment beaucoup de poisson?

(2) Techniques utilisées (3) Multiplicité des supports Plan (1) Sources de données (2) Techniques utilisées (3) Multiplicité des supports FBR.2016-2017.ISG Tunis.

Spécif 1: Source de données Intégration L'intégration consiste à concentrer les données collectées dans un espace unifié, dont le socle informatique essentiel est l'entrepôt de données. Élément central du dispositif, il permet aux applications décisionnelles de bénéficier d'une source d'information commune, homogène, normalisée et fiable, susceptible de masquer la diversité de l'origine des données. Au passage les données sont épurées ou transformées par : un filtrage et une validation des données en vue du maintien de la cohérence d'ensemble une synchronisation (s'il y a nécessité d'intégrer en même temps ou à la même « date de valeur » des événements reçus ou constatés de manière décalée ou déphasée) une certification (pour rapprocher les données de l'entrepôt des autres systèmes « légaux » de l'entreprise comme la comptabilité ou les déclarations réglementaires). C'est également dans cette fonction que sont effectués éventuellement les calculs et les agrégations (cumuls) communs à l'ensemble du projet. a) Collecte Finances Marketing 1.0 Organiser les données via ETL Comptoir de données Contrôle Qualité Ressources humaines Production c) Diffusion 3.0 Diffuser l’information stratégique Analyses OLAP d) Présentation Usager 4.0 Activer une requête 1 Requêtes Résultats b) Intégration 2.0 Gérer les métadonnées Entrepôt central de données Collecte La collecte (parfois appelée datapumping) est l'ensemble des tâches consistant à détecter, à sélectionner, à extraire et à filtrer les données brutes issues des environnements pertinents compte tenu du périmètre du SID. Les sources de données internes et/ou externes étant souvent hétérogènes tant sur le plan technique que sur le plan sémantique, cette fonction est la plus délicate à mettre en place dans un système décisionnel complexe. Elle s'appuie notamment sur des outils d'ETL (extract-transform-load pour extraction-transformation-chargement). Cette alimentation utilise les données sources issues des systèmes transactionnels de production, le plus souvent sous forme de : compte-rendu d'événement ou compte-rendu d'opération : c'est le constat au fil du temps des opérations (achats, ventes, écritures comptables, ...) ou le film de l'activité de l'entreprise compte-rendu d'inventaire ou compte-rendu de stock : c'est l'image photo prise à un instant donné (à une fin de période : mois, trimestre, ...) de l'ensemble du stock (les clients, les contrats, les commandes, les encours, ...). La fonction de collecte joue également, au besoin, un rôle de recodage. Une donnée représentée différemment d'une source à une autre impose le choix d'une représentation unique pour les futures analyses. Présentation Cette quatrième fonction, la plus visible pour l'utilisateur, régit les conditions d'accès de l'utilisateur aux informations. Elle assure le fonctionnement du poste de travail, le contrôle d'accès, la prise en charge des requêtes, la visualisation des résultats sous une forme ou une autre. Elle utilise toutes les techniques de communication possibles (outils bureautiques, requêteurs et générateurs d'états spécialisés, infrastructure web, télécommunications mobiles, etc). Diffusion (ou distribution) La diffusion met les données à la disposition des utilisateurs, selon des schémas correspondant au profil ou au métier de chacun, sachant que l'accès direct à l'entrepôt de données ne correspondrait généralement pas aux besoins d'un décideur ou d'un analyste. L'objectif prioritaire est de segmenter les données en contextes informationnels fortement cohérents, simples à utiliser et correspondant à une activité décisionnelle particulière. . Chaque contexte peut correspondre à un datamart, bien qu'il n'y ait pas de règles générales concernant le stockage physique. Très souvent, un contexte de diffusion est multidimensionnel, c'est-à-dire modélisable sous la forme d'un hypercube; il peut alors être mis à disposition à l'aide d'un outil OLAP.

Spécif 1: Source de données e) Administration a) Collecte Finances Marketing 1.0 Organiser les données via ETL Comptoir de données Contrôle Qualité Ressources humaines Production b) Intégration 2.0 Gérer les métadonnées Entrepôt central de données c) Diffusion 3.0 Diffuser l’information stratégique Analyses OLAP d) Présentation Usager 4.0 Activer une requête 1 Requêtes Résultats Administration C'est la fonction transversale qui supervise la bonne exécution de toutes les autres. Elle pilote le processus de mise à jour des données, la documentation sur les données (les méta-données), la sécurité, les sauvegardes, la gestion des incidents. Sources: - Richardson, James, Schlegel, Kurt, Sallam, Rita L., Hostmann, Bill, Gartner Inc, Magic Quadrant for Business Intelligence Platforms, 16 janvier 2009. Wikipédia, Informatique décisionnelle, http://fr.wikipedia.org/wiki/Informatique_décisionnelle.

Spécif 1: Source de données Les données seront: 1- formatées, nettoyées et consolidées 2- stockées dans une base spécialisée : data warehouse 3- accessibles selon les fonctions et les types d'utilisation 4- utilisables

Spécif 1: Source de données B.D. de gestion vs. B.D. décisionnelles Systèmes de gestion (opérationnel) Systèmes décisionnels (analyse) Objectif dédié au métier et à la production ex: facturation, stock, personnel dédié au management de l'entreprise (pilotage et prise de décision) Volatilité (perennité) données volatiles ex: le prix d'un produit évolue dans le temps données historisées ex: garder la trace des évolutions des prix, introduction d'une information daté Optimisation pour les opérations associées ex: passage en caisse (lecture de code barre) pour l'analyse et la récapitulation ex: quels les produits achetés ensembles Granularité des données totale, on accède directement aux informations atomiques agrégats, niveau de synthèse selon les besoins de l'analyse

Spécif 2: Techniques utilisées Très souvent, ces méthodes se rejoignent, mais avec des philosophies / approches / formulations différentes

Spécif 2: Techniques utilisées Les méthodes selon les finalités Les méthodes sont le plus souvent complémentaires !

Spécif 3: Multiplicité des supports et des sources

Résumé Ca ne marchera jamais si : La démarche DATA MINING • formalisation des objectifs • acquisition des données • préparation des données • apprentissage – application des méthodes • interprétation – explication • évaluation et validation • déploiement Ca ne marchera jamais si : Le « métier » n’adhère pas à ce que vous faites Les objectifs sont mal définis Les données disponibles ne conviennent pas Les données sont mal « préparées » On n’utilise pas les techniques appropriées

Source: Ricco Rakotomalala http://tutoriels-data-mining.blogspot.fr/