La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Communication d'entreprise et réseaux au temps des TICS

Présentations similaires


Présentation au sujet: "Communication d'entreprise et réseaux au temps des TICS"— Transcription de la présentation:

1 Communication d'entreprise et réseaux au temps des TICS
Prof. Stefano A. Gazziano ENEA Agence Italienne Pour l’Energie et le Développement Soutenable John Cabot University Université Américaine en Rome Mars Tunis

2 Communication d'entreprise et réseaux au temps des TICS
MARS 25 9.30 – Open Source et Web 2.0 – la base technologique nouvelle Web 2.0 – Que C’est le signifié pour les entreprises 14.30 – Applications Entreprise 15.45 – E-tourisme et Debat MARS 26 8.30 – Cloud computing, MS Azure, Amazon Elastic computing, ENEA grille Cooperative computing Google docs, e-learning 15.45 – D Internet, monde virtual, internet du futur Mars Tunis

3 Communication d'entreprise et réseaux au temps des TICS
8.30 – Cloud computing Informatique dans les nuages (cloud computing) Systèmes d'informatique dans le nuage Applications logicielles Infrastructure Stockage Principaux acteurs Avantages Inconvénients Technologie : La Machine virtuelle Cas d’étude : Microsoft Azure Cas d’ étude : Amazon Elastic Computing Cas d’ étude : ENEA Grid Mars Tunis

4 Informatique dans les nuages (cloud computing)
Mars Tunis

5 Informatique dans les nuages (cloud computing) De système a services
La « nuage » c’est un group de Serveurs, logicielle, stockage Processus, applications, Data base, donnée, ……….. quelque part dans le réseau personne ne sait où il est Mars Tunis

6 Vous vous souvenez de quelque chose ?
Cloud computing Vous vous souvenez de quelque chose ? Parfois le « mainframe » des années 70 ?? Mars Tunis

7 Justement: Le mainframe est répandu pour le réseau
Cloud computing Justement: Le mainframe est répandu pour le réseau Mars Tunis

8 L'informatique dans le nuage (en anglais, cloud computing)
est un concept majeur faisant référence à l'utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par un réseau, tel Internet (principe de la grille informatique). Mars Tunis

9 Cloud computing Les utilisateurs (le plus souvent des entreprises) ne sont plus propriétaires de leurs serveurs informatiques mais peuvent ainsi accéder de manière évolutive à de nombreux services en ligne sans avoir à gérer l'infrastructure sous-jacente, souvent complexe. Les applications et les données ne se trouvent plus sur l'ordinateur local, mais dans un nuage, composé d'un certain nombre de serveurs distants interconnectés au moyen d'une excellente bande passante indispensable à la fluidité du système. L'accès au service se fait par une application standard facilement disponible, la plupart du temps un navigateur Web. Mars Tunis

10 Cloud computing Le concept d'informatique dans le nuage est comparable à celui de la distribution de l'énergie électrique. La puissance de calcul et de stockage de l'information est proposée à la consommation par des compagnies spécialisées. De ce fait, les entreprises n'ont plus besoin de serveurs propres, mais confient cette ressource à une entreprise qui leur garantit une puissance de calcul et de stockage à la demande. Mars Tunis

11  les clouds privés internes,  les clouds privés externes
Cloud computing Selon les approches des entreprises, se distinguent trois formes de cloud computing :  les clouds privés internes,  les clouds privés externes  et les clouds publics. Cette notion est regroupée par les Anglo-saxons sous le vocable « elastic computing capacity ». Mars Tunis

12 L'API d'Amazon, Amazon EC2 est sans doute la plus populaire.
Cloud computing Il existe déjà plusieurs systèmes d'informatique dans le nuage et différentes API permettant de communiquer avec ces systèmes. L'API d'Amazon, Amazon EC2 est sans doute la plus populaire. Plusieurs outils sont donc compatibles avec cette API.  Eucalyptus, système libre utilisant de la virtualisation Xen et le langage Java. Il est distribué avec la version d'Ubuntu 9.04 "Jaunty Jackalope" (sortie en avril 2009).  gEclipse est un système libre de gestion de nuage et de grille informatique utilisant Eclipse, il est compatible avec les systèmes Amazon EC2 et S3. Il utilise également le langage Java.  DotRiver. Service managé complet pour la virtualisation des postes de travail. Utilisation exclusive de solutions OpenSource. Mars Tunis

13 Avantages Cloud computing
Optimiser les coûts par rapport aux systèmes conventionnels et de développer des applications partagées sans avoir besoins de posséder ses propres machines dédiées au calcul. En effet, le coût est fonction de la durée de l'utilisation du service rendu et ne nécessite aucun investissement préalable (homme ou machine). Notons également que l'élasticité du nuage permet de fournir des services évolutifs et donc de supporter les montées de charges. Par exemple, Salesforce.com, pionnier dans le domaine de l'informatique dans le nuage gère les données de entreprises, et leurs 1,5 millions d'employés, avec seulement serveurs (mars 2009). Les services sont extrêmement fiables car basés sur des infrastructures performantes possédant des politiques efficaces de tolérance aux pannes (notamment des répliques). Avantages  La mutualisation du matériel permet d'optimiser les coûts par rapport aux systèmes conventionnels et de développer des applications partagées sans avoir besoins de posséder ses propres machines dédiées au calcul. Comme pour la virtualisation, l'informatique dans le nuage est plus économique grâce à son évolutivité. En effet, le coût est fonction de la durée de l'utilisation du service rendu et ne nécessite aucun investissement préalable (homme ou machine). Notons également que l'élasticité du nuage permet de fournir des services évolutifs et donc de supporter les montées de charges. Par exemple, Salesforce.com, pionnier dans le domaine de l'informatique dans le nuage gère les données de entreprises, et leurs 1,5 millions d'employés, avec seulement serveurs (mars 2009). De plus, et c'est un argument mis en avant par les fournisseurs d'application en nuage, les services sont extrêmement fiables car basés sur des infrastructures performantes possédant des politiques efficaces de tolérance aux pannes (notamment des répliques). Mars Tunis

14 Cloud computing Inconvénients Sécurisation de l'accès à l'application entre le client et le serveur distant. Sécurité générale du réseau de l'entreprise : sans cloud computing, une entreprise peut mettre une partie de son réseau en local et sans aucune connexion (directe ou indirecte) à internet, pour des raisons de haute confidentialité par exemple ; dans le cas du cloud computing, elle devra connecter ces postes à internet et ainsi les exposer à un risque potentiel d'attaque. Il est tout a fait possible de stocker les données sensibles des entreprises dans des espaces sécurisés en intra- extra entreprises Inconvénients  Le problème fondamental reste d'une part la sécurisation de l'accès à l'application entre le client et le serveur distant. On peut aussi ajouter le problème de sécurité générale du réseau de l'entreprise : sans cloud computing, une entreprise peut mettre une partie de son réseau en local et sans aucune connexion (directe ou indirecte) à internet, pour des raisons de haute confidentialité par exemple ; dans le cas du cloud computing, elle devra connecter ces postes à internet (directement ou pas) et ainsi les exposer à un risque potentiel d'attaque. D'autre part les entreprises perdent la maîtrise de l'implantation de leurs données ainsi que du cycle de vie des applications, et il n'y aura par ailleurs plus la notion de confidentialité des données (financières, inventions, plans de prospection...). Il est tout a fait possible de stocker les données sensibles des entreprises dans des espaces sécurisés en intra- extra entreprises Mars Tunis

15 Technologie : La Machine virtuelle
Cloud computing Technologie : La Machine virtuelle La virtualisation consiste à faire fonctionner sur un seul ordinateur plusieurs systèmes d'exploitation comme s'ils fonctionnaient sur des ordinateurs distincts. Hardware simulé par logicielle = flexibilité totale Machine virtuelle Une machine virtuelle est un logiciel (généralement assez lourd) qui tourne sur l'OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine virtualise ou/et émule le matériel pour les OS invités, ces derniers croient dialoguer directement avec ledit matériel. Cette solution est très comparable à un émulateur, et parfois même confondue. Cependant l’unité centrale de calcul, c'est-à-dire le microprocesseur, la mémoire de travail (ram) ainsi que la mémoire de stockage (via un fichier) sont directement accessibles aux machines virtuelles, alors que sur un émulateur l’unité centrale est simulée, les performances en sont donc considérablement réduites par rapport à la virtualisation. Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce coût peut être très élevé si le processeur doit être émulé, comme cela est le cas dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs OS hétérogènes sur une même machine grâce à une isolation complète. Les échanges entre les machines se font via les canaux standards de communication entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte réseau réelle. Exemples : QEMU : émulateur de plateformes x86, PPC, Sparc kvm : version modifiée de QEMU tirant parti des instructions de virtualisation des processeurs Intel et AMD (Intel VT ou AMD-V) bochs : émulateur de plateforme x86 Lismoresystems Guest PC : propriétaire, émulateur de plateforme x86 sur matériel PC MacOnLinux : émulateur de plateforme Mac OS sur Linux PPC Microsoft VirtualPC et Microsoft VirtualServer : propriétaire, émulateur de plateforme x86 Parallels : propriétaire PearPC : émulateur de plateforme PPC sur matériel x86 Plex86 : émulateur de plateforme x86 VirtualBox : émulateur de plateforme x86 Oracle VM : propriétaire, émulateur de plateforme x86 (hyperviseur et guest) Neocoretech : produit NDV - Neocoretech Desktop Virtualization http://www.neocoretech.com VMware : propriétaire, émulateur de plateforme x86 (produits VMware Server, VMware Player et VMware Workstation) Hercules : émulateur qui permet l'émulation d'un mainframe z/OS sur PC Windows ou Linux avec émulation des disques Mars Tunis

16 Cloud computing Mars Tunis

17 Cas d’etude : Microsoft Azure
Cloud computing Cas d’etude : Microsoft Azure Mars Tunis

18 Cas d’etude : Amazon Elastic Computing
Cloud computing Cas d’etude : Amazon Elastic Computing Amazon Elastic Compute Cloud ou EC2 est un service proposé par Amazon permettant à des tiers de louer des serveurs sur lesquels exécuter leurs propres applications web. EC2 permet un déploiement extensible des applications en fournissant un interface web par laquelle un client peut créer des machines virtuelles, c'est-à-dire des instances du serveur, sur lesquelles le client peut charger n'importe quel logiciel de son choix. Un client peut créer, lancer, et arrêter des instances de serveurs en fonction de ses besoins, et paye en fonction du temps d'usage des serveurs, d'où le terme de "élastique" (Elastic en anglais). Un client peut mettre en place des instances de serveurs isolées physiquement (qui ne s'exécutent pas sur le même serveur physique) les unes des autres, de tel façon qu'en cas de panne, il soit possible de restaurer les instances défaillantes et d'assurer la continuation du service.1 Amazon fournit EC2 comme l'un de ses services webs commercialisés sous le terme Amazon Web Services (AWS). Historique  Amazon a annoncé une version beta limité de EC2 le 25 août  L'accès à EC2 étais alors sur la base de premier arrivé, premier servis. Amazon a ajouté deux nouveau types d'instances (Large et Extra-Large) le 16 octobre  Le 29 mai 2008, deux types supplémentaires ont été ajoutés, High-CPU Medium et High-CPU Extra Large.4 Il y a actuellement cinq types d'instances disponibles. Amazon a ajouté trois nouvelles fonctionnalités le 27 mars  Ces fonctionnalités incluent adresse IP statiques, Zones de disponibilités, et choix par l'utilisateur du type de Noyau. Amazon a ajouté Elastic Block Store (EBS) le 20 août  Ceci permet du stockage permanent, une fonctionnalité basique qui manquais depuis que le système avait été introduit. Amazon EC2 est considéré un produit mature depuis qu'il a quitté le label "beta" le 23 octobre Le même jour Amazon a annoncé les fonctionnalités suivantes:7 un agrément de service pour EC2, Microsoft Windows en beta sur EC2, Microsoft SQL Server en beta sur EC2, des plans pour une console de gestion AWS, et des plans pour la gestion du balancement de charge, auto-extensibilité, et service de surveillance des "cloud".7 Ces fonctionnalités ont été ajoutées le 18 mai Machines Virtuelles  EC2 utilise la virtualisation Xen. Chaque machine virtuelle, appelée "instance", fonctionne comme un serveur virtuel privé. Amazon défini la taille des instances en se basant sur les "unités de calcul EC2" - l'équivalent des capacité physique du processeur. Une unité de calcul EC2 équivaut à GHz Opteron ou Xeon de EC2 fournit les types d'instances suivant: Small Instance La petite instance (default) correspond à l'équivalent d'un système avec 1.7 GB de mémoire, 1 unité de calcul EC2(1 coeur virtuel), 160 GB de stockage d'instance, platforme 32-bit9 Large Instance La grande instance correspond à l'équivalent d'un système avec 7.5 GB de mémoire, 4 unités de calcul EC2(2 coeurs virtuels), 850 GB de stockage d'instance, plateforme 64-bit. Extra Large Instance L'instance extra-large correspond à l'équivalent d'un système avec 15 GB de mémoire, 8 unités de calcul EC2(4 coeurs virtuels), 1690 GB de stockage d'instance, plateforme 64-bit. High-CPU Instance Les instances de cette famille ont proportionnellement plus de ressources processeurs que mémoire (RAM) et visent les applications qui demandent beaucoup de calculs. High-CPU Medium Instance Les instances de cette famille ont la configuration suivante: 1.7 GB de mémoire 5 unités de calcul EC2 (2 virtual cores with 2.5 EC2 Compute Units each) 350 GB de stockage plateforme 32-bit I/O Performance: correcte High-CPU Extra Large Instance 7 GB de mémoire 20 unités de calcul EC2 (8 virtual cores with 2.5 EC2 Compute Units each) 1690 GB de stockage plateforme 64-bit I/O Performance: haute Mars Tunis

19 Cas d’etude : ENEA Grid Cloud computing Mars 25-26 Tunis

20 Communication d'entreprise et réseaux au temps des TICS
Pause Mars Tunis

21 Cooperative computing
11.15 – 13.15 Calcul distribué Grid et “Cooperative Computing” Collaboration des groupes de travaille dans le réseau Mars Tunis

22 Cooperative computing
Internet = possibilitè de connexion globale « the death of distance » - est-il vrai ? distribution des calcule en réseau collaboration volontaire entre ordinateurs collaboration groupes de travaille en localité différent Système distribué [modifier] Modèle d'un système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars Tunis

23 Cooperative computing
Calcul distribué Le calcul distribué ou réparti, est l'action de répartir un calcul ou un traitement sur plusieurs microprocesseurs et plus généralement toute unité centrale informatique. Le calcul distribué est souvent réalisé sur des clusters de calcul spécialisés, mais peut aussi être réalisé sur des stations informatiques individuelles à plusieurs cœurs. La distribution d'un calcul est un domaine de recherche des sciences mathématiques et informatiques. Elle implique notamment la notion de calcul parallèle. Système distribué [modifier] Modèle d'un système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars Tunis

24 Cooperative computing
Système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré Système distribué  Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars Tunis

25 Cooperative computing
Système distribué  Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars Tunis

26 Cooperative computing
système distribué : extensibilité (« scalability ») - expansion si nécessaire ; ouverture - interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. accès aux ressources et partage - à la fois le matériel, le logiciel et les données. tolérance aux pannes - répliquer facilement les composantes. Exigences des systèmes distribués Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars Tunis

27 Cooperative computing
système distribué ou parallèle : Mars Tunis

28 Cooperative computing
Calcule distribué: pourquoi ? Le besoin croissant de puissance de calcul informatique Le coût des supercalculateurs étant trop élevé, Utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Mars Tunis

29 Cooperative computing
Mars Tunis

30 Internet, intranet, extranet au temps de NTIC
Mars Tunis

31 Mars Tunis

32 Cooperative computing
La recherche scientifique a besoin d'effectuer des calculs de plus en plus complexes pour résoudre les grands problèmes humanitaires de notre époque. Ces calculs peuvent durer des centaines d'années sans une puissance de calcul informatique adaptée. La mission du est donc de mutualiser la puissance de calcul inutilisée de tous les PC et de créer la plus vaste grille de calcul scientifique au service de l'humanité. Mars Tunis

33 Cooperative computing
IBM Corporation, est le sponsor. A fourni matériel, logiciel, services techniques et expertise nécessaires à la mise en place de l'infrastructure du World Community Grid, hébergement, maintenance et support. World Community Grid runs on software called BOINC (Berkeley Open Infrastructure for Network Computing, developed at University of California, Berkeley, USA with funding from NSF (National Science Foundation). Mars Tunis

34 Cooperative computing
Mars Tunis

35 Mars Tunis

36 Cooperative computing
"SETI at home", pouvant se traduire par "SETI à la maison" est un projet de calcul distribué utilisant des ordinateurs branchés sur l'Internet. Il est hébergé par le Space Sciences Laboratory de l'Université de Californie, Berkeley. SETI est un acronyme pour Search for Extra-Terrestrial Intelligence (que l'on pourrait traduire par "Recherche d'une intelligence extraterrestre"). est accessible au public depuis le 17 mai 1999 Mars Tunis

37 Cooperative computing
Mars Tunis

38 Collaboration en ligne
N’oublions pas la vieux collaboration entre être humain…. Outils pour partager, discuter, écrire documents en commun, gérer un project, webconferencing, partager écrans et applications. Mars Tunis

39 Mars Tunis

40 Mars Tunis

41 Mars Tunis

42 Mars Tunis

43 Connexion a enea connect
Mars Tunis

44 Communication d'entreprise et réseaux au temps des TICS
Pause Mars Tunis

45 Google docs & e-learning
Google docs Plateforme de e-learning Mars Tunis

46 Google docs & e-learning
est une suite des évolutions de Google Spreadsheets, version déjà mise en ligne auparavant et de Writely, logiciel de traitement de texte. Ces programmes fusionnés permettent un travail en ligne et collaboratif (inscription de collaborateurs par courriel) et composent l'un des nouveaux fer de lance des applications du Web 2.0. En 2009, 1,75 million d'entreprises utiliseraient Google docs1. Mars Tunis

47 Mars Tunis

48 Mars Tunis

49 Mars Tunis

50 Mars Tunis

51 Mars Tunis

52 Mars Tunis

53 e-learning Mars Tunis

54 e-learning Mars Tunis

55 e-learning L'apprentissage en ligne (au Canada), ou formation en ligne (terme recommandé en France), ou 'e-learning', étymologiquement l'apprentissage par des moyens électroniques Mars Tunis

56 e-learning La définition de l'apprentissage en ligne (e-learning) donnée par l'Union Européenne est : « l’e-learning est l’utilisation des nouvelles technologies multimédias de l’Internet pour améliorer la qualité de l’apprentissage en facilitant d’une part l’accès à des ressources et à des services, d’autre part les échanges et la collaboration à distance » Mars Tunis

57 e-learning … pas un CBT Mars Tunis

58 e-learning Deux exemples Système propriétaire: SABA
Système Open Source : MOODLE Mars Tunis

59 Mars Tunis

60 e-learning Moodle sous licence open source servant à créer des communautés d'apprenants autour de contenus et d'activités pédagogiques. Mars Tunis

61 e-learning : MOODLE Forums, gestionnaire de ressources, tests et neuf modules clé en main (Devoirs, clavardage, sondages, glossaires, journal, étiquettes, leçons, wiki, tests, base de données, blogues, flux RSS...). Les questions créées avec ce module peuvent être mutualisées et réutilisées dans différents contextes d'épreuve. Le développement de Moodle est fortement influencé par les demandes de la communauté d'administrateurs et d'utilisateurs (enseignants, pédagogues) de Moodle. On peut développer de nouveaux modules facilement puisque Moodle s'appuie sur le PHP, le langage de script le plus utilisé dans le monde de l'Internet. Interface conviviale avec les formateurs, apprenants et administrateurs. Sa prise en main s'effectue en moins d'une heure. Coût d'hébergement (100 à 200 euros). Chaque installation comporte un pack de près de 90 langues. Des rapports d'usage détaillés pour chaque apprenant permettent de superviser les efforts d'apprentissage. Mars Tunis

62 e-learning Mars Tunis

63 e-learning Mars Tunis

64 Communication d'entreprise et réseaux au temps des TICS
Pause Mars Tunis

65 3D Internet, monde virtual, internet du futur
MARS 26 15.45 – D Internet, monde virtual, internet du futur Mars Tunis

66 3D Internet, monde virtual, internet du futur
Realitè virtuelle Reconstruction 3D Monde virtuel Mars Tunis

67 3D Internet, monde virtual, internet du futur
Un monde virtuel est un monde créé artificiellement par un logiciel informatique et pouvant héberger une communauté d'utilisateurs présents sous forme d'avatars ayant la capacité de s'y déplacer et d'y interagir. Mars Tunis

68 3D Internet, monde virtual, internet du futur
3D Internet = Monde virtuel Troisième génération de Internet (1ere - texte vert écran noir….. 2eme la Web) Graphique immersive tri-di Partagé avec les outre internautes Mars Tunis

69 3D Internet, monde virtual, internet du futur
Second Life, la plus connu des mondes virtuel Formation en 3D ENEA, IBM, Universités Mars Tunis

70 L'internet du Futur Revenons aux débuts des années 90. Nous naviguions alors dans des pages de texte sans images par le navigateur Mosaic. Nous quêtions parfois, rarement, des informations par le moteur de recherche Archie qui était d'ailleurs plutôt un index. Nous nous extasions quand, d'un clic sur un hyperlien d'un document situé physiquement au CERN, à Genève, nous allions consulter un document situé physiquement au MIT à Boston. Si je vous avais conviés alors à un événement qui aurait évoqué le Web 2.0, Google, WikiPedia, Amazon et Facebook, vous auriez pensé « le peliks c'est un utopiste ou il s'est cogné contre une porte. » Mars Tunis

71 L'internet du Futur Mobile Pervasive Ubiquitous
….. Internet of the things L’UE lance une initiative de plus de 58,5 millions d’euros pour la recherche et l’expérimentation sur l’Internet du futur. Mars Tunis 71

72 Mars Tunis 72

73 Mars Tunis 73

74 L'internet du Futur. Mais: il s’agit de quoi ??
Mars Tunis 74

75 L'internet du Futur L'Internet des objets
représente l'extension d'Internet à des choses et à des lieux dans le monde réel. Mars Tunis 75

76 L'internet du Futur Alors qu'Internet ne se prolonge habituellement pas au-delà du monde électronique, l'internet des objets (IdO) a pour but de l'étendre au monde réel en associant des étiquettes munies de codes ou d'URLs aux objets ou aux lieux. Ces étiquettes pourront être lues par des dispositifs mobiles sans fil. Mars Tunis 76

77 Mars Tunis 77

78 Mobile Internet L'internet du Futur Déjà avec nous
Mais pas sans problèmes….. Mars Tunis 78

79 Mars Tunis 79

80 Mars Tunis 80

81 Communication d'entreprise et réseaux au temps des TICS
Prof. Stefano A. Gazziano Vous remercie beaucoup pour votre amiable patience et vous souhaite un bonne soirée Mars Tunis


Télécharger ppt "Communication d'entreprise et réseaux au temps des TICS"

Présentations similaires


Annonces Google