Communication d'entreprise et réseaux au temps des TICS

Slides:



Advertisements
Présentations similaires
Tutoriel - Les Ressources du BCH
Advertisements

Réunion du club utilisateur Salesforce.com
Global Total Microcode Support (TMS ou GTMS) Microcode Management proactif pour System i, System p, System x et SAN.
MLF- Florence vendredi 19 février 2010 Arts et culture, langues, projets de dimension européenne… Quelques outils… Quelques pistes et propositions.
Le Cloud Computing : Une évolution ou une révolution
Introduction aux réseaux informatiques
Serveur jeu Le serveur fait partie d'un logiciel de jeu en ligne multi joueur en architecture client serveur. Il répond à des demandes.
Le developpement web  Préparé par : ASSAL Lamiae JAMALI Zakarya
Microsoft Office Groove Le contexte Une utilisation des postes de travail en très grande évolution chez les professionnels. Des lieux de travail.
Excel 2007 et les services Excel. Pourquoi Excel ? Outil privilégié danalyse des données issues des bases multidimensionnelles Ergonomie connue des outils.
Une solution personnalisable et extensible
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Le Grid Computing et son utilisation dans les entreprises et les industries Laurent CANTONE Résoul UNAL.
Laboratoire d'InfoRmatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université Lumière Lyon.
Les différentes notions associées aux réseaux informatiques :
Les réseaux informatiques
NFE 107 : Urbanisation et architecture des systèmes d'information
Avis de lAQIISTI sur la formation infirmière en systèmes et technologies de linformation: composante essentielle au développement de la pratique infirmière.
DOKEOS – Learning Management System
Système de stockage réseaux NAS - SAN
Bases et Principes de la Virtualisation. Votre infrastructure informatique ressemble-t-elle à cela ? 2.
Cloud Computing « l’informatique dans les nuages »
30/03/2017 Formation Plan 1.
D9CW2 Dispositifs et gestion Meheust Willy
ManageEngine ADSelfService Plus
Terminale: GSI Professeur: Mme BELLLI
SECURITE DU SYSTEME D’INFORMATION (SSI)
1 Bibdoc 37 – Regards croisés Bibliothèques virtuelles, usages réels 7 avril 2009 – Tours « Les usages des bibliothèques virtuelles » Jean-Philippe Accart.
Module 1 : Préparation de l'administration d'un serveur
1 Sécurité Informatique : Proxy Présenter par : Mounir GRARI.
Lycée Louis Vincent Séance 1
La mobilité des licences via la Software Assurance
La formation Virtuelle
Introduction aux plates formes
Quel serveur pour vous?.
Gestion des bases de données
Rachid El Boussarghini
1 Présentation de lENT Environnement Numérique de Travail : Cest une plate- forme d'apprentissage sur internet qui sert à créer des contenus et d'activités.
Module 8 : Maintenance des logiciels à l'aide des services SUS
Module 2 : Préparation de l'analyse des performances du serveur
Une infrastructure des TI souple Ruth Morton Conseillère auprès des professionnels des TI, Microsoft
Nom et fonction de l'intervenant Windows 8 Professionnel pour les PME.
‘‘Open Data base Connectivity‘‘
Solutions d'infrastructure, systèmes et réseaux
4 - Annuaires Les Annuaires d ’Entreprises Offres et solutions
Mise en oeuvre et exploitation
1 Architecture orientée service SOA Architecture orientée service SOA (Service Oriented Architecture)
PROJET APP CONTRÔLE ÉLOIGNÉ (contrôle éloigné des appareils, des équipements des outils de contrôle et mesure, ….) Surveillance et contrôle éloigné des.
Utilisez LE CLOUD AVEC DROPBOX
© OutilsInformatique, 2014 tous droits réservés 1.Définir des termes et concepts de la gestion de réseau. 2.Comprendre les avantages d’un réseau. 3.Comprendre.
Expose sur « logiciel teamviewer »
Usages & Compétences Numériques / Centre de Ressources.
Formations en Informatique Comment réussir votre formation en E-learning avec SkillSoft?
Séminaire (6-12 Février 2007) Promo. M2 ESCE-Tunis 2006/07
Le Poste de Travail Présentation du poste de travail - Division informatique - Ousmane SOW - DI-8.
S'initier au HTML et aux feuilles de style CSS Cours 5.
Développement d’application Web.  Internet  WWW  Client/Serveur  HTTP.
S'initier au HTML et aux feuilles de style CSS Cours 5.
Centralisation des sites web d’ELTA & Mise en place d’un serveur NAS
- green computing – l’informatique verte -
STRUCTURE RESEAU DU COLLEGE BARBOT
Nassim Bouaziz Mariève Bureau
Notre vie numérique exige chaque jour des capacités de stockage supplémentaires et nos disques durs vont désormais devenir trop petits. Le cloud computing.
Cloud Computing Tristan Antiope Florian Imbert Sébastien Dallemagne
Lellouche Aaron ITIC Paris
Le e-learning à la Fondation Mérieux Lyon Septembre 2015 Cécile Bekkers.
De quoi parle t’on. Pour aller plus loin
1 Cloud computing L’impact du cloud computing sur la sécurité des informations de l’entreprise Jean-Marc Boursot - Ankeo - Thierry.
VEILLE TECHNOLOGIQU E LE CLOUD R. Mars al A. Guel louz B. Covo lo C. Eise nhauer G. Monn el.
Transcription de la présentation:

Communication d'entreprise et réseaux au temps des TICS Prof. Stefano A. Gazziano ENEA Agence Italienne Pour l’Energie et le Développement Soutenable John Cabot University Université Américaine en Rome Mars 25-26 Tunis stefano.gazziano@enea.it

Communication d'entreprise et réseaux au temps des TICS MARS 25 9.30 – 11.15 Open Source et Web 2.0 – la base technologique nouvelle 11.30 - 13.15 Web 2.0 – Que C’est le signifié pour les entreprises 14.30 – 15.30 Applications Entreprise 15.45 – 17.00 E-tourisme et Debat MARS 26 8.30 – 11 Cloud computing, MS Azure, Amazon Elastic computing, ENEA grille 11.15 - 13.15 Cooperative computing 14.30 - 15.30 Google docs, e-learning 15.45 – 17 3D Internet, monde virtual, internet du futur Mars 25-26 Tunis stefano.gazziano@enea.it

Communication d'entreprise et réseaux au temps des TICS 8.30 – 11 Cloud computing Informatique dans les nuages (cloud computing) Systèmes d'informatique dans le nuage Applications logicielles Infrastructure Stockage Principaux acteurs Avantages Inconvénients Technologie : La Machine virtuelle Cas d’étude : Microsoft Azure Cas d’ étude : Amazon Elastic Computing Cas d’ étude : ENEA Grid Mars 25-26 Tunis stefano.gazziano@enea.it

Informatique dans les nuages (cloud computing) Mars 25-26 Tunis stefano.gazziano@enea.it

Informatique dans les nuages (cloud computing) De système a services La « nuage » c’est un group de Serveurs, logicielle, stockage Processus, applications, Data base, donnée, ……….. quelque part dans le réseau personne ne sait où il est Mars 25-26 Tunis stefano.gazziano@enea.it

Vous vous souvenez de quelque chose ? Cloud computing Vous vous souvenez de quelque chose ? Parfois le « mainframe » des années 70 ?? Mars 25-26 Tunis stefano.gazziano@enea.it

Justement: Le mainframe est répandu pour le réseau Cloud computing Justement: Le mainframe est répandu pour le réseau Mars 25-26 Tunis stefano.gazziano@enea.it

L'informatique dans le nuage (en anglais, cloud computing) est un concept majeur faisant référence à l'utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par un réseau, tel Internet (principe de la grille informatique). Mars 25-26 Tunis stefano.gazziano@enea.it

Cloud computing Les utilisateurs (le plus souvent des entreprises) ne sont plus propriétaires de leurs serveurs informatiques mais peuvent ainsi accéder de manière évolutive à de nombreux services en ligne sans avoir à gérer l'infrastructure sous-jacente, souvent complexe. Les applications et les données ne se trouvent plus sur l'ordinateur local, mais dans un nuage, composé d'un certain nombre de serveurs distants interconnectés au moyen d'une excellente bande passante indispensable à la fluidité du système. L'accès au service se fait par une application standard facilement disponible, la plupart du temps un navigateur Web. Mars 25-26 Tunis stefano.gazziano@enea.it

Cloud computing Le concept d'informatique dans le nuage est comparable à celui de la distribution de l'énergie électrique. La puissance de calcul et de stockage de l'information est proposée à la consommation par des compagnies spécialisées. De ce fait, les entreprises n'ont plus besoin de serveurs propres, mais confient cette ressource à une entreprise qui leur garantit une puissance de calcul et de stockage à la demande. Mars 25-26 Tunis stefano.gazziano@enea.it

 les clouds privés internes,  les clouds privés externes Cloud computing Selon les approches des entreprises, se distinguent trois formes de cloud computing :  les clouds privés internes,  les clouds privés externes  et les clouds publics. Cette notion est regroupée par les Anglo-saxons sous le vocable « elastic computing capacity ». Mars 25-26 Tunis stefano.gazziano@enea.it

L'API d'Amazon, Amazon EC2 est sans doute la plus populaire. Cloud computing Il existe déjà plusieurs systèmes d'informatique dans le nuage et différentes API permettant de communiquer avec ces systèmes. L'API d'Amazon, Amazon EC2 est sans doute la plus populaire. Plusieurs outils sont donc compatibles avec cette API.  Eucalyptus, système libre utilisant de la virtualisation Xen et le langage Java. Il est distribué avec la version d'Ubuntu 9.04 "Jaunty Jackalope" (sortie en avril 2009).  gEclipse est un système libre de gestion de nuage et de grille informatique utilisant Eclipse, il est compatible avec les systèmes Amazon EC2 et S3. Il utilise également le langage Java.  DotRiver. Service managé complet pour la virtualisation des postes de travail. Utilisation exclusive de solutions OpenSource. Mars 25-26 Tunis stefano.gazziano@enea.it

Avantages Cloud computing Optimiser les coûts par rapport aux systèmes conventionnels et de développer des applications partagées sans avoir besoins de posséder ses propres machines dédiées au calcul. En effet, le coût est fonction de la durée de l'utilisation du service rendu et ne nécessite aucun investissement préalable (homme ou machine). Notons également que l'élasticité du nuage permet de fournir des services évolutifs et donc de supporter les montées de charges. Par exemple, Salesforce.com, pionnier dans le domaine de l'informatique dans le nuage gère les données de 54 000 entreprises, et leurs 1,5 millions d'employés, avec seulement 1 000 serveurs (mars 2009). Les services sont extrêmement fiables car basés sur des infrastructures performantes possédant des politiques efficaces de tolérance aux pannes (notamment des répliques). Avantages  La mutualisation du matériel permet d'optimiser les coûts par rapport aux systèmes conventionnels et de développer des applications partagées sans avoir besoins de posséder ses propres machines dédiées au calcul. Comme pour la virtualisation, l'informatique dans le nuage est plus économique grâce à son évolutivité. En effet, le coût est fonction de la durée de l'utilisation du service rendu et ne nécessite aucun investissement préalable (homme ou machine). Notons également que l'élasticité du nuage permet de fournir des services évolutifs et donc de supporter les montées de charges. Par exemple, Salesforce.com, pionnier dans le domaine de l'informatique dans le nuage gère les données de 54 000 entreprises, et leurs 1,5 millions d'employés, avec seulement 1 000 serveurs (mars 2009). De plus, et c'est un argument mis en avant par les fournisseurs d'application en nuage, les services sont extrêmement fiables car basés sur des infrastructures performantes possédant des politiques efficaces de tolérance aux pannes (notamment des répliques). Mars 25-26 Tunis stefano.gazziano@enea.it

Cloud computing Inconvénients Sécurisation de l'accès à l'application entre le client et le serveur distant. Sécurité générale du réseau de l'entreprise : sans cloud computing, une entreprise peut mettre une partie de son réseau en local et sans aucune connexion (directe ou indirecte) à internet, pour des raisons de haute confidentialité par exemple ; dans le cas du cloud computing, elle devra connecter ces postes à internet et ainsi les exposer à un risque potentiel d'attaque. Il est tout a fait possible de stocker les données sensibles des entreprises dans des espaces sécurisés en intra- extra entreprises Inconvénients  Le problème fondamental reste d'une part la sécurisation de l'accès à l'application entre le client et le serveur distant. On peut aussi ajouter le problème de sécurité générale du réseau de l'entreprise : sans cloud computing, une entreprise peut mettre une partie de son réseau en local et sans aucune connexion (directe ou indirecte) à internet, pour des raisons de haute confidentialité par exemple ; dans le cas du cloud computing, elle devra connecter ces postes à internet (directement ou pas) et ainsi les exposer à un risque potentiel d'attaque. D'autre part les entreprises perdent la maîtrise de l'implantation de leurs données ainsi que du cycle de vie des applications, et il n'y aura par ailleurs plus la notion de confidentialité des données (financières, inventions, plans de prospection...). Il est tout a fait possible de stocker les données sensibles des entreprises dans des espaces sécurisés en intra- extra entreprises Mars 25-26 Tunis stefano.gazziano@enea.it

Technologie : La Machine virtuelle Cloud computing Technologie : La Machine virtuelle La virtualisation consiste à faire fonctionner sur un seul ordinateur plusieurs systèmes d'exploitation comme s'ils fonctionnaient sur des ordinateurs distincts. Hardware simulé par logicielle = flexibilité totale Machine virtuelle Une machine virtuelle est un logiciel (généralement assez lourd) qui tourne sur l'OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine virtualise ou/et émule le matériel pour les OS invités, ces derniers croient dialoguer directement avec ledit matériel. Cette solution est très comparable à un émulateur, et parfois même confondue. Cependant l’unité centrale de calcul, c'est-à-dire le microprocesseur, la mémoire de travail (ram) ainsi que la mémoire de stockage (via un fichier) sont directement accessibles aux machines virtuelles, alors que sur un émulateur l’unité centrale est simulée, les performances en sont donc considérablement réduites par rapport à la virtualisation. Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce coût peut être très élevé si le processeur doit être émulé, comme cela est le cas dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs OS hétérogènes sur une même machine grâce à une isolation complète. Les échanges entre les machines se font via les canaux standards de communication entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte réseau réelle. Exemples : QEMU : émulateur de plateformes x86, PPC, Sparc kvm : version modifiée de QEMU tirant parti des instructions de virtualisation des processeurs Intel et AMD (Intel VT ou AMD-V) bochs : émulateur de plateforme x86 Lismoresystems Guest PC : propriétaire, émulateur de plateforme x86 sur matériel PC MacOnLinux : émulateur de plateforme Mac OS sur Linux PPC Microsoft VirtualPC et Microsoft VirtualServer : propriétaire, émulateur de plateforme x86 Parallels : propriétaire PearPC : émulateur de plateforme PPC sur matériel x86 Plex86 : émulateur de plateforme x86 VirtualBox : émulateur de plateforme x86 Oracle VM : propriétaire, émulateur de plateforme x86 (hyperviseur et guest) Neocoretech : produit NDV - Neocoretech Desktop Virtualization http://www.neocoretech.com VMware : propriétaire, émulateur de plateforme x86 (produits VMware Server, VMware Player et VMware Workstation) Hercules : émulateur qui permet l'émulation d'un mainframe z/OS sur PC Windows ou Linux avec émulation des disques Mars 25-26 Tunis stefano.gazziano@enea.it

Cloud computing Mars 25-26 Tunis stefano.gazziano@enea.it

Cas d’etude : Microsoft Azure Cloud computing Cas d’etude : Microsoft Azure Mars 25-26 Tunis stefano.gazziano@enea.it

Cas d’etude : Amazon Elastic Computing Cloud computing Cas d’etude : Amazon Elastic Computing Amazon Elastic Compute Cloud ou EC2 est un service proposé par Amazon permettant à des tiers de louer des serveurs sur lesquels exécuter leurs propres applications web. EC2 permet un déploiement extensible des applications en fournissant un interface web par laquelle un client peut créer des machines virtuelles, c'est-à-dire des instances du serveur, sur lesquelles le client peut charger n'importe quel logiciel de son choix. Un client peut créer, lancer, et arrêter des instances de serveurs en fonction de ses besoins, et paye en fonction du temps d'usage des serveurs, d'où le terme de "élastique" (Elastic en anglais). Un client peut mettre en place des instances de serveurs isolées physiquement (qui ne s'exécutent pas sur le même serveur physique) les unes des autres, de tel façon qu'en cas de panne, il soit possible de restaurer les instances défaillantes et d'assurer la continuation du service.1 Amazon fournit EC2 comme l'un de ses services webs commercialisés sous le terme Amazon Web Services (AWS). Historique  Amazon a annoncé une version beta limité de EC2 le 25 août 2006.2 L'accès à EC2 étais alors sur la base de premier arrivé, premier servis. Amazon a ajouté deux nouveau types d'instances (Large et Extra-Large) le 16 octobre 2007.3 Le 29 mai 2008, deux types supplémentaires ont été ajoutés, High-CPU Medium et High-CPU Extra Large.4 Il y a actuellement cinq types d'instances disponibles. Amazon a ajouté trois nouvelles fonctionnalités le 27 mars 2008.5 Ces fonctionnalités incluent adresse IP statiques, Zones de disponibilités, et choix par l'utilisateur du type de Noyau. Amazon a ajouté Elastic Block Store (EBS) le 20 août 2008.6 Ceci permet du stockage permanent, une fonctionnalité basique qui manquais depuis que le système avait été introduit. Amazon EC2 est considéré un produit mature depuis qu'il a quitté le label "beta" le 23 octobre 2008. Le même jour Amazon a annoncé les fonctionnalités suivantes:7 un agrément de service pour EC2, Microsoft Windows en beta sur EC2, Microsoft SQL Server en beta sur EC2, des plans pour une console de gestion AWS, et des plans pour la gestion du balancement de charge, auto-extensibilité, et service de surveillance des "cloud".7 Ces fonctionnalités ont été ajoutées le 18 mai 2009.8 Machines Virtuelles  EC2 utilise la virtualisation Xen. Chaque machine virtuelle, appelée "instance", fonctionne comme un serveur virtuel privé. Amazon défini la taille des instances en se basant sur les "unités de calcul EC2" - l'équivalent des capacité physique du processeur. Une unité de calcul EC2 équivaut à 1.0-1.2 GHz Opteron ou Xeon de 2007. EC2 fournit les types d'instances suivant: Small Instance La petite instance (default) correspond à l'équivalent d'un système avec 1.7 GB de mémoire, 1 unité de calcul EC2(1 coeur virtuel), 160 GB de stockage d'instance, platforme 32-bit9 Large Instance La grande instance correspond à l'équivalent d'un système avec 7.5 GB de mémoire, 4 unités de calcul EC2(2 coeurs virtuels), 850 GB de stockage d'instance, plateforme 64-bit. Extra Large Instance L'instance extra-large correspond à l'équivalent d'un système avec 15 GB de mémoire, 8 unités de calcul EC2(4 coeurs virtuels), 1690 GB de stockage d'instance, plateforme 64-bit. High-CPU Instance Les instances de cette famille ont proportionnellement plus de ressources processeurs que mémoire (RAM) et visent les applications qui demandent beaucoup de calculs. High-CPU Medium Instance Les instances de cette famille ont la configuration suivante: 1.7 GB de mémoire 5 unités de calcul EC2 (2 virtual cores with 2.5 EC2 Compute Units each) 350 GB de stockage plateforme 32-bit I/O Performance: correcte High-CPU Extra Large Instance 7 GB de mémoire 20 unités de calcul EC2 (8 virtual cores with 2.5 EC2 Compute Units each) 1690 GB de stockage plateforme 64-bit I/O Performance: haute http://aws.amazon.com/ec2/ Mars 25-26 Tunis stefano.gazziano@enea.it

Cas d’etude : ENEA Grid Cloud computing Mars 25-26 Tunis stefano.gazziano@enea.it

Communication d'entreprise et réseaux au temps des TICS Pause Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing 11.15 – 13.15 Calcul distribué Grid et “Cooperative Computing” Collaboration des groupes de travaille dans le réseau Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Internet = possibilitè de connexion globale « the death of distance » - est-il vrai ? distribution des calcule en réseau collaboration volontaire entre ordinateurs collaboration groupes de travaille en localité différent Système distribué [modifier] Modèle d'un système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Calcul distribué Le calcul distribué ou réparti, est l'action de répartir un calcul ou un traitement sur plusieurs microprocesseurs et plus généralement toute unité centrale informatique. Le calcul distribué est souvent réalisé sur des clusters de calcul spécialisés, mais peut aussi être réalisé sur des stations informatiques individuelles à plusieurs cœurs. La distribution d'un calcul est un domaine de recherche des sciences mathématiques et informatiques. Elle implique notamment la notion de calcul parallèle. Système distribué [modifier] Modèle d'un système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Système distribué Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré Système distribué  Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Système distribué  Un système informatique distribué est une collection de postes ou calculateurs autonomes qui sont connectés à l'aide d'un réseau de communication. Chaque poste exécute des composantes, par exemple des séquences de calculs, issues du découpage d'un projet de calcul global, et utilise un intergiciel, qui s'occupe d'activer les composantes et de coordonner leurs activités de telle sorte qu'un utilisateur perçoive le système comme un unique système intégré1. Une propriété importante des systèmes distribués est que la distribution est généralement cachée pour l’utilisateur et les programmeurs de l’application. Il préfère voir l'ensemble comme un seul et unique système et ainsi cacher la complexité de la distribution le plus possible et augmenter la transparence du système distribué. Cela permet de développer le plus possible les applications de la même façon que les systèmes centralisés. Un système distribué est généralement séparable en plusieurs composantes entièrement autonomes. Il n’existe pas de composante maître qui gère les autres et chacune est donc responsable de son propre fonctionnement. Cela permet, entre autres, d’avoir une hétérogénéité dans la technologie utilisée pour chaque composante, ils peuvent être écrits dans différents langages de programmation (Java, Cobol, C++, etc.) et s'exécuter sur différents systèmes d'exploitation (Mac OS X, Linux, Windows, etc.). L’autonomie des composantes fait que les systèmes sont exécutés simultanément (programmation concurrente). De plus, contrairement au système centralisé, les systèmes distribués possèdent plusieurs points de défaillances (problème de composantes, réseau, trafics, etc.). Exigences des systèmes distribués [modifier] Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets [modifier] Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing système distribué : extensibilité (« scalability ») - expansion si nécessaire ; ouverture - interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. accès aux ressources et partage - à la fois le matériel, le logiciel et les données. tolérance aux pannes - répliquer facilement les composantes. Exigences des systèmes distribués Le besoin d'utiliser un système distribué est souvent dérivé d'exigences non fonctionnelles soit : extensibilité (« scalability ») - les systèmes distribués permettent facilement une expansion si nécessaire ; ouverture - les composantes des systèmes distribués possèdent des interfaces bien définies ce qui leur permet d'être facilement extensibles et modifiables. Les services web sont un exemple de système distribué qui possède une grande ouverture ; hétérogénéité – les composantes peuvent être écrites en différents langages sur différentes machines. Par exemple, les éléments d’un serveur peuvent être programmés en C++ et s'exécuter sous Unix, alors que le client peut être en Java et s'exécuter sous Windows ; accès aux ressources et partage - les systèmes distribués fournissent un moyen de partager les ressources, c'est-à-dire à la fois le matériel, le logiciel et les données ; tolérance aux pannes - les systèmes distribués peuvent être plus tolérant aux pannes que les systèmes centralisés, car ils permettent de répliquer facilement les composantes. Projets Total de la puissance de calcul des 500 meilleurs supercalculateurs mondiaux de 1993 à 2008. Source : TOP500 Le projet « pionnier », dans l'emploi du calcul distribué est le SETI@home, développé par l'Université de Berkeley, en Californie (États-Unis). Ce projet, développé en collaboration avec le programme SETI (Search for Extraterrestrial Intelligence), vise la détection d'une possible trace d'activité extraterrestre dans l'espace. Cependant, le besoin croissant de puissance de calcul informatique dans la recherche médicale et autres domaines est surtout ce qui a suscité l'emploi de plus en plus important de cette technologie. Le coût dessupercalculateurs étant trop élevé, il est ainsi envisagé d'utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Le procédé consiste souvent en l'installation d'un logiciel qui télécharge des données brutes à partir d'un serveur, les retravaille (les « traite ») de façon transparente pour l'utilisateur (en n'utilisant que la puissance de calcul non utilisée par les autres applications), puis renvoie les résultats aux serveurs. Certains systèmes de calcul distribué sont ouverts au public via Internet (cf. Quelques projets de calcul partagé) et attirent facilement les utilisateurs. On peut voir l'évolution du projet depuis ses débuts, le classement des utilisateurs, le temps de calcul réalisé par les possesseurs d'une architecture donnée, ou par tel ou tel système d'exploitation (Linux, Windows, Macintosh, etc.). Plusieurs de ces projets utilisent la plate-forme libre BOINC (Berkeley Open Infrastructure for Network Computing), une évolution du SETI@home original. Le calcul distribué est aussi un thème actif de recherche, avec une abondante littérature. Les plus connues des conférences sur le calcul distribué sont « The International Conference on Dependable Systems and Networks2 » et « ACM Symposium on Principles of Distributed Computing3 ». Il existe également la revue « Journal of Parallel and Distributed Computing4 ». Une part importante du génome humain a ainsi pu être décryptée par les internautes du programme « Décrypthon » de l'AFM5 en collaboration avec le CNRS et IBM6. Des projets sont également en cours, centralisés par le World Community Grid visant à l'analyse des protéines et à l'élaboration de solutions contre le sida. La grande majorité des projets de ce type sont faits par des universités et/ou des professeurs très sérieux diffusant leurs résultats. Le Décrypthon a par exemple contribué au décodage du génome humain qui est maintenant disponible sur Internet sans brevet déposé7. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing système distribué ou parallèle : Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Calcule distribué: pourquoi ? Le besoin croissant de puissance de calcul informatique Le coût des supercalculateurs étant trop élevé, Utiliser la puissance de calcul « disponible » d'ordinateurs au repos (ou sous-utilisés). Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Mars 25-26 Tunis stefano.gazziano@enea.it

Internet, intranet, extranet au temps de NTIC Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing La recherche scientifique a besoin d'effectuer des calculs de plus en plus complexes pour résoudre les grands problèmes humanitaires de notre époque. Ces calculs peuvent durer des centaines d'années sans une puissance de calcul informatique adaptée. La mission du est donc de mutualiser la puissance de calcul inutilisée de tous les PC et de créer la plus vaste grille de calcul scientifique au service de l'humanité. Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing IBM Corporation, est le sponsor. A fourni matériel, logiciel, services techniques et expertise nécessaires à la mise en place de l'infrastructure du World Community Grid, hébergement, maintenance et support. World Community Grid runs on software called BOINC (Berkeley Open Infrastructure for Network Computing, developed at University of California, Berkeley, USA with funding from NSF (National Science Foundation). Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing "SETI at home", pouvant se traduire par "SETI à la maison" est un projet de calcul distribué utilisant des ordinateurs branchés sur l'Internet. Il est hébergé par le Space Sciences Laboratory de l'Université de Californie, Berkeley. SETI est un acronyme pour Search for Extra-Terrestrial Intelligence (que l'on pourrait traduire par "Recherche d'une intelligence extraterrestre"). SETI@home est accessible au public depuis le 17 mai 1999 Mars 25-26 Tunis stefano.gazziano@enea.it

Cooperative computing Mars 25-26 Tunis stefano.gazziano@enea.it

Collaboration en ligne N’oublions pas la vieux collaboration entre être humain…. Outils pour partager, discuter, écrire documents en commun, gérer un project, webconferencing, partager écrans et applications. Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Connexion a enea connect Mars 25-26 Tunis stefano.gazziano@enea.it

Communication d'entreprise et réseaux au temps des TICS Pause Mars 25-26 Tunis stefano.gazziano@enea.it

Google docs & e-learning 14.30 - 15.30 Google docs Plateforme de e-learning Mars 25-26 Tunis stefano.gazziano@enea.it

Google docs & e-learning est une suite des évolutions de Google Spreadsheets, version déjà mise en ligne auparavant et de Writely, logiciel de traitement de texte. Ces programmes fusionnés permettent un travail en ligne et collaboratif (inscription de collaborateurs par courriel) et composent l'un des nouveaux fer de lance des applications du Web 2.0. En 2009, 1,75 million d'entreprises utiliseraient Google docs1. Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning L'apprentissage en ligne (au Canada), ou formation en ligne (terme recommandé en France), ou 'e-learning', étymologiquement l'apprentissage par des moyens électroniques Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning La définition de l'apprentissage en ligne (e-learning) donnée par l'Union Européenne est : « l’e-learning est l’utilisation des nouvelles technologies multimédias de l’Internet pour améliorer la qualité de l’apprentissage en facilitant d’une part l’accès à des ressources et à des services, d’autre part les échanges et la collaboration à distance » Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning … pas un CBT Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Deux exemples Système propriétaire: SABA Système Open Source : MOODLE Mars 25-26 Tunis stefano.gazziano@enea.it

Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Moodle sous licence open source servant à créer des communautés d'apprenants autour de contenus et d'activités pédagogiques. Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning : MOODLE Forums, gestionnaire de ressources, tests et neuf modules clé en main (Devoirs, clavardage, sondages, glossaires, journal, étiquettes, leçons, wiki, tests, base de données, blogues, flux RSS...). Les questions créées avec ce module peuvent être mutualisées et réutilisées dans différents contextes d'épreuve. Le développement de Moodle est fortement influencé par les demandes de la communauté d'administrateurs et d'utilisateurs (enseignants, pédagogues) de Moodle. On peut développer de nouveaux modules facilement puisque Moodle s'appuie sur le PHP, le langage de script le plus utilisé dans le monde de l'Internet. Interface conviviale avec les formateurs, apprenants et administrateurs. Sa prise en main s'effectue en moins d'une heure. Coût d'hébergement (100 à 200 euros). Chaque installation comporte un pack de près de 90 langues. Des rapports d'usage détaillés pour chaque apprenant permettent de superviser les efforts d'apprentissage. Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Mars 25-26 Tunis stefano.gazziano@enea.it

e-learning Mars 25-26 Tunis stefano.gazziano@enea.it

Communication d'entreprise et réseaux au temps des TICS Pause Mars 25-26 Tunis stefano.gazziano@enea.it

3D Internet, monde virtual, internet du futur MARS 26 15.45 – 17 3D Internet, monde virtual, internet du futur Mars 25-26 Tunis stefano.gazziano@enea.it

3D Internet, monde virtual, internet du futur Realitè virtuelle Reconstruction 3D Monde virtuel Mars 25-26 Tunis stefano.gazziano@enea.it

3D Internet, monde virtual, internet du futur Un monde virtuel est un monde créé artificiellement par un logiciel informatique et pouvant héberger une communauté d'utilisateurs présents sous forme d'avatars ayant la capacité de s'y déplacer et d'y interagir. Mars 25-26 Tunis stefano.gazziano@enea.it

3D Internet, monde virtual, internet du futur 3D Internet = Monde virtuel Troisième génération de Internet (1ere - texte vert écran noir….. 2eme la Web) Graphique immersive tri-di Partagé avec les outre internautes Mars 25-26 Tunis stefano.gazziano@enea.it

3D Internet, monde virtual, internet du futur Second Life, la plus connu des mondes virtuel Formation en 3D ENEA, IBM, Universités Mars 25-26 Tunis stefano.gazziano@enea.it

L'internet du Futur Revenons aux débuts des années 90. Nous naviguions alors dans des pages de texte sans images par le navigateur Mosaic. Nous quêtions parfois, rarement, des informations par le moteur de recherche Archie qui était d'ailleurs plutôt un index. Nous nous extasions quand, d'un clic sur un hyperlien d'un document situé physiquement au CERN, à Genève, nous allions consulter un document situé physiquement au MIT à Boston. Si je vous avais conviés alors à un événement qui aurait évoqué le Web 2.0, Google, WikiPedia, Amazon et Facebook, vous auriez pensé « le peliks c'est un utopiste ou il s'est cogné contre une porte. » Mars 25-26 Tunis stefano.gazziano@enea.it

L'internet du Futur Mobile Pervasive Ubiquitous ….. Internet of the things L’UE lance une initiative de plus de 58,5 millions d’euros pour la recherche et l’expérimentation sur l’Internet du futur. Mars 25-26 Tunis stefano.gazziano@enea.it 71

Mars 25-26 Tunis stefano.gazziano@enea.it 72

Mars 25-26 Tunis stefano.gazziano@enea.it 73

L'internet du Futur. Mais: il s’agit de quoi ?? Mars 25-26 Tunis stefano.gazziano@enea.it 74

L'internet du Futur L'Internet des objets représente l'extension d'Internet à des choses et à des lieux dans le monde réel. Mars 25-26 Tunis stefano.gazziano@enea.it 75

L'internet du Futur Alors qu'Internet ne se prolonge habituellement pas au-delà du monde électronique, l'internet des objets (IdO) a pour but de l'étendre au monde réel en associant des étiquettes munies de codes ou d'URLs aux objets ou aux lieux. Ces étiquettes pourront être lues par des dispositifs mobiles sans fil. Mars 25-26 Tunis stefano.gazziano@enea.it 76

Mars 25-26 Tunis stefano.gazziano@enea.it 77

Mobile Internet L'internet du Futur Déjà avec nous Mais pas sans problèmes….. Mars 25-26 Tunis stefano.gazziano@enea.it 78

Mars 25-26 Tunis stefano.gazziano@enea.it 79

Mars 25-26 Tunis stefano.gazziano@enea.it 80

Communication d'entreprise et réseaux au temps des TICS Prof. Stefano A. Gazziano Vous remercie beaucoup pour votre amiable patience et vous souhaite un bonne soirée Mars 25-26 Tunis stefano.gazziano@enea.it