La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Quelques réflexions sur le futur de linformatique Bernard Ourghanlian Directeur Technique et Sécurité – Microsoft France.

Présentations similaires


Présentation au sujet: "Quelques réflexions sur le futur de linformatique Bernard Ourghanlian Directeur Technique et Sécurité – Microsoft France."— Transcription de la présentation:

1 Quelques réflexions sur le futur de linformatique Bernard Ourghanlian Directeur Technique et Sécurité – Microsoft France

2 Pour que les choses soient claires… Le présent est indéfini, le futur na de réalité quen tant quespoir présent, le passé na de réalité quen tant que souvenir présent. Jorge Luis Borges Extrait de Fictions

3 Le rapport ops/s/$ a eu trois phases de croissance MécaniqueRelais Doublement en 7,5 ans Tube, transistor,.. Doublement en 2,3 ans Microprocesseur Doublement en 1 an Larry Roberts, 1969

4 La loi de Moore et ses conséquences Le rapport prix/performance double tous les 18 mois Le rapport prix/performance double tous les 18 mois Un facteur 100 par décennie Un facteur 100 par décennie Progression dans les 18 prochains mois = la somme de TOUS les progrès précédents Progression dans les 18 prochains mois = la somme de TOUS les progrès précédents –Nouveau stockage = la somme de tout lancien stockage (depuis lorigine des temps) –Nouvelles capacités de traitement = la somme de toutes les anciennes capacités de traitement (depuis lorigine des temps) Escherichia coli double toutes les 20 minutes ! Escherichia coli double toutes les 20 minutes ! 15 ans auparavant

5 La loi de Moore et ses conséquences Le rapport prix/performance double tous les 18 mois Le rapport prix/performance double tous les 18 mois Un facteur 100 par décennie Un facteur 100 par décennie Progression dans les 18 prochains mois = la somme de TOUS les progrès précédents Progression dans les 18 prochains mois = la somme de TOUS les progrès précédents –Nouveau stockage = la somme de tout lancien stockage (depuis lorigine des temps) –Nouvelles capacités de traitement = la somme de toutes les anciennes capacités de traitement (depuis lorigine des temps) Escherichia coli double toutes les 20 minutes ! Escherichia coli double toutes les 20 minutes ! 15 ans auparavant

6 Triangles/ seconde Triangles/ seconde Évolution du graphique Amélioration par un facteur 100 en 3 ans Amélioration par un facteur 100 en 3 ans

7 Évolution du stockage de masse Amélioration par un facteur 8 en 4 ans Amélioration par un facteur 8 en 4 ans Gigaoctets par disque Gigaoctets par disque

8 Réseaux : la loi de Gilder 3 fois la bande passante/an pour les 25 prochaines années Aujourdhui : Aujourdhui : –40 Gb/s par canal (λ) –12 canaux par fibre (wdm) = 500 Gb/s –Groupe de 32 fibres = 16 Tb/s/groupe Dans les laboratoires : 3 Tb/s/fibre (400 x WDM) Dans les laboratoires : 3 Tb/s/fibre (400 x WDM) En théorie 25 Tb/s par fibre En théorie 25 Tb/s par fibre 1 Tb/s = la totalité de la bande passante WAN aux USA en 1996 ! 1 Tb/s = la totalité de la bande passante WAN aux USA en 1996 ! La bande passante agrégée double tous les 8 mois! La bande passante agrégée double tous les 8 mois! 1 fibre = 25 Tb/s

9 Il y a donc quelques tendances favorables de lindustrie… La loi de Moore continue de se vérifier La loi de Moore continue de se vérifier –La plupart des experts saccordent pour penser que la loi de Moore pourrait continuer dexercer ses effets jusquà 16 nm, cest-à-dire jusquà 2018 ou 2020 –Après cela, il se probablement nécessaire de recourir à une sorte de molecular computing ou à dautres types de paradigmes qui restent à définir Les capacités de traitement en parallèle augmentent à tous les niveaux : Les capacités de traitement en parallèle augmentent à tous les niveaux : –Au sein dun seul chip (plusieurs CPU / composant aujourdhui) –Au sein dun seul nœud (des dizaines de CPU / PC dès 2006) –Au travers la multiplicité de périphériques de plus petite taille (cartes à puce, RFID,…)

10 Il y a donc quelques tendances favorables de lindustrie… Les bus et interfaces hardware continueront de faire face aux évolutions de la loi de Moore en passant de plus en plus du « parallèle » au « série » ce qui aura leffet de bord inattendu daccélérer la « désagrégation des moyens de traitements » Les bus et interfaces hardware continueront de faire face aux évolutions de la loi de Moore en passant de plus en plus du « parallèle » au « série » ce qui aura leffet de bord inattendu daccélérer la « désagrégation des moyens de traitements » La bande passante des réseaux locaux continuera daugmenter : La bande passante des réseaux locaux continuera daugmenter : –Ethernet 20 Gb sera standard sur les PC dans les 5 ans Dici 3 ans, il sera moins cher dajouter une interface radio à un périphérique plutôt quune interface USB : Dici 3 ans, il sera moins cher dajouter une interface radio à un périphérique plutôt quune interface USB : –Les radios ont lavantage de suivre la loi de Moore, ce que ne permettent pas les câbles de cuivre… –Ces deux courbes de coûts vont bientôt se croiser et il sera plus économique dajouter une interface radio plutôt quune interface USB

11 Dautres tendances favorables de lindustrie… De nombreux transistors seront utilisés sur les NIC afin de remplacer le logiciel qui sexécute aujourdhui dans les CPU : De nombreux transistors seront utilisés sur les NIC afin de remplacer le logiciel qui sexécute aujourdhui dans les CPU : –RDMA (Remote DMA) et TCP Offload –Chiffrement –RAID –Codec Audio et Video –Parsing XML et SOAP A partir de la fin de lannée, tous les PC seront 64 bits A partir de la fin de lannée, tous les PC seront 64 bits –Lannée prochaine pour les portables Tous les PC seront équipés de DSP en standard Tous les PC seront équipés de DSP en standard

12 Dautres tendances favorables de lindustrie… Les capacités de stockage et la puissance des cartes graphiques évoluent plus rapidement que la loi de Moore : Les capacités de stockage et la puissance des cartes graphiques évoluent plus rapidement que la loi de Moore : –Les capacités disque doublent tous les 12 mois –Le débit des processeurs graphiques au sein de leur pipeline double tous les 12 mois

13 Dautres tendances favorables de lindustrie… Disques durs Disques durs –La densité par unité de surface des plateaux des disques durs qui a crû denviron 100 % par an, continuera dévoluer sur la base de 50 à 60 % par an, ralentissant éventuellement à 30 % en 2008 –Un PC typique aura 1 TO en 2008 –En 2008, la seconde génération de disques SATA (Serial ATA) aura un taux de transfert (séquentiel) de 300 MO/s Il faudra quand même de 4 à 5 heures pour sauvegarder un disque dun TO (disque à disque) Il faudra quand même de 4 à 5 heures pour sauvegarder un disque dun TO (disque à disque)

14 Dautres tendances favorables de lindustrie… Disques amovibles Disques amovibles –La capacité de stockage des CD et des DVD réinscriptibles augmentera à travers les technologies Blu-Ray (50 GO) ou HD-DVD (30 GO) ; ces technologies seront largement disponibles en 2006 –Il sera possible daller jusquà 1 TO par disque en 2012, à travers des techniques telles que le stockage holographique ou les MODS (multiplexed optical disk storage) –Il faudra trouver cependant un moyen daccélérer les taux de transfert vers ces disques

15 Dautres tendances favorables de lindustrie… Mémoire flash Mémoire flash –La mémoire flash doublera en densité chaque année pendant les années à venir –Le coût de ces mémoire qui approchera les 10$ par GO en 2008 (ou avant) restera cependant infiniment plus cher que son équivalent en disque dur

16 Quelques points dinflexion… La densité des transistors augmente mais lécart avec le temps daccès à la mémoire se creuse : La densité des transistors augmente mais lécart avec le temps daccès à la mémoire se creuse : –La densité des transistors sur un CPU augmente denviron 60 % par an (loi de Moore) –Les vitesses daccès à la mémoire augmentent seulement de 3 % par an –Cela représente aujourdhui plus de cycles dhorloge pour accéder la mémoire centrale depuis un Pentium IV de 2004 que cela ne prenait à un en 1988 pour aller récupérer des données depuis un disque dur (lent)

17 Quelques points dinflexion… Temps daccès CPU/mémoire Source : Dean Klein, Micron Corporation

18 Quelques points dinflexion… Intel a atteint la « barrière thermique » et a annoncé que tous les prochains CPU auraient au moins deux CPU ou plus par composant Intel a atteint la « barrière thermique » et a annoncé que tous les prochains CPU auraient au moins deux CPU ou plus par composant –Dans le futur, une diminution du temps de cycle sera difficile –La densité des transistors continuera cependant daugmenter mais avec plus de CPU par composant plutôt que sous la forme de processeurs uniques plus rapides –Les nouveaux processeurs nexhiberons PAS daugmentation des GHz ou de bien meilleurs nombres de cycle par instruction (CPI) comme dans les années passées ; au lieu de cela, on utilisera la loi de Moore pour augmenter le niveau de parallélisme –On parle ici de CPU multi-cœurs et multithreads (Intel les appelle hyper-threads ; en fait prolongation de la notion de SMT – Simutaneous Multithread)

19 Quelques points dinflexion… Cette tendance aura dénormes conséquences sur lindustrie du logiciel : Cette tendance aura dénormes conséquences sur lindustrie du logiciel : –Un code séquentiel qui sexécute à une vitesse donnée « x » tournera toujours à la vitesse « x » 18 mois plus tard sur la prochaine génération de CPU –Un code bien conçu capable de sexécuter en mode parallèle en utilisant les modèles de threading actuels reste très coûteux à écrire, à déboguer et à maintenir au cours du temps Leffet de la loi de Moore (effet de second ordre sur la vitesse du logiciel) peut désormais être considéré comme marginal pour tous les codes séquentiels existants Leffet de la loi de Moore (effet de second ordre sur la vitesse du logiciel) peut désormais être considéré comme marginal pour tous les codes séquentiels existants –Nous allons devoir être capables de créer du code parallèle (concurrent code) si lon veut rejoindre la courbe performance/coût du hardware

20 Quelques points dinflexion… Continuation de la prolifération des périphériques embarqués Continuation de la prolifération des périphériques embarqués –Les périphériques embarqués de tous types auront des processeurs capables dexécuter des applications « riches » pour une très faible consommation de courant –Par exemple, les téléphones portables en 2007 seront équivalents, en capacité de traitement, à un portable typique daujourdhui, avec un processeur ARM 7 multi-cœur à 1,6 GHz (ou équivalent)

21 Quelques points dinflexion… Reconfigurable Computing Reconfigurable Computing –Un certain nombre de nouvelles méthodologies de conception émergentes permettant la mise en œuvre de hardware reconfigurable à la volée bénéficieront essentiellement à lembarqué –Les solutions de Tensilica et Stretch de type SOC (System On a Chip) permettront dinstancier des fonctions hardware nouvelles instantanément dans le hardware (DCT, conversion despace de couleurs), en temps réel –On peut donc imaginer ce type de hardware capable dinstancier « JIT » de nouvelles capacités en temps réel en fonction de la charge : DSP, ou dautres types de coprocesseurs

22 Quelques points dinflexion… GPU GPU –Les GPU deviennent des entités de calcul et de traitement extrêmement conséquentes – on peut même imaginer que certains traitement vectoriels puissent utiliser lénorme quantité de transistors des GPU, leur architecture naturellement parallèle et leur grande bande passante mémoire –En raison de lapparition denvironnements graphiques PCI Express, cela sera la première fois quil puisse être envisagé de placer un package GPU en dehors dun PC (on peut imaginer daugmenter les capacités limitées de traitement graphique dun portable par une extension située dans la station daccueil) –Une éventualité plus spéculative pourrait être de faire migrer le GPU dans lécran –Vers 2010, on pourra imaginer de distribuer les processeurs graphiques afin de gérer les besoins haute résolution des moyens daffichage composites

23 Quelques points dinflexion… Généralisation de la mise en place de machines virtuelles Généralisation de la mise en place de machines virtuelles –Intel (Vanderpool), AMD (Pacifica) vont introduire une assistance matérielle à la virtualisation dans très peu de temps –Microsoft a annoncé lors de WinHEC sa volonté de mettre sur le marché un hyperviseur (bénéficiant également des capacités disolation de la mémoire dont NGSCB dotera potentiellement les nouveaux modèles de PC)

24 Quelques points dinflexion… UFD (USB Flash Devices) UFD (USB Flash Devices) –Les UFD vont devenir omniprésents, approchant les 100 millions dunité livrées en 2006 –En 2010, les UFD pourront détenir jusquà 16 GO –Les UFD commencent à ce différencier pour attaquer plusieurs segments fonctionnels ; exemples : UFD transportant des profils personnels, paramétrages réseau, « lettres de créance » réseau UFD transportant des profils personnels, paramétrages réseau, « lettres de créance » réseau UFD contenant des applications UFD contenant des applications UFD transportant et « cachant » des données et des applications dentreprise (chiffrées), synchronisées lors de la connexion à lInternet UFD transportant et « cachant » des données et des applications dentreprise (chiffrées), synchronisées lors de la connexion à lInternet Music players (tel que lIpod mini-shuffle dApple). Music players (tel que lIpod mini-shuffle dApple).

25 Quelques points dinflexion… Périphériques portables Périphériques portables Les périphériques portables (tels que les téléphones portables) auront plusieurs mémoires flash qui pourront transporter chacun 2 GO (chip de 16 Gb) en 2008 ; en utilisant plusieurs de ces flashes, 4 à 8 GO par téléphone devient imaginable Les périphériques portables (tels que les téléphones portables) auront plusieurs mémoires flash qui pourront transporter chacun 2 GO (chip de 16 Gb) en 2008 ; en utilisant plusieurs de ces flashes, 4 à 8 GO par téléphone devient imaginable Les périphériques portables (tels que les téléphones portables) auront potentiellement des disques durs (1 ou 0,8) capables de supporter 8 GO à la fin 2005 et potentiellement 32 GO en 2008 Les périphériques portables (tels que les téléphones portables) auront potentiellement des disques durs (1 ou 0,8) capables de supporter 8 GO à la fin 2005 et potentiellement 32 GO en 2008

26 Quelques points dinflexion… Mémoire non volatile Mémoire non volatile –De nouvelles technologies de NVM entreront probablement sur le marché entre 2006 et 2010, tout dabord pour répondre aux besoins des téléphones portables et dautres périphériques portables

27 Quelques points dinflexion… UWB (Ultra-Wide Band) UWB (Ultra-Wide Band) –Permet la création de PC réellement sans fil (y compris pour les accès disques) ; Intel et dautres « poussent » les protocoles USB sans fil (au-dessus dUSB) pour en accélérer ladoption –Les chipsets UWB seront disponibles en 2006 (les versions beta sont disponibles aujourdhui) ; leur vitesse dadoption dépendra de la stabilisation du standard UWB DS-UWB (Direct Sequence) poussé par Motorola DS-UWB (Direct Sequence) poussé par Motorola MBOA (Multi Band OFDM) poussé par Intel MBOA (Multi Band OFDM) poussé par Intel

28 Quelques points dinflexion… RFID, NFD et Senseurs RFID, NFD et Senseurs –Nouvelles « races » dapplication sans fil et dinteraction homme – machine en cours démergence dans un contexte de proximité immédiate (< 30 cm), grâce à lapparition de technologies de type NFC (Near Field Communications), incluant des transactions périphérique à périphérique, lauthentification, lappairage des périphériques,… –De très petits Smart Dust sensor chips qui contiennent un processeur, de la mémoire et une radio sans fil ainsi quun senseur vont arriver sur le marché très rapidement (Dust Networks (http://www.dust-inc.com) pour des prx très attractifs (moins de 2$) avec une batterie utilsable pendant 10 ans Ce type de technologie peut parfaitement sintégrer dans un réseau P2P avec de réelles capacités dauto-configuration, autoréparation, sans besoin de serveurs centraux (DNS, sécurité) Ce type de technologie peut parfaitement sintégrer dans un réseau P2P avec de réelles capacités dauto-configuration, autoréparation, sans besoin de serveurs centraux (DNS, sécurité) Ce type de technologie ouvre la perspective de la notion « dintelligence ambiante » Ce type de technologie ouvre la perspective de la notion « dintelligence ambiante »

29 Le PC des années 2010… En 2010, on peut imaginer quun PC soit constitué de : En 2010, on peut imaginer quun PC soit constitué de : –Un processeur à 8 ou 16 cœurs Stockage Stockage Un disque dur hybride de 3 TO avec une composante rotative classique et 1-2 GO de cache en mémoire flash Un disque dur hybride de 3 TO avec une composante rotative classique et 1-2 GO de cache en mémoire flash Un périphérique USB chiffré et amovible contenant le paramétrage de lenvironnement de lutilisateur et les applications de lentreprise Un périphérique USB chiffré et amovible contenant le paramétrage de lenvironnement de lutilisateur et les applications de lentreprise Connectivité Connectivité Une interface Ethernet filaire de 20 GO/s Une interface Ethernet filaire de 20 GO/s Une interface sans fil de type MIMO de 100 Mb/s Une interface sans fil de type MIMO de 100 Mb/s Une connexion WAN de 1 Mb/s Une connexion WAN de 1 Mb/s UWB pour les périphériques UWB pour les périphériques Interface homme – machine Interface homme – machine Navigation par souris ou voix Navigation par souris ou voix Entrée de données par clavier Entrée de données par clavier Ecran OLED 30 pouces Ecran OLED 30 pouces Batterie de 8 heures Batterie de 8 heures

30 Le téléphone portable des années 2010… Un processeur ARM doté de 4 cœurs ou plus Un processeur ARM doté de 4 cœurs ou plus Stockage Stockage Un micro disque dur de 32 GO ou de 8 GO en flash Un micro disque dur de 32 GO ou de 8 GO en flash Un périphérique USB chiffré et amovible contenant le paramétrage de lenvironnement de lutilisateur et les applications de lentreprise Un périphérique USB chiffré et amovible contenant le paramétrage de lenvironnement de lutilisateur et les applications de lentreprise Connectivité Connectivité Une interface sans fil de type MIMO de 100 Mb/s Une interface sans fil de type MIMO de 100 Mb/s Une connectivité WAN de 1 Mo/s Une connectivité WAN de 1 Mo/s Une interface UWB pour la connexion dautre périphériques et décrans de grande taille Une interface UWB pour la connexion dautre périphériques et décrans de grande taille Interface homme – machine Interface homme – machine Navigation par clavier, voix et joystick Navigation par clavier, voix et joystick Entrées de données par clavier, voix et potentiellement de nouvelles interfaces homme – machine telle que X-nav Entrées de données par clavier, voix et potentiellement de nouvelles interfaces homme – machine telle que X-nav Ecran OLED portable 2-3 pouces Ecran OLED portable 2-3 pouces Projection de laffichage pour des images 32 pouces en utilisant des LED blanches Projection de laffichage pour des images 32 pouces en utilisant des LED blanches

31 Le téléphone portable des années 2010… Une batterie qui dure typiquement de 3 à 5 jours Une batterie qui dure typiquement de 3 à 5 jours Autres fonctionnalités Autres fonctionnalités Player MP3 Player MP3 Géo-localisation Géo-localisation Caméra de 10+ millions de pixels avec une bonne optique Caméra de 10+ millions de pixels avec une bonne optique Camara vidéo avec des capacités denregistrement haute définition directement sur disque Camara vidéo avec des capacités denregistrement haute définition directement sur disque Télévision (via DVB-H) – 8 heures de visualisation Télévision (via DVB-H) – 8 heures de visualisation Taille ~ 100 cc Taille ~ 100 cc

32 Quelques tendances moins favorables de lindustrie… On a déjà vu la problématique de la « barrière thermique » et de ses conséquences fondamentales sur le monde du logiciel On a déjà vu la problématique de la « barrière thermique » et de ses conséquences fondamentales sur le monde du logiciel Mais ce nest pas tout… Mais ce nest pas tout…

33 Quelques tendances moins favorables de lindustrie… La complexité du développement et du test du logiciel est en augmentation constante : La complexité du développement et du test du logiciel est en augmentation constante : –Les conceptions de logiciels de grande taille (Windows est un bon exemple) font face à la « barrière de la complexité », conceptions qui se complexifient encore en raison de laugmentation de la taille de la matrice de tests (compatibilité ascendante) –Il ny a pas déquivalent à la loi de Moore pour les développements logiciels Les nouvelles possibilités du logiciel ne doublent pas tous les 18 mois… Les nouvelles possibilités du logiciel ne doublent pas tous les 18 mois… Ceci est un problème partagé par toute lindustrie (même si peu sen rendent compte pour linstant) qui est encore exacerbé par les tendances à la décentralisation et à la connectivité permanente : Ceci est un problème partagé par toute lindustrie (même si peu sen rendent compte pour linstant) qui est encore exacerbé par les tendances à la décentralisation et à la connectivité permanente : –Envisager des tests dexécution exhaustifs dans un système distribué devient impraticable car tous les composants ne peuvent : Jamais être dans un bon état connu en même temps Jamais être dans un bon état connu en même temps Jamais être entièrement sous votre contrôle administratif local Jamais être entièrement sous votre contrôle administratif local On ne peut tester tout lInternet à la fois On ne peut tester tout lInternet à la fois On ne peut rebooter lInternet On ne peut rebooter lInternet

34 Quelques tendances moins favorables de lindustrie… Il y a plus de capacité de calcul à la « périphérie » quau « centre » : Il y a plus de capacité de calcul à la « périphérie » quau « centre » : –Le centre est effectivement en ralentissement par rapport à la périphérie –Il y a plus de capacité de stockage à la périphérie quau centre –La gestion du temps de latence devient le point focal de la conception à tous les niveaux : Entre le CPU et la mémoire centrale Entre le CPU et la mémoire centrale Entre les PC clients et les datacenters Entre les PC clients et les datacenters La décentralisation des périphériques continue dêtre une tendance lourde La décentralisation des périphériques continue dêtre une tendance lourde La tendance à la généralisation du sans-fil entraîne une plus grande mobilité de tous les périphériques La tendance à la généralisation du sans-fil entraîne une plus grande mobilité de tous les périphériques –Davantage de topologies dynamiques ; plus grands besoins en sécurité La complexité du logiciel est en augmentation rapide dans 2 dimensions : la quantité de code interconnecté et le besoin de plus en plus pressant pour du code plus parallèle La complexité du logiciel est en augmentation rapide dans 2 dimensions : la quantité de code interconnecté et le besoin de plus en plus pressant pour du code plus parallèle Il continue dy avoir abondance de transistors et un déficit didées sur la façon de mieux tirer parti du hardware Il continue dy avoir abondance de transistors et un déficit didées sur la façon de mieux tirer parti du hardware –On ne peut construire et tester du logiciel en utilisant des méthodologies traditionnelles suffisamment rapidement pour utiliser toute cette puissance de traitement

35 Conclusions provisoires Linformatique doit faire face à un certain nombre de problèmes fondamentaux… Linformatique doit faire face à un certain nombre de problèmes fondamentaux…

36 Et si lon devait réfléchir à la conception dun nouveau système dexploitation… Dans les années 70, Xerox au PARC a développé le premier « PC » en se posant la question suivante : Dans les années 70, Xerox au PARC a développé le premier « PC » en se posant la question suivante : –« Que se passerait-il si la puissance informatique était gratuite ? » Il faut se poser une question assez semblable : Il faut se poser une question assez semblable : –« Que se passerait-il si les transistors étaient gratuits et la bande passante illimitée ? » –Comment une telle hypothèse permettrait-elle de repenser la notion dordinateur ? Que pourrait-on faire avec des milliards de transistors partout en dehors daugmenter la taille des caches de niveau 2 sur de coûteux composants CPU ? Que pourrait-on faire avec des milliards de transistors partout en dehors daugmenter la taille des caches de niveau 2 sur de coûteux composants CPU ? Que pourrait-on faire si lon avait processeurs sur un seul chip avec un TO de mémoire locale ? Les programmes séquentiels actuels ne peuvent raisonnablement pas tirer parti dun tel futur (tout à fait envisageable…) Que pourrait-on faire si lon avait processeurs sur un seul chip avec un TO de mémoire locale ? Les programmes séquentiels actuels ne peuvent raisonnablement pas tirer parti dun tel futur (tout à fait envisageable…)

37 Et si lon devait réfléchir à la conception dun nouveau système dexploitation… Si le calcul était gratuit et que la bande passante était illimitée, les modèles de programmation et les systèmes dexploitation seraient bien mal équipés pour une telle réalité Si le calcul était gratuit et que la bande passante était illimitée, les modèles de programmation et les systèmes dexploitation seraient bien mal équipés pour une telle réalité –Le parallélisme et la complexité présentent un challenge majeur pour les développeurs de logiciel à tous les niveaux –Puisque la bande passante vient de limagination des ingénieurs mais que le temps de latence est la conséquence des lois de base de la physique, lécart en terme de temps de latence na aucune chance de changer –Tout développeur de logiciel devient un développeur de systèmes distribués en raison des tendances hardware évoquées précédemment Y a-t-il un modèle de programmation qui permet dadresser ces problèmes ? Nous pensons que la réponse est oui Y a-t-il un modèle de programmation qui permet dadresser ces problèmes ? Nous pensons que la réponse est oui –Utilisation de variantes du π- calcul (algèbres des processus mobiles) –Systèmes de type et contrôle de modèle pour administrer la preuve de justesse lors de la compilation pour créer des services composés

38 Le π-calcul est le modèle de référence pour le calcul distribué introduit par Robin Miller Le π-calcul est le modèle de référence pour le calcul distribué introduit par Robin Miller –Ce modèle est fondé sur lémission de messages sur des canaux nommés et fait le pendant du λ-calcul (qui permet de formaliser le calcul séquentiel) –Ce modèle abstrait général concentre toutes les caractéristiques des systèmes de processus mobiles dans un formalisme simple –Le π-calcul est, par exemple, à la base de la sémantique du langage Erlang –La sémantique classique du π-calcul est fondée sur la réécriture de termes où la communication consiste en une substitution de noms tout comme en λ- calcul Le renommage implicite des noms de canaux par alpha-conversion et l'équivalence structurelle destinée à rapprocher les termes communicants rendent impossible l'identification précise des processus et des canaux créés lors de l'évolution du système Le renommage implicite des noms de canaux par alpha-conversion et l'équivalence structurelle destinée à rapprocher les termes communicants rendent impossible l'identification précise des processus et des canaux créés lors de l'évolution du système –Le π-calcul typé est le noyau de langages expérimentaux parallèles ou distribués comme Pict, Join et Facile Le système Coq est un système basé sur une théorie des types, dans lequel il est relativement aisé de faire des preuves par induction Le système Coq est un système basé sur une théorie des types, dans lequel il est relativement aisé de faire des preuves par induction Utilisation Coq par Georges Gonthier, chercheur au MSRC, en collaboration avec Benjamin Werner, chercheur à lINRIA, pour la démonstration du théorème des quatre couleurs Utilisation Coq par Georges Gonthier, chercheur au MSRC, en collaboration avec Benjamin Werner, chercheur à lINRIA, pour la démonstration du théorème des quatre couleurs Π-calcul

39 Π-calcul – Quelques références An Introduction to the Pi-Calculus by Joachim Parrow. pp. 3-14, 25-28, An Introduction to the Pi-Calculus by Joachim Parrow. pp. 3-14, 25-28, –In Handbook of Process Algebra, ed. Bergstra, Ponse, Smolka, pages , Elsevier –URL: A Foundation for Actor Computation by Agha, Mason, Smith, Talcott. pp A Foundation for Actor Computation by Agha, Mason, Smith, Talcott. pp –In Journal of Functional Programming, –URL: Mobile Ambients by Cardelli and Gordon. Mobile Ambients by Cardelli and Gordon. –In Theoretical Computer Science, special issue on Coordination, D. Le Métayer Editor. Vol 240/1, July 2000, pages , Elsevier. –URL: Join Calculus by Fournet and Gonthier. Join Calculus by Fournet and Gonthier. –"The reflexive chemical abstract machine and the join-calculus". In Proceedings Principles Of Programming Languages –URL: A Calculus of Mobile Processes (Part I) by Milner, Parrow and Walker. A Calculus of Mobile Processes (Part I) by Milner, Parrow and Walker. –URL: The Polyadic Pi-Calculus: A Tutorial by Milner. pp The Polyadic Pi-Calculus: A Tutorial by Milner. pp –URL: A Brief Introduction to Applied Pi by Sewell. pp A Brief Introduction to Applied Pi by Sewell. pp –URL:

40 Développement simultané dun nouveau langage de programmation et dun système dexploitation pour tenter de faire face aux problèmes de parallélisme et de complexité dont on vient de parler Développement simultané dun nouveau langage de programmation et dun système dexploitation pour tenter de faire face aux problèmes de parallélisme et de complexité dont on vient de parler –Semblable au processus de co-évolution dUnix et du langage C –La conception de lun serait utilisé pour influer le développement de lautre (et vice versa) –Les deux pouvant exister séparément ou ensemble Et si lon devait réfléchir à la conception dun nouveau système dexploitation…

41 Quel langage pour un tel environnement ? Probablement un langage de programmation conçu pour embrasser les problématiques de parallélisme et dasynchronisme Probablement un langage de programmation conçu pour embrasser les problématiques de parallélisme et dasynchronisme –Fondé sur un ensemble de formalismes mathématiques Algèbres des processus mobiles Algèbres des processus mobiles Systèmes de type et contrôle de modèle Systèmes de type et contrôle de modèle –Le parallélisme serait implicite, non exprimé Chaque déclaration, par défaut, sexécute effectivement en parallèle avec dautres déclarations Chaque déclaration, par défaut, sexécute effectivement en parallèle avec dautres déclarations Le compilateur arrive à trouver la bonne séquence dexécution plutôt que le développeur Le compilateur arrive à trouver la bonne séquence dexécution plutôt que le développeur Pas de threads ! Pas de threads ! –La seule façon dinteragir avec un processus se ferait via des messages –Les messages verraient leur type contrôlé ainsi que les processus afin de pouvoir détecter la plupart des bogues liés au parallélisme ou à lasynchronisme lors de la compilation Deadlocks, livelocks Deadlocks, livelocks Race conditions Race conditions Fuite de ressources ou de secrets entre les services Fuite de ressources ou de secrets entre les services Les services seraient de manière intrinsèques des boîtes noires que lon assemble, comme le hardware Les services seraient de manière intrinsèques des boîtes noires que lon assemble, comme le hardware

42 Pour quel système dexploitation ? Un système dexploitation décentralisé qui serait orchestré au travers de différents nœuds distribués et parallèles Un système dexploitation décentralisé qui serait orchestré au travers de différents nœuds distribués et parallèles –Fourniratt un modèle de programmation cohérent pour toutes les ressources (services, fichiers, périphériques, streams, utilisateurs) –Tous les composants du système seraient construits comme des services Web faiblement couplés –Tous les services exhiberaient : Un URI pour les rendre adressables Un URI pour les rendre adressables Un contrat qui spécifie un comportement vérifiable lors de lassemblage Un contrat qui spécifie un comportement vérifiable lors de lassemblage Un ensemble cohérent de sémantiques et de schémas pour décrire la façon dinteragir avec le service Un ensemble cohérent de sémantiques et de schémas pour décrire la façon dinteragir avec le service Présupposerait un monde où : Présupposerait un monde où : –Les ressources sont faiblement couplées et hétérogènes –Les services qui ne se font pas confiance mutuellement communiquent sur un réseau non sécurisé et non fiable –Il y a plusieurs domaines de confiance avec plusieurs administrateurs –La topologie réseau est hautement dynamique –La coordination locale des services intervient sans recourir à une autorité centrale

43 Est-ce un rêve… ou une réalité potentielle future ?

44 Lindustrie à la croisée des chemins… IT Doesnt Matter? Les progrès du hardware sont-ils de mauvaises choses ? Linformatique comme une « utilité » ? La fin de linnovation?

45 Ce qui reste à faire…

46 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) 1. Scalabilité : concevoir une architecture matérielle et logicielle capable dévoluer linéairement dans un facteur 10 6 Accomplir un tel objectif a pour conséquence de faire en sorte que la capacité de stockage et de traitement dune application puisse croître dun million de fois, par exemple en effectuant les traitements plus rapidement (dans un facteur 10 6 ) ou en effectuant des traitements 10 6 fois plus importants dans le même temps, juste en ajoutant des ressources supplémentaires. Accomplir un tel objectif a pour conséquence de faire en sorte que la capacité de stockage et de traitement dune application puisse croître dun million de fois, par exemple en effectuant les traitements plus rapidement (dans un facteur 10 6 ) ou en effectuant des traitements 10 6 fois plus importants dans le même temps, juste en ajoutant des ressources supplémentaires. La résolution dun tel problème est loin dêtre simple car elle suppose de faire des progrès extrêmement significatifs dans le domaine des bases de données parallèles ou de la parallélisation des traitements. De nombreux progrès ont déjà été effectués dans ce domaine avec lévolution des performances des benchmarks TPC-C ou lapparition de clusters de traitement tels que les Beowulf Clusters[1]. Pourtant latteinte de tels niveaux de performance ou la gestion de tels clusters restent encore extrêmement complexes, à un point tel que de très nombreux progrès restent à accomplir pour en faire des réalités industrielles. La résolution dun tel problème est loin dêtre simple car elle suppose de faire des progrès extrêmement significatifs dans le domaine des bases de données parallèles ou de la parallélisation des traitements. De nombreux progrès ont déjà été effectués dans ce domaine avec lévolution des performances des benchmarks TPC-C ou lapparition de clusters de traitement tels que les Beowulf Clusters[1]. Pourtant latteinte de tels niveaux de performance ou la gestion de tels clusters restent encore extrêmement complexes, à un point tel que de très nombreux progrès restent à accomplir pour en faire des réalités industrielles. [1]

47 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) 2. Réussir le test de Turing

48 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) En 1950, Alan Turing publie son fameux papier « Computing Machinery and Intelligence » En 1950, Alan Turing publie son fameux papier « Computing Machinery and Intelligence » Une idée très en avance sur son temps : les ordinateurs sont-ils des outils ou sont-ils des entités conscientes, disposant dune identité, dune volonté et dun libre arbitre ? Une idée très en avance sur son temps : les ordinateurs sont-ils des outils ou sont-ils des entités conscientes, disposant dune identité, dune volonté et dun libre arbitre ? Pour évaluer lintelligence dun ordinateur, Turing propose un test… Pour évaluer lintelligence dun ordinateur, Turing propose un test…

49 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) Fondé sur un jeu dimitation, joué par 3 personnes : un homme et une femme dans la même pièce, un interrogateur dans une autre Fondé sur un jeu dimitation, joué par 3 personnes : un homme et une femme dans la même pièce, un interrogateur dans une autre Linterrogateur doit discerner un homme imitant une femme à travers une conversation menée via des téléscripteurs Linterrogateur doit discerner un homme imitant une femme à travers une conversation menée via des téléscripteurs Le test de Turing : remplacer lhomme par une machine Le test de Turing : remplacer lhomme par une machine –Celle-ci doit imiter lhomme imitant la femme (généralisation de lintelligence et introduction de lémotivité) A lorigine de lIntelligence Artificielle : connaissance, raisonnement, compréhension du langage naturel, apprentissage,… A lorigine de lIntelligence Artificielle : connaissance, raisonnement, compréhension du langage naturel, apprentissage,…

50 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) Implicites dans le test de Turing, linformatique se voit présenter trois défis supplémentaires et au moins aussi difficiles que le test de Turing Implicites dans le test de Turing, linformatique se voit présenter trois défis supplémentaires et au moins aussi difficiles que le test de Turing –Lire et comprendre aussi bien quun être humain –Penser et écrire aussi bien quun être humain –Voir aussi bien quun être humain Ces questions sont au cœur des réflexions sur linteraction entre lhomme et la machine Ces questions sont au cœur des réflexions sur linteraction entre lhomme et la machine

51 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) 3. Speech to Text : entendre comme une personne dans sa langue maternelle 4. Text to Speech : parler comme une personne dans sa langue maternelle 5. Voir aussi bien quune personne : reconnaître les objets et les mouvements

52 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) Ces trois « travaux dHercule » relèvent, de manière explicite, de ce que lon classe généralement sous le terme générique dinterface homme-machine. Il y a certainement eu de très gros progrès dans ce domaine, avec des calculateurs devenant capables dentendre et didentifier le langage, la musique et les sons. Aujourdhui, les systèmes de type speech to text sont largement utilisables même sil reste des progrès à accomplir dans les domaines de lapprofondissement du langage et des réseaux sémantiques. Ainsi, la capacité pour un ordinateur de reconnaître la sémantique dune phrase comme « les poules du couvent couvent » reste dune grande difficulté. Pourtant les progrès dans ce domaine sont étonnants avec un taux derreur qui baisse denviron 10 % par an. Aujourdhui on arrive, avec un orateur entraîné et un bon microphone, à reconnaître environ 95 % des mots. Ces trois « travaux dHercule » relèvent, de manière explicite, de ce que lon classe généralement sous le terme générique dinterface homme-machine. Il y a certainement eu de très gros progrès dans ce domaine, avec des calculateurs devenant capables dentendre et didentifier le langage, la musique et les sons. Aujourdhui, les systèmes de type speech to text sont largement utilisables même sil reste des progrès à accomplir dans les domaines de lapprofondissement du langage et des réseaux sémantiques. Ainsi, la capacité pour un ordinateur de reconnaître la sémantique dune phrase comme « les poules du couvent couvent » reste dune grande difficulté. Pourtant les progrès dans ce domaine sont étonnants avec un taux derreur qui baisse denviron 10 % par an. Aujourdhui on arrive, avec un orateur entraîné et un bon microphone, à reconnaître environ 95 % des mots. Par contre, la capacité de traduction des textes qui avait tant fait rêver dans les années 1950 semble aujourdhui passée de mode, chacun de résignant plus ou moins plus implicitement à utiliser langlais international comme une nouvelle lingua franca. Pourtant, la perspective de disposer de centraux téléphoniques capables de traduire en temps réel chacune des conversations dans la langue de lauditeur continue dêtre un extraordinaire challenge qui permettrait, dans une certaine mesure, dabaisser les barrières entre les peuples. Par contre, la capacité de traduction des textes qui avait tant fait rêver dans les années 1950 semble aujourdhui passée de mode, chacun de résignant plus ou moins plus implicitement à utiliser langlais international comme une nouvelle lingua franca. Pourtant, la perspective de disposer de centraux téléphoniques capables de traduire en temps réel chacune des conversations dans la langue de lauditeur continue dêtre un extraordinaire challenge qui permettrait, dans une certaine mesure, dabaisser les barrières entre les peuples. Le dernier domaine de la reconnaissance visuelle a également fait de nombreux progrès mais les ordinateurs sont encore loin de percevoir aussi bien que les êtres humains. Le dernier domaine de la reconnaissance visuelle a également fait de nombreux progrès mais les ordinateurs sont encore loin de percevoir aussi bien que les êtres humains.

53 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) 6. Memex personnel : enregistrer tout ce quune personne voit et entend pendant sa vie et retrouver tout élément sur demande.

54 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) En 1945 Vannevar Bush a publié un article[1] fameux et visionnaire dans lequel il décrivait un bureau capable de stocker un « milliard de livres », des journaux et de la littérature, tous reliés entre eux par des hyperliens. Il a également proposé des lunettes équipées dune caméra intégrée et capables de photographier à la demande ainsi quun dictaphone capable denregistrer dans le même temps ; toutes ces informations alimentant ensuite le Memex. Ce Memex permettait, bien évidemment, dy rechercher lensemble des documents qui sy trouvaient. En 1945 Vannevar Bush a publié un article[1] fameux et visionnaire dans lequel il décrivait un bureau capable de stocker un « milliard de livres », des journaux et de la littérature, tous reliés entre eux par des hyperliens. Il a également proposé des lunettes équipées dune caméra intégrée et capables de photographier à la demande ainsi quun dictaphone capable denregistrer dans le même temps ; toutes ces informations alimentant ensuite le Memex. Ce Memex permettait, bien évidemment, dy rechercher lensemble des documents qui sy trouvaient. Plus de 50 années plus tard, ce Memex est pratiquement disponible (au moins dans son concept). Ainsi, la plus grande partie de la littérature scientifique est disponible en ligne sur Internet. Il en est de même pour la littérature et de la musique avec, toutefois, différents problèmes sur lesquels nous ne débattrons pas ici et relatifs à la protection de la propriété intellectuelle et du copyright. Plus de 50 années plus tard, ce Memex est pratiquement disponible (au moins dans son concept). Ainsi, la plus grande partie de la littérature scientifique est disponible en ligne sur Internet. Il en est de même pour la littérature et de la musique avec, toutefois, différents problèmes sur lesquels nous ne débattrons pas ici et relatifs à la protection de la propriété intellectuelle et du copyright. Réaliser un Memex personnel est possible aujourdhui pour tout ce qui ne comprend pas de vidéo. Enregistrer lensemble de sa vie en vidéo nécessiterait, selon Jim Gray, 8 peta-octets, ce qui est encore au-delà des possibilités technologiques actuelles pour des coûts acceptables. Réaliser un Memex personnel est possible aujourdhui pour tout ce qui ne comprend pas de vidéo. Enregistrer lensemble de sa vie en vidéo nécessiterait, selon Jim Gray, 8 peta-octets, ce qui est encore au-delà des possibilités technologiques actuelles pour des coûts acceptables. Il est bien évident que la réalisation dun tel Memex poserait de nombreux problèmes déthique que nous ne prendrons pas le temps daborder pas ici ; il ne fait pas lombre dun doute que ces problèmes devront, un jour ou lautre, trouver une solution. Il est bien évident que la réalisation dun tel Memex poserait de nombreux problèmes déthique que nous ne prendrons pas le temps daborder pas ici ; il ne fait pas lombre dun doute que ces problèmes devront, un jour ou lautre, trouver une solution. [1]V. Bush, As We May Think, Atlantic Monthly,

55 Les 12 travaux dHercule (daprès Jim Gray, Microsoft Research) Dans les années 1940, Vannevar Bush a envisagé lapparition dune machine capable de stocker toute la connaissance humaine et a imaginé lhypertexte Dans les années 1940, Vannevar Bush a envisagé lapparition dune machine capable de stocker toute la connaissance humaine et a imaginé lhypertexte « A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is enlarged intimate supplement to his memory »

56 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 7. Memex mondial : construire un système qui, étant donné un texte, peut répondre à des questions et résumer ce texte aussi précisément quun expert du domaine Cette réalisation est dans le prolongement de celle qui a été évoquée précédemment. Cette réalisation est dans le prolongement de celle qui a été évoquée précédemment. Un livre représente, en général moins dun mégaoctet ; lensemble de la littérature aujourdhui publiée, moins dun peta-octets. Un livre représente, en général moins dun mégaoctet ; lensemble de la littérature aujourdhui publiée, moins dun peta-octets. De même, il y a environ films dont la plupart dentre eux sont très courts ; les enregistrer en qualité DVD représenterait quelques peta-octets supplémentaires. De même, il y a environ films dont la plupart dentre eux sont très courts ; les enregistrer en qualité DVD représenterait quelques peta-octets supplémentaires.

57 Les 12 travaux dHercule (daprès Jim Gray, MS Research) De même scanner avec une haute qualité lensemble des documents stockés dans les grandes bibliothèques du monde entier représenterait probablement aux alentours dun exa-octets supplémentaire. Or, lindustrie du stockage magnétique vient de dépasser la barrière un peu mythique de la livraison dun exa-octets de stockage sur disque et de 100 exa-octets de stockage sur bande pendant lannée Avec la décroissance du prix du stockage de masse (on peut raisonnablement penser que le stockage magnétique sera des centaines de fois moins cher dans 10 ans), on pourra très probablement stocker la totalité du savoir enregistré et enregistrable de lhumanité à des coûts parfaitement abordables sur le plan économique. De même scanner avec une haute qualité lensemble des documents stockés dans les grandes bibliothèques du monde entier représenterait probablement aux alentours dun exa-octets supplémentaire. Or, lindustrie du stockage magnétique vient de dépasser la barrière un peu mythique de la livraison dun exa-octets de stockage sur disque et de 100 exa-octets de stockage sur bande pendant lannée Avec la décroissance du prix du stockage de masse (on peut raisonnablement penser que le stockage magnétique sera des centaines de fois moins cher dans 10 ans), on pourra très probablement stocker la totalité du savoir enregistré et enregistrable de lhumanité à des coûts parfaitement abordables sur le plan économique. La principale difficulté, si lon met en ligne une telle quantité dinformations, sera de rechercher ces informations de manière efficace (peut-être que lavènement du Web sémantique sur lequel travaille aujourdhui le W3C nous aidera-t-il dans ce sens) et dêtre capable den faire une synthèse. Ces sujets mériteront très certainement des recherches approfondies. La principale difficulté, si lon met en ligne une telle quantité dinformations, sera de rechercher ces informations de manière efficace (peut-être que lavènement du Web sémantique sur lequel travaille aujourdhui le W3C nous aidera-t-il dans ce sens) et dêtre capable den faire une synthèse. Ces sujets mériteront très certainement des recherches approfondies.

58 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 8. Télé-présence : télé-observateur et télé-présent Lobjectif est, ici, de permettre tout à la fois dêtre rétrospectivement à un autre endroit comme observateur (télé-observateur), découter, de sentir et de voir comme si lon était effectivement présent mais aussi dêtre participant et de simuler le fait dêtre vraiment présent (télé-présent) en interagissant avec les autres et lenvironnement comme si lon était vraiment présent. Lobjectif est, ici, de permettre tout à la fois dêtre rétrospectivement à un autre endroit comme observateur (télé-observateur), découter, de sentir et de voir comme si lon était effectivement présent mais aussi dêtre participant et de simuler le fait dêtre vraiment présent (télé-présent) en interagissant avec les autres et lenvironnement comme si lon était vraiment présent. Les technologies de réalité virtuelle ont fait des progrès très significatifs ces dernières années mais nous sommes encore loin dêtre capables de réaliser de telles simulations à la demande permettant dobserver et de participer à un évènement. Les technologies de réalité virtuelle ont fait des progrès très significatifs ces dernières années mais nous sommes encore loin dêtre capables de réaliser de telles simulations à la demande permettant dobserver et de participer à un évènement.

59 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 9. Système « sans problème » : construire un système utilisé par des millions de personnes chaque jour et administré par une seule personne à mi-temps. Lobjectif ici est de réaliser des systèmes informatiques capables de sadministrer automatiquement. Le gestionnaire système humain définit des objectifs, des règles de gestion et un budget et le système fait le reste. Quand arrive un nouveau matériel ou un nouveau logiciel, celui-ci est capable dêtre ajouté automatiquement et sans intervention à lenvironnement déjà existant ; quand un serveur a un problème, son stockage a été répliqué quelque part ailleurs et les opérations sont capables de reprendre depuis cet emplacement sans interruption ; quand un élément matériel a un problème, le système doit être capable de diagnostiquer automatiquement ce problème et de commander la pièce défaillante,… Lobjectif ici est de réaliser des systèmes informatiques capables de sadministrer automatiquement. Le gestionnaire système humain définit des objectifs, des règles de gestion et un budget et le système fait le reste. Quand arrive un nouveau matériel ou un nouveau logiciel, celui-ci est capable dêtre ajouté automatiquement et sans intervention à lenvironnement déjà existant ; quand un serveur a un problème, son stockage a été répliqué quelque part ailleurs et les opérations sont capables de reprendre depuis cet emplacement sans interruption ; quand un élément matériel a un problème, le système doit être capable de diagnostiquer automatiquement ce problème et de commander la pièce défaillante,…

60 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 10. Système sécurisé : construire un système sur lequel les dénis de service ne sont pas possible et sur lequel on ne peut pas voler dinformation (en le prouvant) Construire des systèmes hautement sécurisés est lun de nos plus grands défis à lheure actuelle. InformationWeek a estimé quen 2001, les brèches de sécurité ont coûté 1,4 milliard de $ dans le monde, 2/3 des sociétés ont subi virus, vers, ou chevaux de Troie et 15 % ont subi des attaques en déni de service. Lutilisation du Web comme support de commerce électronique en qui les utilisateurs ont le même niveau de confiance quen leur banquier, leur boucher et leur épicier est à ce prix. Construire des systèmes hautement sécurisés est lun de nos plus grands défis à lheure actuelle. InformationWeek a estimé quen 2001, les brèches de sécurité ont coûté 1,4 milliard de $ dans le monde, 2/3 des sociétés ont subi virus, vers, ou chevaux de Troie et 15 % ont subi des attaques en déni de service. Lutilisation du Web comme support de commerce électronique en qui les utilisateurs ont le même niveau de confiance quen leur banquier, leur boucher et leur épicier est à ce prix. Or, force est de constater quil y a encore de très grands progrès à réaliser dans ce domaine. De même, aujourdhui, la seule façon denvisager la protection contre les dénis de service (ou dailleurs la majorité des problèmes de sécurité) consiste, tout à la fois, à se défendre et aussi à faire réaliser par des équipes externes ou internes à sa société des tests dintrusion ou des tests en déni de service sur son environnement opérationnel. Mais nous ne sommes jamais certains que ces tests ont été suffisamment exhaustifs. Il reste donc à savoir prouver quun système est sûr. Or, force est de constater quil y a encore de très grands progrès à réaliser dans ce domaine. De même, aujourdhui, la seule façon denvisager la protection contre les dénis de service (ou dailleurs la majorité des problèmes de sécurité) consiste, tout à la fois, à se défendre et aussi à faire réaliser par des équipes externes ou internes à sa société des tests dintrusion ou des tests en déni de service sur son environnement opérationnel. Mais nous ne sommes jamais certains que ces tests ont été suffisamment exhaustifs. Il reste donc à savoir prouver quun système est sûr.

61 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 11. Système toujours disponible : le système est indisponible pendant moins dune seconde par siècle. Un tel objectif semble aujourdhui bien difficile à accomplir. Pourtant, nous sommes passés dune disponibilité denviron 90 % dans les années 1950 à 99,99 % pour les systèmes correctement gérés. La plupart des utilisateurs du Web font lexpérience dune disponibilité denviron 99 % en raison de la nature fragile du Web et de ses protocoles et dune emphase peut-être un peu trop grande mise sur la vitesse de mise sur le marché des sites et de leurs services au détriment de la qualité de leur conception. Un tel objectif semble aujourdhui bien difficile à accomplir. Pourtant, nous sommes passés dune disponibilité denviron 90 % dans les années 1950 à 99,99 % pour les systèmes correctement gérés. La plupart des utilisateurs du Web font lexpérience dune disponibilité denviron 99 % en raison de la nature fragile du Web et de ses protocoles et dune emphase peut-être un peu trop grande mise sur la vitesse de mise sur le marché des sites et de leurs services au détriment de la qualité de leur conception. On a donc ajouté trois « 9 » de disponibilité en 50 années. Si lon veut essayer de viser un système capable dêtre aussi disponible que lactuel mécanisme de distribution de leau, du gaz et de lélectricité, il faut pourtant viser bien au-delà. Cela peut sembler un peu irréaliste ; pourtant, avec la baisse constante du prix du hardware et laugmentation constante de la bande passante des réseaux, il est possible dimaginer de répliquer les services à de nombreux endroits tout en utilisant la notion de transaction pour gérer la cohérence des données. On peut ici utiliser la diversité des conceptions en mode redondant afin déviter la plupart des causes classiques de défaillance. Mais de telles conceptions nont malheureusement pas le loisir dêtre testées en vraie grandeur : il faut réaliser une analyse détaillée et être capable détablir la preuve que ce que lon a conçu répond effectivement au besoin. On a donc ajouté trois « 9 » de disponibilité en 50 années. Si lon veut essayer de viser un système capable dêtre aussi disponible que lactuel mécanisme de distribution de leau, du gaz et de lélectricité, il faut pourtant viser bien au-delà. Cela peut sembler un peu irréaliste ; pourtant, avec la baisse constante du prix du hardware et laugmentation constante de la bande passante des réseaux, il est possible dimaginer de répliquer les services à de nombreux endroits tout en utilisant la notion de transaction pour gérer la cohérence des données. On peut ici utiliser la diversité des conceptions en mode redondant afin déviter la plupart des causes classiques de défaillance. Mais de telles conceptions nont malheureusement pas le loisir dêtre testées en vraie grandeur : il faut réaliser une analyse détaillée et être capable détablir la preuve que ce que lon a conçu répond effectivement au besoin.

62 Les 12 travaux dHercule (daprès Jim Gray, MS Research) 12. Programmeur automatique : Concevoir un langage ou une IHM qui permette un rendement de programmation multiplié par 1000, tout en permettant une description complète de toutes les applications. Le logiciel est coûteux à écrire et cest la seule chose dans le cyberespace qui devient de plus en plus cher et de moins en moins fiable. Ceci nest pas tellement lié au fait que les composants individuels du logiciel deviennent moins fiables mais simplement au fait que les logiciels deviennent de plus en plus gros alors que lon admet quun programme classique qui a été testé et re-testé garde toujours environ un bogue par millier de lignes ; en valeur absolue, le nombre de bogues contenu dans un programme dont la taille ne fait que grossir ne peut donc que croître. En même temps, écrire un programme coûte cher : concevoir, coder et documenter un programme coûte environ 20 $ par ligne auquel il faut ajouter environ 150 % du coût pour tester le code ainsi créé. Et, une fois ce code livré à un client, il faut encore dépenser à peu près la même chose pour supporter ce code et le maintenir pendant sa durée de vie. Le logiciel est coûteux à écrire et cest la seule chose dans le cyberespace qui devient de plus en plus cher et de moins en moins fiable. Ceci nest pas tellement lié au fait que les composants individuels du logiciel deviennent moins fiables mais simplement au fait que les logiciels deviennent de plus en plus gros alors que lon admet quun programme classique qui a été testé et re-testé garde toujours environ un bogue par millier de lignes ; en valeur absolue, le nombre de bogues contenu dans un programme dont la taille ne fait que grossir ne peut donc que croître. En même temps, écrire un programme coûte cher : concevoir, coder et documenter un programme coûte environ 20 $ par ligne auquel il faut ajouter environ 150 % du coût pour tester le code ainsi créé. Et, une fois ce code livré à un client, il faut encore dépenser à peu près la même chose pour supporter ce code et le maintenir pendant sa durée de vie.

63 Les 12 travaux dHercule (daprès Jim Gray, MS Research) Et ce phénomène devient de plus en plus grave avec la diminution permanente du coût du hardware et laugmentation permanente de la taille et donc du coût du logiciel. Jusquà présent, une tentative de solution a été abordée en essayant de réutiliser au maximum le logiciel (approche de la programmation orientée objet, utilisation massive des progiciels,…) mais nous en sommes encore loin du compte. Et ce phénomène devient de plus en plus grave avec la diminution permanente du coût du hardware et laugmentation permanente de la taille et donc du coût du logiciel. Jusquà présent, une tentative de solution a été abordée en essayant de réutiliser au maximum le logiciel (approche de la programmation orientée objet, utilisation massive des progiciels,…) mais nous en sommes encore loin du compte. La programmation automatique a été, depuis 50 ans, le graal des langages de programmation et des systèmes. Malheureusement, les progrès ont été plutôt de lordre dune augmentation de la productivité de la programmation par un facteur 10 au lieu des 1000 qui seraient nécessaires ici. Nous en sommes donc encore à la recherche dun langage de spécification de haut niveau (1) qui soit des milliers de fois plus simple et plus puissant que les langages actuels, (2) que les ordinateurs soient capables de compiler dans un temps acceptable (3) qui soit suffisamment puissant pour décrire complètement toutes les applications nécessaires. La programmation automatique a été, depuis 50 ans, le graal des langages de programmation et des systèmes. Malheureusement, les progrès ont été plutôt de lordre dune augmentation de la productivité de la programmation par un facteur 10 au lieu des 1000 qui seraient nécessaires ici. Nous en sommes donc encore à la recherche dun langage de spécification de haut niveau (1) qui soit des milliers de fois plus simple et plus puissant que les langages actuels, (2) que les ordinateurs soient capables de compiler dans un temps acceptable (3) qui soit suffisamment puissant pour décrire complètement toutes les applications nécessaires. Malheureusement, nous en sommes encore loin. Malheureusement, nous en sommes encore loin.

64 Quelques enjeux du 21 ème sciècle Saffranchir des barrières La barrière de la « réalité » La barrière de la « réalité » –Graphique, vision, traitement du signal Barrières entre les hommes Barrières entre les hommes –Collaboration et outils de communication Barrières entre les hommes et les ordinateurs Barrières entre les hommes et les ordinateurs –Interface, langage, parole, vision Barrières entre les hommes et linformation Barrières entre les hommes et linformation –Bases de données, data mining, scalable computing Barrières entre les ordinateurs Barrières entre les ordinateurs –Réseaux hauts débits Barrières entre le travail, la maison, la voiture,… Barrières entre le travail, la maison, la voiture,… –Systèmes adaptatifs, sans-fil

65 En guise de conclusion… Comme je me suis attaché à le démontrer, les territoires à défricher, les « terres inconnues » de linformatique nont jamais été aussi nombreuses quaujourdhui, assez pour quil soit possible de définir ce que jappelle « les douze travaux dHercule de linformatique » (référence au discours de Jim Gray lors de la cérémonie de son Turing Award) Comme je me suis attaché à le démontrer, les territoires à défricher, les « terres inconnues » de linformatique nont jamais été aussi nombreuses quaujourdhui, assez pour quil soit possible de définir ce que jappelle « les douze travaux dHercule de linformatique » (référence au discours de Jim Gray lors de la cérémonie de son Turing Award) Cette exploration ne pourra se faire quen unissant les moyens de la recherche publique et privée car le chemin à parcourir sera long et semé dembûches Cette exploration ne pourra se faire quen unissant les moyens de la recherche publique et privée car le chemin à parcourir sera long et semé dembûches –Microsoft en tant quacteur engagé dans la recherche en Europe, se doit dassumer ses responsabilités et donc de jouer un rôle moteur dans ce domaine Pour autant, lexploration de ces nouveaux territoires devra se faire avec la volonté modeste de réaliser des progrès dans un périmètre défini, impliquant la libre évaluation des options et le libre choix parmi les possibles, dans le cadre dune discussion publique continue réunissant tous les citoyens sans exclusion Pour autant, lexploration de ces nouveaux territoires devra se faire avec la volonté modeste de réaliser des progrès dans un périmètre défini, impliquant la libre évaluation des options et le libre choix parmi les possibles, dans le cadre dune discussion publique continue réunissant tous les citoyens sans exclusion

66 En guise de conclusion… Dans cette perspective, il sera possible de repenser le progrès informatique, non pas dans le sens du « plus quhumain » mais, tout simplement, dans le sens du « plus humain ». Dans cette perspective, il sera possible de repenser le progrès informatique, non pas dans le sens du « plus quhumain » mais, tout simplement, dans le sens du « plus humain ». –Car linformatique est et restera un outil. Puisse cet outil être et demeurer au service de lhomme et de lhumanité toute entière.

67 Questions ?


Télécharger ppt "Quelques réflexions sur le futur de linformatique Bernard Ourghanlian Directeur Technique et Sécurité – Microsoft France."

Présentations similaires


Annonces Google