Historique, enjeux de société et perspectives Cette conférence, présentée pour la première fois le 21 mars 1999 à Cap Sciences et s'est bonifiée avec le temps. Ont contribué : Raphaël Renou (1999), Cyprien Gay et Samuel Orzan (2005) johnperr@abul.org (2009). Cette présentation se veut très peu technique et accessible à tous ceux qui s'intéressent à l'avenir du monde. En cas de réutilisation et de diffusion de cette présentation, veuillez si possible contacter l’auteur : jarillon@abul.org Document sous licence Creative Commons selon http://creativecommons.org/licenses/by-nc-sa/2.0/fr Pierre Jarillon Bourg/Gironde le 1er juin 2011
Les grandes inventions Parmi les très grandes inventions de l’homme, il y a eu : la maîtrise du feu la roue L’écriture, Il faut maintenant y ajouter l’informatique. L'imprimerie a permis au peuple de lire, Internet va lui permettre d'écrire
Un outil En effet, l’ordinateur est un outil d’un genre nouveau. C’est un magnifique instrument de traitement des données, de stockage et de communication. Mais surtout, c’est la première fois que l’homme a un outil qui n’est plus le prolongement de sa main, mais aussi celui de son esprit. Comme tous les outils, il n'est bon ou mauvais que selon l'usage que l'on en fait. . C'est la première fois que l'homme a un outil qui n'est plus le prolongement de son corps, mais celui de son esprit.
Un moyen de communication L’ordinateur est le support de tous les moyens de communication modernes. Toutes les communications de données, de sons et d’images sont devenues des liaisons informatiques. La diffusion des connaissances et des cultures passe dorénavant par des moyens informatiques. le support d'Internet, du téléphone, de la télévision, du courrier, ... Vecteur de la connaissance et des cultures
L'ère de la communication 20ème siècle = ère industrielle Disponibilité de l'énergie 21ème siècle = ère de la communication Disponibilité de l'information et de la connaissance Auparavant, il n'y avait que la force musculaire ainsi que les moulins à vent et à eau. Au 20e siècle la maîtrise et la généralisation des moteurs thermiques et électriques ont permis de créer l'ère industrielle. L'énergie est devenue disponible en tous lieux et à l'instant voulu. Les moyens de transport se sont développés. Au 21e siècle, c'est l'information qui est immédiatement disponible à chacun. Le transport de l'information est instantané. La société en sera profondément changée.
Les 3 piliers du développement 1 - L'électronique Cet essor repose sur trois techniques. La première est l’électronique. Du début du siècle à 1960, l’électronique était basée sur l’utilisation des tubes à vide. Mais en 1949, une invention géniale devait tout bouleverser.
Invention du transistor 1949 C’était dans les laboratoires de la compagnie de téléphone Bell. Trois hommes réalisent le premier transistor. C’était un transistor à pointes au germanium*. Il était très peu performant. Quelques années plus tard, on utilisera le silicium et vers la fin des années 60, apparaissent les premiers circuits intégrés L’électronique n’a vraiment pris son essor qu’après 1970. *Deux pointes métalliques, l’émetteur et le collecteur forment deux jonctions avec la «base» en germanium. Bardeen, Brattain et Shockley reçoivent le prix Nobel en 1956
Aujourd'hui, le circuit intégré Des millions de transistors par cm² Un microprocesseur La taille des transistors est devenue si petite, qu’il n’est plus possible de les voir avec un microscope optique. Sur cette photographie, on voit une étape de la fabrication d’un circuit intégré. Chaque motif correspond à un microprocesseur. Chaque microprocesseur comprend des millions de transistors élémentaires, parfaitement agencés. Sans l’invention du transistor, les ordinateurs actuels seraient irréalisables. Puis des milliards ! Les gravures ne sont plus visibles avec un microscope optique.
Les 3 piliers du développement 2 - Unix Le système d’exploitation est un logiciel qui permet aux ordinateurs de fonctionner. Le premier système d’exploitation moderne, se nomme UNIX.
La création d'UNIX : 1969 Le logiciel de base des grands ordinateurs modernes Unix a été inventé lui aussi dans les laboratoires de la compagnie Bell. Il permet à plusieurs utilisateurs de faire fonctionner en même temps des programmes sur une même machine. Unix est le premier système d’exploitation multi-tâches et multi- utilisateurs qui ait vraiment bien fonctionné. La photographie représente la première machine UNIX et ses créateurs. Messieurs Thompson et Ritchie ont ensuite été aidé par de nombreuses personnes. Certaines d’entre elles auront une notoriété internationale. Leurs travaux ont été poursuivis parallèlement par l’Université de Berkeley. Il s’en est suivi un grand nombre de versions d’UNIX. Messieurs Thompson et Ritchie ont reçu la plus haute récompense de l’industrie américaine. Elle leur a été remise en janvier 1999 par le président Clinton. Thompson et Ritchie
schéma très simplifié – Détails sur http://levenez,com/unix La famille des Unix schéma très simplifié – Détails sur http://levenez,com/unix Un schéma complet serait cent fois plus important. La concurrence entre ces Unix a été à la fois bénéfique et néfaste. Bénéfique : car elle a créé une émulation et la recherche des meilleures techniques possibles. Néfaste : car elle a créé des divergences parfois profondes, mais nous y reviendrons. Un site donne un schéma plus détaillé :http://www.levenez.com/unix/ Linux n'est pas descendant en ligne directe d'Unix.
Les 3 piliers du développement 3 - Les réseaux Le premier réseau qui ait fonctionné en utilisation réelle se nomme Aloha. Il permettait la réservation des chambres d’hôtel dans des îles proches d’Hawaii. C’était un réseau hertzien. Il fonctionnait sur ondes hertziennes, sans support physique, d'où l'origine du nom éthernet.
Les premiers réseaux 1969 DOD ARPANET A B Le DOD - Département de la Défense - désirait un réseau de communication résistant à des attaques nucléaires. C’était en pleine guerre froide. On réalisa un réseau maillé, sans point central de commande. Chaque nœud communiquait avec ses voisins. Admettons qu’une communication soit établie entre les points A et B. Une attaque militaire (ou une panne !) détruit le nœud intermédiaire. Aussitôt, un nouveau routage rétablit automatiquement la communication. C’était très difficile avec les moyens de l’époque. Le réseau militaire ARPA est l’ancêtre d’Internet. ARPANET A B
Les réseaux utilisent UNIX 1974 Mise au point des protocoles de communication par les universités. Internet va naître. collaboration ouverte UNIX Les protocoles de communication sont bien plus complexes qu’on ne le croit. Il a leur fallu près de 15 ans pour atteindre leur pleine maturité. C’est sur UNIX qu’ils ont été étudiés, expérimentés et validés par des universitaires. On comprend alors pourquoi les machines Unix sont les plus communicantes. Les universitaires ont tout naturellement utilisé ce qu'ils réalisaient pour travailler ensemble. Les réseaux modernes sont nés avec Unix. 1989
I n t e r n e t Le réseau des réseaux Les techniques nécessaires à la création d’Internet étaient disponibles.
La croissance d'Internet Au CERN, Tim Berners-Lee raccorde entre eux plusieurs réseaux. 1989 – Internet, le réseau des réseaux est né ! 1991 - Il publie l'article « Hypertexte et le CERN » 1993 – Premiers navigateurs graphiques C’est en Europe, au Centre Européen de Recherche Nucléaire situé à la frontière Franco-Suisse, qu’est né Internet. Il faudra attendre 1993 pour voir le véritable départ d’Internet tel que nous le connaissons. Il comporte le courrier, les forums, le transfert de fichiers et le navigateur en mode graphique. Le nombre de serveurs a été multiplié par 100 000 en 6 ans seulement. Maintenant, on ne les compte plus ! Les serveurs sont parfois virtuels, la même machine en hébergeant plusieurs. Ou à l'inverse, plusieurs machines ne forment qu'un seul serveur (Google). Tim Berners-Lee est maintenant le directeur du W3C 50 serveurs en 1993 … à plus de 100 millions
Le logiciel libre Pendant ce temps là ... Pendant le développement d’Unix et des réseaux, la notion de logiciels libres est apparue. Tant que les logiciels étaient dans les universités, les sources, c’est à dire le texte servant à produire un programme étaient publics. Les sources des programmes commerciaux sont des secrets de fabrication. Un logiciel libre est un logiciel fourni avec ses sources.
GNU General Public licence Richard Stallman (alias RMS) universitaire GNU GNU's Not Unix 1984 : crée la FSF (Free Software Foundation) Licence GPL GNU General Public licence avec Eben Moglen Richard Stallman photographié le 11 juillet 2002 lors du « Libre Supper » dans le parc de la mairie de Talence. Il est entré dans une profonde colère le jour où il ne pouvait corriger le défaut du programme qui pilotait son imprimante. Un de ses collègues possédait le source, mais avait interdiction de le lui communiquer. En 1984, il crée la FSF pour lutter contre cela. Le projet GNU consiste à faire un Unix Libre. En 1991, tout était au point sauf le noyau. C'est un peu comme si on avait fait une voiture ou un avion auquel il ne manque plus que le moteur. Deux ans plus tard, avec l'aide d'Eben Moglen, il publie la GPL, une licence très particulière qui utilise le droit d'auteur contre le copyright. Ainsi, chacun ne repart pas de zéro, mais d’un existant. Ceci donne au logiciel libre une vitesse d’évolution sans égale. Mais ce n’est qu’après l’avènement d’Internet qu’ils pourront se développer. Le symbole GNU vient du jeu de mot récursif inventé par Stallman Gnu's Not Unix. D'où la mascotte de la FSF. Talence RMLL 2002 Définition du logiciel libre
Les quatre libertés du logiciel libre Liberté d'utiliser aucune restriction à son utilisation. Liberté de connaitre et d'étudier nécessite de mettre les sources à disposition, indispensable pour la sécurité. Liberté de modifier afin d'adapter le logiciel à ses besoins. Liberté de redistribuer dans les mêmes conditions que celles où on a reçu le logiciel (GPL). Cette définition du logiciel libre est celle der la FSF. Certains logiciels dit Open Source ne sont pas libres. La gratuité est une conséquence de la liberté de redistribuer. Le travail de développement doit être rétribué à sa juste valeur, mais une seule fois et seulement à son auteur. La licence BSD n'impose pas de redistribuer dans les mêmes conditions. Les logiciel libre peut alors donner un logiciel propriétaire. On peut dire que c'est un logiciel stérile alors que la GPL est féconde. GPL
Une centaine de licences toutes basées sur le droit d'auteur protègent le créateur et l'utilisateur GPL La plus utilisée BSD Permet la fermeture du code Cecill Compatible avec le droit français Autres... http://gnu.org/licenses/license-list.fr.html Cecill = Cea – Cnrs -Inria -Logiciels libres http://www.cecill.info/ Cecill A = GPL Cecill B = BSD Cecill C = LGPL Attention : Open source n'est pas synonyme de libre !
Un logiciel libre est gratuit une fois qu'il a été payé Libre n'est pas gratuit En anglais : free = libre et free = gratuit Un logiciel libre est gratuit une fois qu'il a été payé François Élie, président d'Adullact Un logiciel libre peut être vendu, mais les sources doivent être mises à disposition sans supplément de prix, Aucune obligation de mettre le logiciel en téléchargement gratuit, Mais la gratuité est presque toujours une conséquence, Autres mots : standard = norme et standard penguin = pingouin et manchot ADULLACT = Association des Développeurs et des Utilisateurs de Logiciels Libres pour l'Administration et les Collectivités Territoriales
Linux Logiciels Libres Linus Torvalds Crée sa propre version d’UNIX sous GPL Utilise Internet pour la développer avec des informaticiens du monde entier 199 1 En 1991, un « pauvre étudiant finlandais » comme il le dit lui-même, souhaitait faire fonctionner son PC avec Unix, car le DOS était bien trop limité. Ne pouvant acheter la machine de ses rêves, il l’a créée. Il fallait être génial (et un peu insouciant) pour réécrire un Unix, mais le plus génial a été d’utiliser Internet et la licence GPL. Ce ne fut pas le choix de Linus, mais il y a suivi l'avis de son entourage. Linus n'est pas sensible à l'aspect éthique de la GPL. Des milliers de chercheurs et de passionnés du monde entier l’ont aidé. Il a su diriger le projet. On considère que la première version stable de Linux date de 1994 Richard Stallman demande que l'on dise : « système d'exploitation GNU/Linux » . En effet Linux ne désigne que le noyau. Linux
Les logiciels libres et Internet se développent en symbiose Linux, Apache, Mysql, Php... A leur tour les logiciels libres participent au développement d'Internet. Apache est le serveur le plus utilisé. Il fait fonctionner plus de la moitié des serveurs web dans le monde. Sans aucune publicité, le pourcentage des serveurs Apache est le seul à augmenter. Tous les autres sont des logiciels commerciaux. Linux équipe de nombreux serveurs, il devient l'UNIX le plus utilisé. Il y a aujourd'hui plus de machines équipées de Linux que de tous les autres Unix réunis. Depuis 2003, on peut estimer qu'il y a plus de machines sous Linux que de Mac. Ce n'est qu'une estimation en raison de la libre diffusion des logiciels libres. De nombreuses machines sont en double boot, ce qui rend leur comptage encore plus délicat. De nouvelles méthodes de travail. De nouvelles perspectives sociales.
Des Logiciels Libres par milliers Apache Blender Linux Des milliers d’informaticiens répartis dans le monde entier utilisent Internet pour créer des logiciels libres. Cette coopération internationale donne des milliers de logiciels dont certains ont acquis une grande renommée. Les créateurs de ces logiciels sont souvent des chercheurs et des passionnés. Pour eux, chaque réalisation est leur chef d’œuvre, elle affirme leur compétence et leur notoriété. Autrefois, les compagnons réalisaient leur chef d’œuvre à l’issue de leur tour de France. Maintenant les logiciels font le tour du monde à la vitesse de la lumière. BSD Firefox The Gimp KDE Gnome Environ 500000 contributeurs dans le monde
Premières conséquences - sécurité véritable - diversité : matériel et logiciel - nouveaux modèles économiques - extension à d'autres domaines musique, publications, wikipedia ... La sécurité était recherchée donc prévisible. L'adaptation à tous les matériels a été une conséquence qui n'était pas recherchée au départ. Le nouveau modèle économique a été une surprise. Il s'est créé naturellement. C'est le contraire d'une approche dogmatique. Les licences libres et du travail en collaboration et des licences libres se sont étendus à d'autres domaines.
De nouveaux modèles économiques La R&D a un coût marginal La chaîne commerciale est réduite La finition et la maintenance sont réparties On ne refait pas ce qui a déjà été bien fait Qui finance ? Des entreprises, universités, collectivités... Motivations non économiques Hobby intellectuel et créatif Altruisme, humanisme, ... Reconnaissance par ses pairs La création de logiciels ne représente qu'un pourcentage minime du budget d'un éditeur de logiciels. Le travail de finition (ergonomie, aide, débugage) est beaucoup plus long, environ 4 fois le temps de création. Ce travail est pris en compte par tous les utilisateurs qui communiquent directement avec les créateurs. Mais le plus coûteux est la chaîne de commercialisation (90% du coût). Par ailleurs les éditeurs de logiciels n'emploient que 5% des informaticiens. Le logiciel ne doit être payé qu'une fois. Les collectivités locales, les états, les universités produisent des logiciels déjà payés par les impôts des citoyens. Réaliser son chef d'œuvre pour être reconnu par ses pairs est une motivation importante. Mais il peut s'agir d'un jeu intellectuel passionnant et créatif ou d'une démarche humanitaire et altruiste. Rente Vente de services
De nouveaux modèles économiques Document AFUL http://www.aful.org/professionnels/modeles-economiques-ll Document APRIL http://april.org/articles/livres-blancs/modeles-economiques-logiciel-libre/ Économie du logiciel Libre par François Élie http://izibook.eyrolles.com/ Équilibre du budget national Amélioration potentielle de 1500 M€/an http://pjarillon.free.fr/redac/ms-cout.html Les documents APRIL et AFUL constituent un excellent dossier sur les différents modèles économiques du logiciel libre. L'argent qui part aux USA permettrait de faire vivre environ 15000 ingénieurs payés 50k€/an plus leurs charges. Vente de services
Commerce traditionnel € € € Producteur Client stock stock Le schéma traditionnel du commerce fait apparaître une très longue chaîne d'intermédiaires (ici limitée à deux). Le nombre de factures, paiements, bordereaux et autres documents administratifs est vite impressionnant. La part du producteur est souvent la plus faible de la chaine. Dans le cas de l'immatériel, il s'agit de la commercialisation des supports, pas du produit. Trans- porteur Trans- porteur Courtiers, grossistes, détaillants, revendeurs
€ 1 2 4 3 Le nouveau commerce Producteur Client Cas de l'immatériel Tiers de confiance € 2 1 Prise de commande Producteur Client internet Voici un schéma qui tend à remplacer dans bien des cas une très longue chaîne d'intermédiaires. Le client se connecte au site marchand d'un fournisseur, le client passe une commande. Le client verse la somme convenue à un tiers de confiance (banque, paypal, la Poste, etc) qui paiera le fournisseur. La Poste serait capable d'assurer ces deux rôles ainsi que d'accréditer les fournisseurs. En 1 et 2, c'est un flux financier, en 3 et 4, dans l'autre sens, c'est le flux matériel. Dans le cas de l'immatériel, le transporteur n'est plus nécessaire et le flux financier n'est plus obligatoire, 3 4 Transporteur Cas de l'immatériel
Progression dans les applications Logiciels métier 2003 Bureautique Bureautique 2000 BureauxB Bureaux 1998 En 1994, on a pu disposer d'un véritable OS, ensuite, les informaticiens ont réalisé les outils dont ils avaient besoin. Vers 1996, sont apparus les windows managers et les bureaux graphiques. C'est seulement à partir de 1998 qu'ils sont devenus vraiment utilisables. C'est en 2003 que la suite bureautique OpenOffice.org est parvenue à rivaliser avec celle de Microsoft. Tous les logiciels d'intérêt général existent maintenant. Cette progression s'est réalisée sans délais impartis, seul le souci de la qualité et celui de l'amélioration constante on guidé les développeurs. Maintenant, c'est au tour des logiciels métiers généralistes : comptabilité, ERP, gestion de stock, facturation... puis au tour des logiciels métiers spécifiques. Les Logiciels Libres gagnent du terrain inexorablement. Dans une dizaine d'années, les logiciels propriétaires seront réduits à certains marchés de niche. Serveur graphique 1994 GNU Linux Windows Unix Distribution Linux 1991
Une « distribution linux » Une distribution Linux est bien plus qu'un simple système d'exploitation. C'est aussi un ensemble monumental de logiciels. Le travail du distributeur est d'assembler tous ces logiciels, vérifier leur compatibilité, automatiser l'installation et faciliter leur paramétrage. Il assure également contre rétribution, le support et l'édition de manuels d'utilisation. Source wikipedia
Progression dans les architectures De 1991 à 1995 : seulement x86. Depuis toutes les architectures ont été supportées Mainframe Space Simulator Clusterr µCsimm Au départ, Linus Torvalds n'avait pour cible que son PC équipé d'un processeur 386. Depuis la sortie de Linux 1.0, l'accès aux sources a permis à de nombreuses personnes de se pencher sur l'adaptation à d'autres sortes de machines. Le portage a été fait sur tous les processeurs qui en valaient la peine, du plus petit au plus gros. On dénombre16 architectures en 2006. Ainsi l'embarqué est un domaine où Linux règne en maître. Dans le même temps Microsoft a abandonné les architectures Alpha, Mips, PPC, ... Il ne fonctionne que sur intel X86 ou compatible. Les très gros ordinateurs, sont devenus aussi le domaine de Linux. Ce peut être des mainframes ou des clusters. On peut citer Google, les effets spéciaux au cinéma... Tous les nouveaux plus gros ordinateurs du monde sont sous Linux. Voir http://top500.org/ : 85% du top 500 sont sous Linux. C'est la première fois qu'un système d'exploitation s'adapte du plus petit au plus gros des ordinateurs. Smartphone Embarqué
Insensibilité aux virus Pour exister un virus doit pénétrer, se répliquer, se propager. Les premiers virus sont nés sous Unix Mesures prophylactiques (Unix/Linux) Mesures curatives (Microsoft) Linux tout comme Unix ne craignent pas les virus car ils sont conçus pour ne pas contribuer à leur reproduction. On dit qu'il vaut mieux prévenir que guérir. C'est ce que fait Linux et il n'y a nul besoin d'anti-virus. Les mesures curatives font la fortune de certaines sociétés. Les antibiotiques et la trithérapie rapportent plus à certaines entreprise que la prévention qui est pourtant la meilleure option pour la société.
Des milliers de personnes auditent les codes sources. Sécurité Absence de backdoors Confidentialité : militaire, industrielle, ... Stabilité de fonctionnement Uptimes élevés Réactivité en cas d'alerte de sécurité On sait qu'il existe les portes de service permettant aux autorités des USA ou à Microsoft d'accéder à chaque machine.Ceci n'est pas acceptable. Le machines sous Linux ou BSD sont à juste titre réputées les plus sûres. Les failles de sécurité éventuelles sont corrigées dans les heures qui suivent leur découverte par l'examen du code et non par expérience. Elles sont éradiquées avant d'avoir pu nuire. Des milliers de personnes auditent les codes sources.
Guerres et batailles pour des monopoles et des privations de liberté Les convoitises … Guerres et batailles pour des monopoles et des privations de liberté Internet et les logiciels libres ne sont pas issus d’une démarche économique. Leur croissance est exponentielle et suscite bien des convoitises. Jusqu'à présent, aucun gouvernement, aucune entreprise et aucune idéologie n'ont réussi à contrôler Internet. Toutes les attaques ont été conduites dans un seul but, la création de monopoles économiques. Ceci va à l'encontre de l'intérêt public.
Convoitises pour des monopoles Guerre des Unix commerciaux Guerre des réseaux Bataille des navigateurs Guerre des données : impact culturel Comme nous l'avons vu, les Unix commerciaux sont tous issus de la même souche. Mais chaque version voulait affirmer sa supériorité sur les autres et fidéliser ses clients par ses « améliorations ».Il s’en est suivi une guerre des Unix de triste mémoire. Elle a failli tuer UNIX. Linux progresse sur les nouvelles machines, sur le remplacement des Unix et a stoppé la croissance des serveurs Microsoft. Microsoft et AOL ont tenté de s'approprier Internet. IE a failli y parvenir. Firefox a stoppé l'hégémonie. Impact culturel des données.
La guerre des Unix Divergence des Unix commerciaux 1991 : Norme POSIX 1994 : Linux est le premier OS conforme à POSIX 1995 : Microsoft crée un système concurrent : NT 1998 : Linux concurrence NT 2002 : Linux remplace les Unix Comme nous l'avons vu, les Unix commerciaux sont tous issus de la même souche. Mais chaque version voulait affirmer sa supériorité sur les autres et fidéliser ses clients par ses « améliorations ».Il s’en est suivi une guerre des Unix de triste mémoire. Elle a failli tuer UNIX. Au milieu de la bataille Microsoft a imposé Windows NT en le présentant comme un progrès. C’était surtout le prix de vente qui était attractif. Un consortium de vendeurs d’UNIX a essayé de mettre fin à cette guerre fratricide en publiant POSIX, la norme unificatrice. Le premier système d’exploitation conforme à POSIX a été LINUX ! NT ne tient pas ses promesses, son manque de stabilité est bien connu. Linux progresse sur les nouvelles machines, sur le remplacement des Unix et a stoppé la croissance des serveurs Microsoft.
La guerre des Réseaux Tentatives d'appropriation par des fournisseurs d’accès ou de noms de domaines. 1995 : Microsoft et AOL tentent de s'approprier Internet Internet reste un réseau maillé et non hiérarchisé. Il n'est soumis à aucune autorité. S’approprier le monopole du réseau, c’est aussi maîtriser son contenu. Internet n’étant pas une entreprise commerciale, personne ne peut l’acheter. Par contre, il y a eu plusieurs tentatives de prises de contrôle de la part des fournisseurs d’accès (AOL). Microsoft n’avait pas participé à l’évolution des réseaux. Mais devant la croissance d’Internet, la firme a dû changer sa stratégie. Ainsi, Microsoft a profité de son quasi-monopole pour essayer d’imposer MSN (Microsoft Network) , un réseau parallèle et concurrent d’Internet. Heureusement, ces tentatives ont échoué …
La bataille des navigateurs Microsoft profite de son monopole pour imposer Internet Explorer pour: Espionner le contenu des ordinateurs à l'insu des utilisateurs Imposer ses standards à la place des normes internationales Mise en place du W3C (oct 1994) Succès de Firefox (fin 2004) La position dominante de Microsoft lui a permis d’imposer Internet Explorer. Les extensions au langage normalisé sont présentées comme des améliorations. En réalité, ce sont des tentatives d’appropriation des standards. Imposer Internet Explorer, c’est aussi imposer le seul système d'exploitation sur lequel il peut fonctionner. Par ailleurs Internet Explorer introduit des « portes de service » qui, utilisant les trous dans la sécurité des systèmes Microsoft, permettent de connaître le contenu des machines. En réponse, Netscape publie les sources de son navigateur avant de disparaître. Il donne naissance à un logiciel libre : Mozilla dont le navigateur Firefox va en octobre 2005 compter 100M de chargements et représenter plus de 15% d'internet. IE retombe au dessous de 80%.
La guerre des données Contrôle des portails Contrôle des moteurs de recherche Contrôle des contenus (DRM) Financement par la publicité Impact culturel sur le choix des produits et des biens Au début d’Internet, l’utilisateur était aussi bien un fournisseur de données qu’un consommateur. Maintenant, la situation n’est plus aussi équilibrée. Diriger le consommateur sur les sites les plus fréquentés pour lui montrer les publicités qui sont payées en fonction de la fréquentation ou pour lui vendre des produits n’est pas neutre. L’argent est de plus en plus présent sur le Web. En France, l’affaire Altern est significative. Un juge a condamné à 400 000F Valentin Lacambre. Il hébergeait gratuitement 40 000 sites. Un des sites contenait la photographie dénudée d’un mannequin. Les 40000 sites ont disparu du Web. On peut se demander ce qui a pu motiver le juge ... On a condamné des hébergeurs pour des propos tenus par des tiers sur des forums...
Pratiques anti-concurrentielles Achat impossible grâce à la GPL. Dénigrement : sans grand effet. Verrouillage des machines : impossibilité d'utiliser un logiciel non homologué... Brevets sur logiciels : protection légale et judiciaire des monopoles des grandes multinationales. Verrouillage des données (DADVSI) Verrouillage du savoir. Les logiciels libres constituent aussi une menace pour certains éditeurs de logiciels car leurs qualités et leurs performances augmentent plus vite que celle des logiciels fermés. Les éditeurs ne pouvant plus s’imposer par leurs caractéristiques, ont développé d’autres types d’attaques : Acheter… il n’y a rien à acheter, la GPL de Stallman est une bonne protection. Dénigrer… Les campagnes de dénigrement fonctionnent de moins en moins bien car les performances des logiciels libres sont si évidentes qu’il y a de moins en moins de personnes pour les croire. Breveter… Des pressions importantes ont été faites à Bruxelles pour que l’Europe accepte les brevets sur les logiciels. Elles ont été rejetées. Accepter les brevets sur les logiciels, c’est réserver la création des logiciels aux très grosses entreprises et l’interdire aux autres. Si nous devions mettre plusieurs avocats derrière chaque programmeur, ce serait la fin des logiciels libres.
Le verrouillage complet TIA : Total Information Awareness contrôle total de l'information Palladium / NGSCB : contrôle des ordinateurs L'utilisateur ne peut plus administrer sa machine TCPA : intégration des contrôles dans les processeurs Perte de l'interopérabilité et de la pérennité Article : http://www.lebars.org/sec/tcpa-faq.fr.html Pour lutter contre les copies illicites, sous la pression des éditeurs de musique et de logiciels, de nouvelles techniques apparaissent. Elles seront de plus en plus contraignantes car le but est de faire payer le client le plus souvent possible. L'argument de sécurité est fallacieux. Seule une perte de liberté est garantie à l'utilisateur. Articles de référence : TIA : http://www.erta-tcrg.org/analyses/tia.htm http://www.reseauvoltaire.net/article8734.html TCPA / Palladium http://www.lebars.org/sec/tcpa-faq.fr.html Ce dernier article est à lire en entier. Tout y est très bien expliqué. Palladium est renommé NGSCB (Next Generation Secure Computing Base). 2005 : Bios et disques durs « tatoués ».
Les combats d'arrière garde Le bricolage législatif Europe : brevets sur logiciels Monopole de création Monopole de diffusion Insécurité judiciaire France : DADVSI, HADŒPI... La bataille des brevets oppose la commission européenne (à la botte des lobbys), aux députés siégeant à Strasbourg. La loi DADVSI oppose le ministre français de la culture aux députés de tous partis. Dans les deux cas, les clivages politiques traditionnels n'ont pas reflété le vote des députés. Ces combats d'arrière-garde sont semblables au Locomotive-act des anglais : http://fr.wikipedia.org/wiki/Locomotive_Act Copie privée interdite Monopole de distribution Pauvreté culturelle
Bataille pour la Liberté L'avenir … Bataille pour la Liberté Quel sera l’avenir ? Combien de batailles seront encore nécessaires ? Il est difficile de le dire, mais il y en aura encore, c’est certain. Nous ne devrons jamais baisser les bras ni relâcher notre vigilance.
Le droit de créer est confisqué... Avant 1985, l'Apple II est un système ouvert Avant 1990 Turbo Pascal de Borland sous DOS (~1000F) 1991 Windows requiert des outils de développement MS 1998 Pour développer sous Windows, il faut au moins un budget de 20 000F par an pour le logiciel. 2002 Outils de développement performants... Réutilisation massive de codes disponibles La création de logiciels a été progressivement et insidieusement confisquée par Microsoft à partir de 1991. Maintenant des ateliers logiciels complets et très productifs existent et permettent de créer encore plus de logiciels d'excellente qualité. On peut créer en réutilisant d'autres programmes sans refaire ce qui a été fait des milliers de fois. … 10 années sombres
Le droit de créer est libéré... Logiciel propriétaire : Diffuse un logiciel pendant qu'il développe le prochain. Retard technologique impossible à rattraper. Correction des erreurs et évolution lentes ou inexistantes. Logiciel libre : Accès permanent aux dernières techniques à coût quasi-nul. Tout le monde est à égalité, dans tous les pays. Cycle de développement très rapide. Réutilisation intensive du code et des méthodes Prime à la compétence Les USA vendent leurs logiciels environ 2 ans après leur mise en chantier. On est maintenu à au moins deux ans de retard sur leur savoir-faire. Et encore, c'est dans le meilleur de cas ! Ceux qui ne peuvent que récupérer des matériels vieux de 3 à 5 ans ne peuvent que faire fonctionner des logiciels d'époque (moins gourmands) et sont condamnés à un retard technologique de 5 à 7 ans. Avec les logiciels libres, mis à part quelques niches, tout le monde a accès au même savoir. Une solution du type Abuledu permet de multiplier le nombre apparent de machines puissantes. Le temps nécessaire pour demander une correction et l'obtenir ne se compte plus en semaines ou en mois mais en heures ou en jours.
Le droit d'être libre Droit de traduire dans toutes les langues Droit de créer sans se soucier de la rentabilité Recherche de la perfection Libération de Blender, OpenOffice.org, Mozilla, ... Remplacer les standards par des normes Disposer librement de ses données Disposer librement de son matériel Droit de communiquer... Les langues minoritaires, donc non rentables sont ignorées des grands éditeurs. Il y a de nombreuses traductions de logiciels libres faites en occitan, basque, breton, malgache, etc... Blender a été acheté et mis sous GPL pour 100k€ en 2002. Les contributeurs ne sont pas que des développeurs. Rapport Carayon (2003) : le logiciel libre est un outil stratégique pour la souveraineté nationale.
Interopérabilité Les normes Le droit de communiquer Réseau mondial Standard non spécifié par le constructeur = Répercussion en chaîne des changements Interopérabilité nulle Normes internationales Réseau mondial Le réseau téléphonique est normé par le CCITT. Tous les téléphones du monde peuvent communiquer entre eux. C'est une très bonne illustration de l'interopérabilité. Sans spécifications d'interfaces, les modifications se répercutent de proche en proche. Interopérabilité
Compatibilité et interopérabilité Standard de fait Interopérabilité Aucune concurrence Distorsion de concurrence Concurrence effective La compatibilité ne révèle pas ses secrets. Le standard de fait permet à un acteur de dominer et aux autres de courir après. Le mot interopérabilité est un néologisme. Cette notion s'appuie sur un standard ouvert ou de préférence sur une norme.
Chaînes de dépendances Ticket de sortie élevé Clients captifs Chutes en cascade Conséquences des interfaces non documentées. Chaînes de dépendances Ticket de sortie élevé Clients captifs Lorsque les interfaces ne sont pas connues et qu'un produit exige la présence d'un autre, tout changement peut se répercuter en cascade et entraîner l'effondrement d'un système. Les clients sont alors des captifs de fournisseurs exclusifs. Pour se libérer, ils doivent faire des efforts souvent importants que l'on appelle « ticket de sortie ». Données prisonnières des logiciels : Danger
Pourquoi définir les interfaces ? spécifiée modification Les modifications sont confinées à l'intérieur d'un domaine et ne se propagent pas au delà. Liberté d'utilisation. Éviter l'effet de la cascade de dominos. Exemple : carte vidéo qui nécessite son pilote qui nécessite une version particulière de windows. C'est de la vente liée. C'est en jouant sur l'absence de spécifications que Microsoft a étendu son empire : pour accéder au document, il faut utiliser le même logiciel que pour le créer et avec le même OS. Les normes de la radio, de la télévision, du téléphone ou du courrier électronique sont stables depuis des dizaines d'années. Cela permet de créer des multitudes de produits répondant à ces normes, on peut alors parler d'interopérabilité.
Le DSI gère les modifications des interfaces Gestion d'un système interfaces C i3 B i3 i2 i4 A D i1 Extension de la logique cartésienne. Dans un système complexe, chaque sous-système a des interfaces avec d'autres parties. Le directeur du système doit gérer la définition des interfaces. Ainsi, chaque sous-système peut évoluer librement tant que ses modifications sont sans effet sur ses interfaces et donc sur les sous-systèmes voisins. On comprend alors que les modifications de B seront confinées dans B. L'expérience montre que les interfaces ne subissent que très peu de modifications. Lorsque cela doit être fait, le DSI doit assurer le synchronisme des changements. Ce principe est applicable à tous les niveaux, du composant à la gestion d'entreprise. Le DSI gère les modifications des interfaces
Dépendance et pérennité... Analogie de l'album de photos... format CF format CD La chaîne qui conduit à la restitution des données devient plus longue et plus fragile. Pour consulter le CD, il faut un outil compatible avec son format physique et son format logique. La disponibilité de l'outil de restitution devient critique en cas d'obsolescence des supports ou des outils de lecture. outil outil outil Connaissance des formats et disponibilité des outils
Définir les interfaces Produit Définir les interfaces Autrefois ... Humain écriture lecture Papier... Un produit peut être défini extérieurement par ses interfaces. Ce n'était pas très compliqué de lire et d'écrire sur du papier, mais l'interface logicielle est apparue il y a peu de temps dans l'histoire et a compliqué le problème, mode d'emploi Matériel spécifications techniques
Définir les 7+1 types d'interfaces A.P.I I.H.M formats Humain Logiciel Données mode d'emploi L'interface logicielle est apparue il y a peu de temps dans l'histoire et a compliqué le problème. C'est le logiciel qui, couplé à d'autres logiciels nous permet de lire et d'écrire. Si l'on omet l'interface homme-homme, on arrive maintenant à 7 types d'interfaces. La non connaissance de l'une d'elles peut verrouiller l'usage d'un produit. Le langage est l'interface entre humains. Matériel spécifications techniques
Définir les interfaces c'est spécifier les 5 niveaux : Lexical Fonctionnel Grammatical DTD ou XML schema XML sémantique Physique Alphabétique Toutes les communications (interfaces) peuvent se ramener à cette modélisation. Les formats des documents MS-Office ne sont pas connus. Les cinq couches des interfaces : http://pjarillon.free.fr/redac/interface.html
? La boite noire Définition des interfaces On peut admettre qu'un produit soit une boîte noire mais ses interfaces doivent être intégralement connues. On a acheté un produit, on doit pouvoir l'utiliser à sa guise sans imposer l'utilisation d'un produit tiers.
interfaces inconnues... Le mauvais exemple des cartes vidéo, wifi, GPS, etc Programme Carte vidéo Système d'exploitation écran Pilote Interface écran-carte est connue : type de connecteur, signaux électrique, logique des signaux. Par contre la carte vidéo a une interface PCI express ou AGP connue mais le protocole est inconnu. Les programmes dialoguent avec le pilote (API connue) mais l'interface avec le système d'exploitation est inconnue. Il est donc indispensable de définir totalement le produit selon toutes ses interfaces le pilote sert à lier la carte à un OS donné et interdit toute utilisation dans un autre contexte. Il faut connaître l'interface complètement au niveau des connecteurs du niveau physique au niveau fonctionnel. interfaces inconnues
Formats ouverts, formats fermés MS-office (non documenté) Postscript, PDF (adobe) OpenOffice (Consortium OASIS) XML avec DTD ou XML-schema spécifié et respecté. Normes ISO Certains formats sont à bannir, c'est le cas de MS-Office. Les développeurs de OpenOffice on fait un énorme travail d'ingénierie inverse pour être momentanément compatibles avec MS-Office. Profitons-en ! Adobe a entièrement spécifié le PDF et respecte ses propres spécifications. Le consortium OASIS a publié de format des documents OpenOffice. Ce format est devenu la norme ISO 26300 Pour tout échange spécifique, le XML est une solution de choix à condition que la DTD ou le XML schema soient bien définis et respectés. Un archivage est une interface avec soi, différée dans le temps
Définition de l'interopérabilité L’ interopérabilité est la capacité que possède un produit ou un système, dont les interfaces sont intégralement connues, à fonctionner avec d'autres produits ou systèmes, existants ou futurs et ce sans restriction d'accès ou de mise en œuvre. Définition issue du groupe de travail interop hébergé par l'AFUL. Le mot clé est interface. Interopérabilité entre ses sauvegardes et le matériel de remplacement après un sinistre. Exemple des bandes magnétiques contenant 20 ans de fiches de paie des fonctionnaires de la Côte d'Ivoire : on ne sait plus les lire. Un archivage est une interface avec soi, différée dans le temps
L'avenir des logiciels libres Sans publicité, inexorablement... Gouvernements et ministères choisissent les logiciels libres : défense, intérieur, finances, culture, ... Collectivités locales avec Adullact Entreprises : IBM, Sun Microsystems, Thales, Steria, Cap Gemini, Neuf/Cegetel, Free, Google, Peugeot, etc. La période probatoire est terminée pour les serveurs. La machine sous Linux arrive dans les foyers et dans les bureaux. Les ministères se lancent les uns après les autres dans l'utilisation des logiciels libres. Des cabinets de conseil recommandent le logiciels libres aux administrations. Les collectivités locales sont aidées par Adullact. La moitié des français en profitent. Agence gouvernementale : ADAé puis ATTICA puis DGME L'avancée est inexorable, mais sa vitesse d'évolution dépend de nous.
Quel avenir voulons nous ? Nous avons encore la possibilité de choisir : Être libres, maîtriser notre devenir Esclaves des multinationales Exclus Certains seront exclus de l'informatique et du savoir. Triste... La création de logiciels a été progressivement et insidieusement confisquée par des grands éditeurs qui désirent garder le monopole de la création. Il y a des esclaves heureux... Les logiciels libres sont la seule voie de salut. Bernard Lietaer, ancien Directeur de la banque centrale de Belgique, père de l'euro et professeur d'économie, envisage la prise de pouvoir par les multinationales comme le scénario le plus crédible. Ou de laisser le soin à nos enfants de faire une révolution Risque de prise de pouvoir par les multinationales (Bernard Lietaer)
Un espace de liberté Liberté de créer, de penser et de publier Internet est au monde : - la plus grande bibliothèque - le plus grand forum Internet et les logiciels libres font partie du patrimoine de l'humanité Internet rapproche les hommes plus qu’aucun autre moyen de communication ne l’avait jamais fait. C’est la plus grande bibliothèque du monde, en permanence réactualisée. Bibliothèque de toutes les connaissances de l’humanité, ignorant les frontières, Internet ne risque pas l’incendie comme la bibliothèque d’Alexandrie et est accessible de tout les endroits du monde. (Pas la BNF) Veillons à conserver cet espace de liberté. http://www.fsfeurope.org/projects/mankind/ http://www.fsfeurope.org/projects/mankind/lsm2002/
La liberté se mérite C'est à nous tous qu'il appartient de défendre Internet, les logiciels libres et notre liberté. La liberté n'est jamais définitivement acquise. Chacun de nous est concerné. Soyons acteurs et pas simplement des consommateurs. Soyons acteurs dans les forums, sur le web, faisons connaître notre opinion et prenons garde à ce que personne ne nous supprime ce droit même sous de bons prétextes. Tout comme nous devons nous défendre la démocratie de toutes les dictatures, nous devons défendre Internet et les logiciels libres contre tous les tentatives d’appropriation, qu’elles soient commerciales ou gouvernementales.
Internet et les logiciels libres Clef du 21ième siècle Une vision éthique de la société qui s'étend bien au delà des logiciels. Un espace de liberté. Patrimoine de l'humanité. Action menée en 2002 http://www.france.fsfeurope.org/projects/mankind/ La clef du 21ième siècle. C'est une vision humaniste, éthique et morale.
? Vos questions Est-ce que c'est fini ? Pessimistes ? Optimistes ? Vigilants L'avenir sera ce que nous voulons qu'il soit. C'est à nous de jouer. Merci de votre attention. Des questions ? Document sous licence Creative Commons : by-nc-sa