La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

ENTROPIE & INFORMATION

Présentations similaires


Présentation au sujet: "ENTROPIE & INFORMATION"— Transcription de la présentation:

1 ENTROPIE & INFORMATION
Le point de vue du physicien Jean V. Bellissard Georgia Institute of Technology & Institut Universitaire de France

2 ENTROPIE: Un peu d’histoire

3 Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu

4 Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu Une machine thermique a besoin de 2 sources de chaleur: - chaude: température Th - froide: température Tc Th > Tc

5 Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu La proportion d’énergie thermique qui peut être transformée en énergie mécanique (rendement) ne dépend que des températures des deux sources

6 Moteurs Thermiques Tout moteur thermique a une source chaude (brûleur)
et une source froide (l’atmosphère).

7 partout des moteurs thermiques
centrales électriques, usines, voitures, avion, bateaux, réfrigérateurs, air conditionné,…

8 Entropie: définition Rudolf CLAUSIUS 1865: Définition de l’entropie:
d S = d Q/T 2ème Principe de la Thermodynamique: L’entropie ne peut que croître au cours du temps

9 Les gaz sont faits de molécules
Clausius montra que les gaz sont constitués de molécules, expliquant la lenteur de la diffusion des particules et l’origine de la viscosité

10 Thermodynamique Statistique :
Ludwig BOLTZMAN 1872: Théorie cinétique 1880: Interprétation statistique de l’entropie: mesure du désordre dans l’espace des énergies

11 Thermodynamique Statistique :
Josiah Willard GIBBS 1880’s: l’équilibre thermodynamique correspond au maximum de l’entropie 1902 : livre « Statistical Mechanics »

12 Théorie de l’Information
Claude E. SHANNON 1948: « A Mathematical Theory of Communication » -théorie de l’information -l’entropie mesure la perte d’information par un système

13 2ème Principe de la Thermodynamique
Au cours du temps, l’information contenue dans un système isolé ne peut qu’être détruite ou encore: l’entropie ne peut que croître

14 2ème Principe de la Thermodynamique
En conséquence, l’équilibre n’est atteint que lorsque toute information est détruite ou encore: que lorsque l’entropie est maximum

15 ou comment la nature produit-elle de l’information ?
MORPHOGENESE: ou comment la nature produit-elle de l’information ?

16 Lois de conservation Dans un système isolé, l’énergie, l’impulsion, le moment cinétique, la charge électrique,…. sont conservés au cours du temps.

17 Lois de conservation moment cinétique

18 Lois de conservation A l’équilibre, la seule information accessible sur un système est la valeur des quantités conservées! Exemple: une particle élémentaire est caractérisée par sa masse (énergie au repos), son spin (moment cinétique), sa charge électrique… Electron : m = 9.109x10-31 kg, s = 1/2, e = —1.602 x10-19 C,

19 Hors d’équilibre E E’ temps flux Les variations temporelles ou spatiales forcent le transfert des quantités conservées Les transferts d’énergie (chaleur), de masse, de moment cinétique, de charges, créent des flux de courant.

20 Hors d’équilibre Les transferts d’énergie (chaleur), créent des courant de chaleur comme dans les flammes et les feux.

21 Hors d’équilibre Les transferts de masse, créent des courants fluides comme dans les rivières.

22 Hors d’équilibre Les transferts de charges, créent les courants électriques.

23 Hors d’équilibre Les transferts de moment cinétiques créent les tourbillons comme cet ouragan vu d’un satellite.

24 Hors d’équilibre Morphogénèse
Un liquide horizontal peu profond chauffé par dessous est sujet à des instabilités qui induisent des rouleaux et des formes, conséquences des équations des fluides

25 Hors d’équilibre Des explosions produisent les gaz Interstellaires
Des effondrements produisent les étoiles Le Soleil, la Lune, les planètes et les étoiles ont été utilisés comme sources d’information pour la mesure du temps ou de la position sur Terre

26 Résister au 2ème Principe
Sans variations temporelles ou spatiales la seule information contenue dans un système isolé provient des lois de conservation Le mouvement et les hétérogénéités permettent à la nature de produire de larges quantités d’information. Toutes les équations macroscopiques (fluides, flammes,…) décrivant ces mouvements proviennent des lois de conservation

27 CODER L’INFORMATION l’art des symboles

28 Les signes peuvent être visuels: couleur, forme, dessin

29 les signes peuvent être sonores: sonnette, bruit, applaudissements, musique, discours

30 Les signes peuvent être olfactifs

31 Les signes peuvent être olfactifs

32 Signes Les signes peuvent être olfactifs
les plantes peuvent avertir leurs voisines en émettant des phénols Signes

33 Signes Les signes peuvent être olfactifs
les femelles insectes attirent les mâles grâce aux phéromones Signes

34 Ecrire

35 Le Chinois utilise plus de 80,000 caractères pour coder son langage
Ecrire

36 Ecrire les Egyptiens utilisaient les hiéroglyphes pour coder les sons et les mots

37 Ecrire Le Japanais utilise les 96 caractères Hiragana pour coder les syllabes

38 Ecrire b g d e z h q i k l m n o p r s t u f c y w
les Phéniciens et les Grecs ont découvert qu’un alphabet de 23 caractères peuvent coder les sons élémentaires Ecrire b g d e z h q i k l m n o p r s t u f c y w

39 Les nombres modernes sont codés à l’aide de 10 chiffres créés par les Indiens et transmis aux Européens par les Arabes Ecrire

40 0 1 Ecrire George BOOLE (1815-1864)
utilisait seulement deux caractères pour coder les opérations logiques Ecrire 0 1

41 0 1 Ecrire John von NEUMANN (1903-1957)
développa le concept de programmation utilisant aussi un système binaire pour coder toute information Ecrire 0 1

42 Ecrire La nature utilise 4 molécules

43 Ecrire La nature utilise 4 molécules pour coder

44 Ecrire La nature utilise 4 molécules pour coder l’hérédité génétique

45 Les protéines utilisent 20 acides aminés pour coder leurs fonctions dans les cellules
Ecrire molécule de Tryptophane, un des 20 acides aminés

46 Unité d’information selon Shannon (1948) l’unité est le bit
un système contient N-bits d’information s’il peut contenir 2N caractères

47 TRANSMETTRE L’INFORMATION
redondance

48 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 1

49 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage

50 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage Transmission

51 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 Transmission erreurs (2ème principe)

52 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 Transmission erreurs (2ème principe) Reconstruction

53 La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 000 111 Transmission erreurs (2ème principe) Reconstruction à réception (correction)

54 Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre

55 Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre

56 Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre redis le !

57 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre

58 Avant la division cellulaire les brins des molécules d’ADN sont séparés
Transmettre

59 Avant la division cellulaire les brins des molécules d’ADN sont séparés par une autre protéine
Transmettre

60 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre

61 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

62 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

63 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

64 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

65 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

66 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

67 une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose

68 Résister au 2ème Principe
La cellule se divise avant que l’information qu’elle contient dans l’ADN ne disparaisse Ainsi, la division cellulaire et la duplication de l’ADN à taux rapide, conservent l’information génétique durant des millions d’années.

69 REVOIR LE PRINCIPE DE MAXIMUM D’ENTROPIE
L’art dangereux de l’extrapolation

70 Un système physique atteint son équilibre quand toute information autre que celle qui doit être conservée a disparu Equilibre

71 Un système physique atteint son équilibre quand toute information autre que celle qui doit être conservée a disparu Equilibre Dans un gaz, le mouvement chaotique produit par les collisions est responsable des pertes d’information

72 Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre

73 Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre Comme la bureaucratie

74 Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre Comme la bureaucratie 1837 J. S. MILL in Westm. Rev. XXVIII. 71 That vast network of administrative tyranny…that system of bureaucracy, which leaves no free agent in all France, except the man at Paris who pulls the wires. (Oxford English Dictionary)

75 Bureaucratie Chine (3ème s. av J.-C.) les Hans, idées de Confucius
France (18ème s.) URSS ( ) La Communité Européenne (1952) Bureaucratie L’ENA: L’Ecole Nationale d’Administration

76 Bureaucratie

77 Bureaucratie Règles quantités conservées

78 Bureaucratie Règles quantités conservées Individus particules
indiscernables

79 Bureaucratie Règles quantités conservées Individus particules
indiscernables Remplacer chocs un individu perte d’information

80 Bureaucratie Règles quantités conservées Individus particules
indiscernables Remplacer chocs un individu perte d’information entropie maximum pas d’évolution

81 Bureaucratie Un système bureaucratique est stable (son entropie est maximum). Exemple: l’empire Chinois a résisté durant 2000 ans. Il ne peut être modifié sans une source majeure d’instabilité. Exemple: la guerre de l’opium ( –––> 1912)

82 ORDINATEURS: machines et cerveaux

83 Ordinateurs Alan TURING (1912-1954) 1936:
Description d’une machine calculant Ordinateurs Les ordinateurs éxecutent des opérations logiques Ils produisent des informations, les mémorisent, les traitent

84 Une machine de Turing est séquentielle: les opérations sont ordonnées dans le temps
Ordinateurs règles états gauche-droite Bande d’enregistrement

85 Ordinateurs L’ordinateur de von NEUMANN répète les cycles suivants
1. rechercher une instruction dans la mémoire. 2. rechercher, dans la mémoire, les données requises par les instructions. 3. éxecuter les instructions 4. stocker les résultats en mémoire. 5. retourner à l’étape 1. Ordinateurs données données & instructions CPU MEMOIRE

86 14 février 1946 ENIAC le premier ordinateur Los Alamos NM Ordinateurs

87 Les automates cellulaires produisent des dessins comme sur les coquillages
Ordinateurs a b règles changeant le dessin d’une couche à l’autre simulation numérique

88 Ordinateurs La nature a aussi produit les cerveaux
Le cerveau ne semble pas suivre les procédures de von Neumann ou de Turing Ordinateurs

89 Dans le cerveau les signaux ne sont pas binaires mais activés à partir de seuils
Les opérations ne sont pas éxécutées séquentiellement Ordinateurs

90 Ordinateurs Le cerveau peut apprendre Il s’adapte: plasticité
La mémoire du cerveau est associative: il reconnaît les formes par comparaison à des modèles pré-stockés Ordinateurs

91 ORDINATEURS QUANTIQUES
ou comment minimiser les pertes d’information

92 Le Monde Quantique Echelle atomique ou plus petite
L’information dans un système quantique est de nature ondulatoire et probabiliste electron shows up Le point où se révèle l’électron ne peut être prédit. Mais la distribution des images d’un grand nombre d’entre eux peut-être calculée.

93 Le Monde Quantique Tant que le système reste isolé, son information ne disparaît pas ! (limite du 2ème principe) Toute tentative d’extraire cette information, (mesure, interaction,…) conduit à une perte partielle d’information (principe d’incertitude)

94 Le Monde Quantique Le codage de l’information quantique utilise les
espaces de Hilbert (objets bien compliqués) L’unité d’information quantique est le qubit (le plus simple des objets bien compliqués)

95 Calculer en intriquant les qubits !!
Le Monde Quantique Le principe de superposition conduit aux états intriqués qui n’ont pas d’équivalents classiques (Anglais: entanglement) Le rêve de Feynman (Richard P. Feynman, David Deutsch, 1985) Calculer en intriquant les qubits !!

96 L’idée de Feynman Richard P. Feynman. Optics News, 11(2):11-20, 1985.
Il suggéra en 1982 qu’un ordinateur quantique pourrait être fondamentalement plus puissant que les ordinateurs conventionels. Il est en effet si difficile de calculer les résultats des processus quantiques sur un ordinateur conventionel, alors que la Nature, par contraste, effectue ce calcul si facilement.Cette suggestion fut suivie de tentatives par à-coups puis a conduit à la conclusion que, si la Mécanique Quantique n’est pas fausse, il devrait être possible de factoriser un entier en produit de nombres premiers si facilement que les fondements de la cryptographie actuelle seraient remis en cause Richard P. Feynman. Quantum mechanical computers. Optics News, 11(2):11-20, 1985.

97 L’ordinateur de Deutsch
David Deutsch. Quantum theory, the Church-Turing Principle and universal quantum computer. Proc. R. Soc. London A, 400, 11-20, (1985). David Deutsch. Conditional quantum dynamics and logic gates. Phys. Rev. Letters, 74, , (1995).

98 L’algorithme de Shor Peter W. Shor.
cet algorithme montre qu’un ordinateur quantique peut factoriser un entier en un temps polynomial Peter W. Shor. Algorithm for quantum computation: discrete logarithms and factoring Proc. 35th Annual Symposium on Foundation of Computer Science, IEEE Press, Los Alamitos CA, (1994).

99 Codes correcteurs d’erreur
R. Calderbank & P. W. Shor. Good quantum error-correcting codes exist Phys. Rev. A, 54, 1086, (1996). M. Steane Error-correcting codes in quantum theory Phys. R. Letters, 77, 793, (1996).

100 Codes correcteurs topologiques
Alex Yu. Kitaev. Fault-tolerant quantum computation by anyons arXiv : quant-phys/ , (1997).

101 Réalisations Méthodes pour produire des qubits:
Tout oscillateur harmonique quantique Photons optiques Cavités optiques couplées avec atomes à deux niveaux Trappes ioniques Résonance magnétique nucléaire: un calcul avec 7-qubits a permis de tester l’algorithme de Shor 15=3x5 !! Jonctions Josephson: le quantronium Deux points quantiques couplés

102 Réalisation 7-qubit, RMN (IBM)
Résonance Magnétique Nucléaire : 15=3x5 !! (algorithme de Shor)

103 Réalisation the CNOT gate |x> |x> |y> |xÅy>

104 Réalisation Nature 425, (30 October 2003); doi: /nature02015 Demonstration of conditional gate operation using superconducting charge qubits T. YAMAMOTO1,2, YU. A. PASHKIN2,*, O. ASTAFIEV2, Y. NAKAMURA1,2 & J. S. TSAI1,2 1 NEC Fundamental Research Laboratories, Tsukuba, Ibaraki , Japan 2 The Institute of Physical and Chemical Research (RIKEN), Wako, Saitama , Japan * Permanent address: Lebedev Physical Institute, Moscow , Russia Correspondence and requests for materials should be addressed to T.Y. Following the demonstration of coherent control of the quantum state of a superconducting charge qubit1, a variety of qubits based on Josephson junctions have been implemented2-5. Although such solid-state devices are not currently as advanced as microscopic qubits based on nuclear magnetic resonance6 and ion trap7 technologies, the potential scalability of the former systems—together with progress in their coherence times and read-out schemes—makes them strong candidates for the building block of a quantum computer8. Recently, coherent oscillations9 and microwave spectroscopy10 of capacitively coupled superconducting qubits have been reported; the next challenging step towards quantum computation is the realization of l ogic gates11, 12. Here we demonstrate conditional gate operation using a pair of coupled superconducting charge qubits. Using a pulse technique, we prepare different input states and show that their amplitude can be transformed by controlled-NOT (C-NOT) gate operation, although the phase evolution during the gate operation remains to be clarified.

105 Réalisation: a CNOT-gate (oct.2003)

106 POUR CONCLURE Entropie & Information

107 Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information

108 Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre

109 Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre Seuls les systèmes hors d’équilibre produisent de l’information… au détriment de l’environnement!

110 Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre Seuls les systèmes hors d’équilibre produisent de l’information… au détriment de l’environnement! L’information peut être codée, transmise, mémorisée, cryptée, traitée.

111 Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau.

112 Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau. Les machines peuvent reproduire certaines de ces fonctions

113 Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau. Les machines peuvent reproduire certaines de ces fonctions Les machines quantiques offrent des perspectives nouvelles pour optimiser l’usage de ces informations.

114 psychologie, émotions, pensée… sociologie, économie, politique…
Sujets non couverts dans cet exposé (et pourtant explicables au travers de la théorie de l’information) psychologie, émotions, pensée… sociologie, économie, politique… le fait religieux,.. le physicien est ici hors du domaine de ses compétences

115 la Nature ne serait-elle qu’un énorme ordinateur ?

116 FINIES LES INFOS !! La paix enfin !


Télécharger ppt "ENTROPIE & INFORMATION"

Présentations similaires


Annonces Google