Télécharger la présentation
1
ENTROPIE & INFORMATION
Le point de vue du physicien Jean V. Bellissard Georgia Institute of Technology & Institut Universitaire de France
2
ENTROPIE: Un peu d’histoire
3
Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu
4
Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu Une machine thermique a besoin de 2 sources de chaleur: - chaude: température Th - froide: température Tc Th > Tc
5
Principe de Carnot: Sadi CARNOT 1825:
Reflexions sur la Puissance Motrice du Feu La proportion d’énergie thermique qui peut être transformée en énergie mécanique (rendement) ne dépend que des températures des deux sources
6
Moteurs Thermiques Tout moteur thermique a une source chaude (brûleur)
et une source froide (l’atmosphère).
7
partout des moteurs thermiques
centrales électriques, usines, voitures, avion, bateaux, réfrigérateurs, air conditionné,…
8
Entropie: définition Rudolf CLAUSIUS 1865: Définition de l’entropie:
d S = d Q/T 2ème Principe de la Thermodynamique: L’entropie ne peut que croître au cours du temps
9
Les gaz sont faits de molécules
Clausius montra que les gaz sont constitués de molécules, expliquant la lenteur de la diffusion des particules et l’origine de la viscosité
10
Thermodynamique Statistique :
Ludwig BOLTZMAN 1872: Théorie cinétique 1880: Interprétation statistique de l’entropie: mesure du désordre dans l’espace des énergies
11
Thermodynamique Statistique :
Josiah Willard GIBBS 1880’s: l’équilibre thermodynamique correspond au maximum de l’entropie 1902 : livre « Statistical Mechanics »
12
Théorie de l’Information
Claude E. SHANNON 1948: « A Mathematical Theory of Communication » -théorie de l’information -l’entropie mesure la perte d’information par un système
13
2ème Principe de la Thermodynamique
Au cours du temps, l’information contenue dans un système isolé ne peut qu’être détruite ou encore: l’entropie ne peut que croître
14
2ème Principe de la Thermodynamique
En conséquence, l’équilibre n’est atteint que lorsque toute information est détruite ou encore: que lorsque l’entropie est maximum
15
ou comment la nature produit-elle de l’information ?
MORPHOGENESE: ou comment la nature produit-elle de l’information ?
16
Lois de conservation Dans un système isolé, l’énergie, l’impulsion, le moment cinétique, la charge électrique,…. sont conservés au cours du temps.
17
Lois de conservation moment cinétique
18
Lois de conservation A l’équilibre, la seule information accessible sur un système est la valeur des quantités conservées! Exemple: une particle élémentaire est caractérisée par sa masse (énergie au repos), son spin (moment cinétique), sa charge électrique… Electron : m = 9.109x10-31 kg, s = 1/2, e = —1.602 x10-19 C,
19
Hors d’équilibre E E’ temps flux Les variations temporelles ou spatiales forcent le transfert des quantités conservées Les transferts d’énergie (chaleur), de masse, de moment cinétique, de charges, créent des flux de courant.
20
Hors d’équilibre Les transferts d’énergie (chaleur), créent des courant de chaleur comme dans les flammes et les feux.
21
Hors d’équilibre Les transferts de masse, créent des courants fluides comme dans les rivières.
22
Hors d’équilibre Les transferts de charges, créent les courants électriques.
23
Hors d’équilibre Les transferts de moment cinétiques créent les tourbillons comme cet ouragan vu d’un satellite.
24
Hors d’équilibre Morphogénèse
Un liquide horizontal peu profond chauffé par dessous est sujet à des instabilités qui induisent des rouleaux et des formes, conséquences des équations des fluides
25
Hors d’équilibre Des explosions produisent les gaz Interstellaires
Des effondrements produisent les étoiles Le Soleil, la Lune, les planètes et les étoiles ont été utilisés comme sources d’information pour la mesure du temps ou de la position sur Terre
26
Résister au 2ème Principe
Sans variations temporelles ou spatiales la seule information contenue dans un système isolé provient des lois de conservation Le mouvement et les hétérogénéités permettent à la nature de produire de larges quantités d’information. Toutes les équations macroscopiques (fluides, flammes,…) décrivant ces mouvements proviennent des lois de conservation
27
CODER L’INFORMATION l’art des symboles
28
Les signes peuvent être visuels: couleur, forme, dessin
29
les signes peuvent être sonores: sonnette, bruit, applaudissements, musique, discours
30
Les signes peuvent être olfactifs
31
Les signes peuvent être olfactifs
32
Signes Les signes peuvent être olfactifs
les plantes peuvent avertir leurs voisines en émettant des phénols Signes
33
Signes Les signes peuvent être olfactifs
les femelles insectes attirent les mâles grâce aux phéromones Signes
34
Ecrire
35
Le Chinois utilise plus de 80,000 caractères pour coder son langage
Ecrire
36
Ecrire les Egyptiens utilisaient les hiéroglyphes pour coder les sons et les mots
37
Ecrire Le Japanais utilise les 96 caractères Hiragana pour coder les syllabes
38
Ecrire b g d e z h q i k l m n o p r s t u f c y w
les Phéniciens et les Grecs ont découvert qu’un alphabet de 23 caractères peuvent coder les sons élémentaires Ecrire b g d e z h q i k l m n o p r s t u f c y w
39
Les nombres modernes sont codés à l’aide de 10 chiffres créés par les Indiens et transmis aux Européens par les Arabes Ecrire
40
0 1 Ecrire George BOOLE (1815-1864)
utilisait seulement deux caractères pour coder les opérations logiques Ecrire 0 1
41
0 1 Ecrire John von NEUMANN (1903-1957)
développa le concept de programmation utilisant aussi un système binaire pour coder toute information Ecrire 0 1
42
Ecrire La nature utilise 4 molécules
43
Ecrire La nature utilise 4 molécules pour coder
44
Ecrire La nature utilise 4 molécules pour coder l’hérédité génétique
45
Les protéines utilisent 20 acides aminés pour coder leurs fonctions dans les cellules
Ecrire molécule de Tryptophane, un des 20 acides aminés
46
Unité d’information selon Shannon (1948) l’unité est le bit
un système contient N-bits d’information s’il peut contenir 2N caractères
47
TRANSMETTRE L’INFORMATION
redondance
48
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 1
49
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage
50
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage Transmission
51
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 Transmission erreurs (2ème principe)
52
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 Transmission erreurs (2ème principe) Reconstruction
53
La théorie du codage utilise la redondance pour transmettre les bits d’information
codage 010 110 000 111 Transmission erreurs (2ème principe) Reconstruction à réception (correction)
54
Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre
55
Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre
56
Les Hommes utilisent aussi la redondance pour confirmer l’information reçue
Transmettre redis le !
57
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre
58
Avant la division cellulaire les brins des molécules d’ADN sont séparés
Transmettre
59
Avant la division cellulaire les brins des molécules d’ADN sont séparés par une autre protéine
Transmettre
60
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre
61
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
62
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
63
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
64
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
65
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
66
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
67
une cellule est une usine à dupliquer l’information contenue dans l’ADN
Transmettre mitose
68
Résister au 2ème Principe
La cellule se divise avant que l’information qu’elle contient dans l’ADN ne disparaisse Ainsi, la division cellulaire et la duplication de l’ADN à taux rapide, conservent l’information génétique durant des millions d’années.
69
REVOIR LE PRINCIPE DE MAXIMUM D’ENTROPIE
L’art dangereux de l’extrapolation
70
Un système physique atteint son équilibre quand toute information autre que celle qui doit être conservée a disparu Equilibre
71
Un système physique atteint son équilibre quand toute information autre que celle qui doit être conservée a disparu Equilibre Dans un gaz, le mouvement chaotique produit par les collisions est responsable des pertes d’information
72
Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre
73
Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre Comme la bureaucratie
74
Par analogie d’autres systèmes contenant un grand nombre d’individus semblables peuvent être traités statistiquement en terme d’information Equilibre Comme la bureaucratie 1837 J. S. MILL in Westm. Rev. XXVIII. 71 That vast network of administrative tyranny…that system of bureaucracy, which leaves no free agent in all France, except the man at Paris who pulls the wires. (Oxford English Dictionary)
75
Bureaucratie Chine (3ème s. av J.-C.) les Hans, idées de Confucius
France (18ème s.) URSS ( ) La Communité Européenne (1952) Bureaucratie L’ENA: L’Ecole Nationale d’Administration
76
Bureaucratie
77
Bureaucratie Règles quantités conservées
78
Bureaucratie Règles quantités conservées Individus particules
indiscernables
79
Bureaucratie Règles quantités conservées Individus particules
indiscernables Remplacer chocs un individu perte d’information
80
Bureaucratie Règles quantités conservées Individus particules
indiscernables Remplacer chocs un individu perte d’information entropie maximum pas d’évolution
81
Bureaucratie Un système bureaucratique est stable (son entropie est maximum). Exemple: l’empire Chinois a résisté durant 2000 ans. Il ne peut être modifié sans une source majeure d’instabilité. Exemple: la guerre de l’opium ( –––> 1912)
82
ORDINATEURS: machines et cerveaux
83
Ordinateurs Alan TURING (1912-1954) 1936:
Description d’une machine calculant Ordinateurs Les ordinateurs éxecutent des opérations logiques Ils produisent des informations, les mémorisent, les traitent
84
Une machine de Turing est séquentielle: les opérations sont ordonnées dans le temps
Ordinateurs règles états gauche-droite Bande d’enregistrement
85
Ordinateurs L’ordinateur de von NEUMANN répète les cycles suivants
1. rechercher une instruction dans la mémoire. 2. rechercher, dans la mémoire, les données requises par les instructions. 3. éxecuter les instructions 4. stocker les résultats en mémoire. 5. retourner à l’étape 1. Ordinateurs données données & instructions CPU MEMOIRE
86
14 février 1946 ENIAC le premier ordinateur Los Alamos NM Ordinateurs
87
Les automates cellulaires produisent des dessins comme sur les coquillages
Ordinateurs a b règles changeant le dessin d’une couche à l’autre simulation numérique
88
Ordinateurs La nature a aussi produit les cerveaux
Le cerveau ne semble pas suivre les procédures de von Neumann ou de Turing Ordinateurs
89
Dans le cerveau les signaux ne sont pas binaires mais activés à partir de seuils
Les opérations ne sont pas éxécutées séquentiellement Ordinateurs
90
Ordinateurs Le cerveau peut apprendre Il s’adapte: plasticité
La mémoire du cerveau est associative: il reconnaît les formes par comparaison à des modèles pré-stockés Ordinateurs
91
ORDINATEURS QUANTIQUES
ou comment minimiser les pertes d’information
92
Le Monde Quantique Echelle atomique ou plus petite
L’information dans un système quantique est de nature ondulatoire et probabiliste electron shows up Le point où se révèle l’électron ne peut être prédit. Mais la distribution des images d’un grand nombre d’entre eux peut-être calculée.
93
Le Monde Quantique Tant que le système reste isolé, son information ne disparaît pas ! (limite du 2ème principe) Toute tentative d’extraire cette information, (mesure, interaction,…) conduit à une perte partielle d’information (principe d’incertitude)
94
Le Monde Quantique Le codage de l’information quantique utilise les
espaces de Hilbert (objets bien compliqués) L’unité d’information quantique est le qubit (le plus simple des objets bien compliqués)
95
Calculer en intriquant les qubits !!
Le Monde Quantique Le principe de superposition conduit aux états intriqués qui n’ont pas d’équivalents classiques (Anglais: entanglement) Le rêve de Feynman (Richard P. Feynman, David Deutsch, 1985) Calculer en intriquant les qubits !!
96
L’idée de Feynman Richard P. Feynman. Optics News, 11(2):11-20, 1985.
Il suggéra en 1982 qu’un ordinateur quantique pourrait être fondamentalement plus puissant que les ordinateurs conventionels. Il est en effet si difficile de calculer les résultats des processus quantiques sur un ordinateur conventionel, alors que la Nature, par contraste, effectue ce calcul si facilement.Cette suggestion fut suivie de tentatives par à-coups puis a conduit à la conclusion que, si la Mécanique Quantique n’est pas fausse, il devrait être possible de factoriser un entier en produit de nombres premiers si facilement que les fondements de la cryptographie actuelle seraient remis en cause Richard P. Feynman. Quantum mechanical computers. Optics News, 11(2):11-20, 1985.
97
L’ordinateur de Deutsch
David Deutsch. Quantum theory, the Church-Turing Principle and universal quantum computer. Proc. R. Soc. London A, 400, 11-20, (1985). David Deutsch. Conditional quantum dynamics and logic gates. Phys. Rev. Letters, 74, , (1995).
98
L’algorithme de Shor Peter W. Shor.
cet algorithme montre qu’un ordinateur quantique peut factoriser un entier en un temps polynomial Peter W. Shor. Algorithm for quantum computation: discrete logarithms and factoring Proc. 35th Annual Symposium on Foundation of Computer Science, IEEE Press, Los Alamitos CA, (1994).
99
Codes correcteurs d’erreur
R. Calderbank & P. W. Shor. Good quantum error-correcting codes exist Phys. Rev. A, 54, 1086, (1996). M. Steane Error-correcting codes in quantum theory Phys. R. Letters, 77, 793, (1996).
100
Codes correcteurs topologiques
Alex Yu. Kitaev. Fault-tolerant quantum computation by anyons arXiv : quant-phys/ , (1997).
101
Réalisations Méthodes pour produire des qubits:
Tout oscillateur harmonique quantique Photons optiques Cavités optiques couplées avec atomes à deux niveaux Trappes ioniques Résonance magnétique nucléaire: un calcul avec 7-qubits a permis de tester l’algorithme de Shor 15=3x5 !! Jonctions Josephson: le quantronium Deux points quantiques couplés
102
Réalisation 7-qubit, RMN (IBM)
Résonance Magnétique Nucléaire : 15=3x5 !! (algorithme de Shor)
103
Réalisation the CNOT gate |x> |x> |y> |xÅy>
104
Réalisation Nature 425, (30 October 2003); doi: /nature02015 Demonstration of conditional gate operation using superconducting charge qubits T. YAMAMOTO1,2, YU. A. PASHKIN2,*, O. ASTAFIEV2, Y. NAKAMURA1,2 & J. S. TSAI1,2 1 NEC Fundamental Research Laboratories, Tsukuba, Ibaraki , Japan 2 The Institute of Physical and Chemical Research (RIKEN), Wako, Saitama , Japan * Permanent address: Lebedev Physical Institute, Moscow , Russia Correspondence and requests for materials should be addressed to T.Y. Following the demonstration of coherent control of the quantum state of a superconducting charge qubit1, a variety of qubits based on Josephson junctions have been implemented2-5. Although such solid-state devices are not currently as advanced as microscopic qubits based on nuclear magnetic resonance6 and ion trap7 technologies, the potential scalability of the former systems—together with progress in their coherence times and read-out schemes—makes them strong candidates for the building block of a quantum computer8. Recently, coherent oscillations9 and microwave spectroscopy10 of capacitively coupled superconducting qubits have been reported; the next challenging step towards quantum computation is the realization of l ogic gates11, 12. Here we demonstrate conditional gate operation using a pair of coupled superconducting charge qubits. Using a pulse technique, we prepare different input states and show that their amplitude can be transformed by controlled-NOT (C-NOT) gate operation, although the phase evolution during the gate operation remains to be clarified.
105
Réalisation: a CNOT-gate (oct.2003)
106
POUR CONCLURE Entropie & Information
107
Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
108
Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre
109
Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre Seuls les systèmes hors d’équilibre produisent de l’information… au détriment de l’environnement!
110
Le 2ème Principe de la Thermodynamique conduit à la perte globale d’information
Les lois de conservations fournissent l’information minimum à l’équilibre Seuls les systèmes hors d’équilibre produisent de l’information… au détriment de l’environnement! L’information peut être codée, transmise, mémorisée, cryptée, traitée.
111
Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau.
112
Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau. Les machines peuvent reproduire certaines de ces fonctions
113
Vivre c’est produire de l’information: code génétique, protéines, signaux chimiques, formation de motifs, neurones, cerveau. Les machines peuvent reproduire certaines de ces fonctions Les machines quantiques offrent des perspectives nouvelles pour optimiser l’usage de ces informations.
114
psychologie, émotions, pensée… sociologie, économie, politique…
Sujets non couverts dans cet exposé (et pourtant explicables au travers de la théorie de l’information) psychologie, émotions, pensée… sociologie, économie, politique… le fait religieux,.. le physicien est ici hors du domaine de ses compétences
115
la Nature ne serait-elle qu’un énorme ordinateur ?
116
FINIES LES INFOS !! La paix enfin !
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.