La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

EFREI 2012 INFORMATION ET ENTROPIE Séance de TAI 1 et TAI 2

Présentations similaires


Présentation au sujet: "EFREI 2012 INFORMATION ET ENTROPIE Séance de TAI 1 et TAI 2"— Transcription de la présentation:

1 EFREI 2012 INFORMATION ET ENTROPIE Séance de TAI 1 et TAI 2

2 I- Déroulement du TAI : 1- Séance de TAI n°1 (07/02/2012)  : Présentation et choix des sujets : 2- Séance de TAI n°2 (20/03/2012) : présentation rapide par trinôme : problématique, plan, exemple personnel (et non par trinôme) + références (à faire valider par professeur) 3- Soutenance (mai): Oral individuel de 10 min (PowerPoint ou autres supports) sur l’ensemble du TAI + exemple personnel + 5 minutes de questions Rapport écrit par trinôme (synthèse de 5 pages de texte + figures + références) à rendre au plus tard 15 jours avant la soutenance orale (fin avril)

3 1- Oral individuel de 15 min (75%) Rapport écrit par trinôme (25%)
II- Notation du TAI : 1- Oral individuel de 15 min (75%) Rapport écrit par trinôme (25%) 2- Références (articles ou livres) utilisées dans les rapports : obligatoires sinon pénalités Un rapport écrit aura automatiquement une note inférieure à la moyenne si les références n’ont pas été validées ou si elles ne figurent pas desus. Les références devront être validées par l’enseignant durant le 20/03/2012. Les références sur Internet (sauf si ces références correspondent à des articles scientifiques) ne sont pas prises en compte : elles ne sont à utiliser que pour un travail de recherche préalable. Références sérieuses : articles de journaux, articles de revues scientifiques, livres, cours, poly avec sources, cous de l’EFREI ou online. Wikipédia n’est pas une source mais un préalable!

4 III- Sujets de TAI: (12 trinômes)
1- Entropie et désordre Application : les protéines - explication des structures en hélices, de l’influence de l’hydrophobie… 2- Information et mathématiques fractales Application : la géométrie fractale et la théorie de l’information (calculs évolutions cours de la bourse de Mandelbrot, compression fractale en informatique, éliminer la redondance) 3- Entropie, information et physique du solide Application : les cristaux moléculaires purs (cohésion, calculs d’entropie lors de changements d’états, croissance fractale) 4- L’observation en physique et l’information Application : erreurs expérimentales, mesure de longueur, rendement d’une observation, mesure des intervalles de temps … 5- Information, complexité et biologie Application : l’ADN rôle de l’information dans la génétique

5 6- Complexité et Information en finance
Application : jeu en bourse (lien entre l’entropie et la bourse) 7- Complexité et Information en linguistique Application : l’entropie et le langage comparaison entre différents langages (français, anglais, morse, information en linguistique…) (2 groupes) 8- Information quantique et classique Application 1: ordinateur quantique comparaison entre les ordinateurs quantiques et classiques Application 2: cryptographie quantique 9- Réseau de neurones Application : intelligence artificielle 10- Représentation du bruit Application : lien entre le bruit et l’entropie impact sur un message de différents types de bruits (perturbation du signal, notion de rapport signal sur bruit…)

6 ENTROPIE ET DESORDRE : LES PROTEINES
Structure tertiaire Exemple de la myoglobine Hélice α Feuillet β Structure secondaire Structure quaternaire Exemple de l’hémoglobine Structure primaire d’une protéine

7 ENTROPIE ET DESORDRE : LES PROTEINES (2)
Structure primaire Structure secondaire Structure tertiaire Structure quaternaire Comment cette structuration des protéines est-elle possible ?

8 INFORMATION ET MATHEMATIQUES FRACTALES
Flocon de koch Fractales naturelles : chou romanesco en biologie, répartition des structures des plantes, bactéries, feuilles, branches d'arbres… en géologie, étude du relief, côtes et cours d'eau, structures de roches, avalanches… en paléontologie, loi de puissance des apparitions et extinctions d'espèces en morphologie animale, structures des invertébrés, plumes d'oiseaux… en médecine, structure des poumons, intestins, battements du cœur en météorologie, nuages, vortex, banquise, vagues scélérates, turbulences, structure de la foudre en volcanologie, prévision d'éruptions volcaniques, tremblements de terre en astronomie avec la description des structures de l'univers, cratères sur la Lune, répartition des exoplanètes et des galaxies… en sciences humaines, structure urbaine, évolution de la démographie en économie et finance, prévision des krachs boursiers (théorie des fractales) en électronique, antennes larges bandes des téléphones portables dans les arts, art graphiques bien sur, mais aussi en littérature, en musique, au cinéma… Comment peut-on utiliser la théorie des mathématiques fractales en théorie de l’information ? Quelles applications les fractales ont-elles dans le monde moderne ? (approche fractale des marchés)

9 INFORMATION, ENTROPIE ET PHYSIQUE DU SOLIDE
Croissance d’un quartz Comment peut-on expliquer la croissance des cristaux moléculaires, ioniques et covalents en terme de variation d’entropie ? Comment peut-on faire le lien entre théorie de l’information (information sur la position des molécules) et entropie lors des changements de phase amenant à la cristallisation? Bamfordite, vue au microscope

10 OBSERVATION EN PHYSIQUE ET INFORMATION
Exemples d’observations : Erreurs expérimentales Mesure de longueur Rendement d’une observation Mesure des intervalles de temps Salvator Dali " Montre molle au moment " Comment lier ces observations et l’entropie?

11 INFORMATION, COMPLEXITE ET BIOLOGIE
Synthèse des protéines. Représentation schématique de l’ADN. Comment les êtres vivants maintiennent-ils l’intégrité de l’information?

12 COMPLEXITE ET INFORMATION EN FINANCE
Pit de cotation au ChicagoBoard of Trade Evolution du CAC 40 (29/01/09) Comment peut-on lier entropie et bourse?

13 COMPLEXITE ET INFORMATION EN LINGUISTIQUE
Soeln une éudte d’une uvriseinté agnliase l’odrre des lttrees dans un mot n’est pas ipmrtnaot, ce qui cmptoe c’est la pmeriere et la dinreere lertte. Le rtsee puet erte n’ipmrote qoui, tu puex qnaud mmee le lrie snas pbolrmee. Quelle est l’entropie d’un message codé par un alphabet de i symboles (français, anglais : 26 lettres + espace + ponctuation ; morse : point, tiret, espace) ?

14 INFORMATION QUANTIQUE ET CLASSIQUE
Unité : bit Valeur 0 ou 1 Information quantique Unité : qubit Valeur 0 ou 1 Conséquence en termes d’informations ? Ordinateur quantique Cryptographie quantique Sources : Physique de l’information quantique, Département de physique, Université de Sherbrooke.

15 RESEAU DE NEURONES Schéma biologique d’un neurone Nicolas Rougier 02/06/2007 Vue simplifiée d'un réseau artificiel de neurones Dake Mysid, 28 Novembre 2006 Quelle est l’information transitant par le réseau artificiel de neurones ? Sources wikipedia

16 REPRESENTATION DU BRUIT
Quel est l’impact (en terme d’entropie) du bruit sur un message ? Exemples : perturbation du signal rapport signal/bruit

17 Les TAI doivent présenter le sujet mais ne pas se limiter à une présentation générale. Par exemple dans le cas de l’ADN et l’erreur en physique ainsi que le bruit, il est impératif de lier le sujet à l’entropie et à l’information (expliquer la forme de la structure de l‘ADN en terme d’entropie, faire des calculs d’erreurs et déterminer les rapports signaux/bruit). Pour le langage, prendre des exemples de phrases dans différentes langues et comparer le coût en terme d’entropie. Pour tous les sujets il faut prendre des exemples personnels pour illustrer le sujet et faire le lien avec l’entropie et l’information de manière quantitative. Pour les sujets où il y a deux groupes, ces derniers doivent se coordonner pour traiter le sujet différemment.

18 IV- Références conseillées:
1- Références de base sur le TAI et l’UE d’Entropie et d’Information: Chaleur et désordre, P.W. Atkins, Pour la science, Belin. La science et la théorie de l’information, L. Brillouin, Ed. J. Gabay. Introduction à la théorie du signal et de l’Information, F. Auger, Sciences et technologies, éditions TECHNIP.

19 2- Références spécialisées :
L’héritage de Kolmogorov en physique, R. Livi et A. Vulpiani, Belin Les objets fractals, B. Mandelbrot, Champs Sciences (poche) Information quantique: Richard P. Feynman, Optics News, 11(2) : (1985). D. Deutsch, Phys. Letters, 74, (1995). Réseaux de neurones, Méthodes et Applications, Eyrolles A. Kahn - dans article de P. Habert "Le génie génétique testé dans les champs", magazine "La recherche" Novembre 1994. "La musique des gènes", magazine "Sciences et Avenir", Avril 1995. J.C. Perez - "De nouvelles voies vers l'intelligence artificielle: pluridisciplinarité auto-organisation et réseaux neuronaux", Ed. Masson Paris (1988) réédité 1989, ISBN J.C. Perez - "La révolution des ordinateurs neuronaux", Ed. Hermes Paris (1990) ISBN J.C. Perez - "Le langage caché du génome", conférence à La Sorbonne, Université Européenne de Paris, enregistrement VHS INJEP Marly Le Roi, Janvier 1991. J.C. Perez - "De l'ordre et du chaos dans l'ADN", magazine Sciences et Technologies N° 36 (Avril 1991), ISSN J.C. Perez - "Le chaos et la nécessité, ou le langage caché de l'ADN", magazine Troisième Millénaire, N°s et 23, (1991 et 1992), ISSN J.C. Perez - "Rapport de recherche sur la dynamique des mutations des virus HIV/SIV", rapport de recherche dans le cadre d'une aide de la FMPRS du Pr Luc Montagnier (Fondation Mondiale Prévention Recherche SIDA).


Télécharger ppt "EFREI 2012 INFORMATION ET ENTROPIE Séance de TAI 1 et TAI 2"

Présentations similaires


Annonces Google