La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Enseignement des mathématiques : le défi de la pluridisciplinarité

Présentations similaires


Présentation au sujet: "Enseignement des mathématiques : le défi de la pluridisciplinarité"— Transcription de la présentation:

1 Enseignement des mathématiques : le défi de la pluridisciplinarité
Michèle Artigue, LDAR et IREM Paris 7 Depuis plus de dix ans maintenant, des dispositifs divers ont vu le jour visant à réduire l'isolement des disciplines scolaires : TPE, itinéraires de découverte, module MPS, options sciences, expérience d'enseignement intégré des sciences au collège.... Par leur formation initiale, les enseignants en France sont peu préparés au dialogue entre disciplines que de tels dispositifs nécessitent et les enseignants de mathématiques, tout particulièrement, éprouvent des difficultés à en tirer parti. Certains IREM, et c'est le cas de l'IREM Paris 7, ont pourtant une tradition dans ce domaine. C'est sur cette tradition, et plus particulièrement sur les travaux du groupe modélisation qui a été créé au moment de la mise en place des TPE, que je m'appuierai dans cette conférence pour montrer l'intérêt, pour l'enseignement des mathématiques, de relever ce défi mais aussi pour réfléchir aux conditions à satisfaire et aux évolutions nécessaires pour qu'un tel dialogue puisse s'établir productivement.

2 Plan Introduction : le contexte français et international
L’expérience de l’IREM Paris 7: Une tradition de pluridisciplinarité Le groupe Modélisation Mathématiques et SVT Quelles leçons tirer de cette expérience ?

3 Le contexte français Une volonté institutionnelle en France de promouvoir l’interdisciplinarité, manifeste dans de multiples initiatives : Le CNP et la réforme des lycées de 2000 : TPE, travail conjoint des groupes d’experts sur l’exponentielle, les projets en lycée professionnel… Des options sciences au nouveau module MPS en seconde. L’enseignement au collège : IDD, thèmes de convergence… Les expériences d’enseignement intégré des sciences au collège (EIST) Le Conseil national des programmes (CNP) était un organisme consultatif du ministère français de l'Éducation nationale française composé de personnalités choisies par le ministre. Il était chargé de donner son opinion sur l'élaboration des programmes scolaires et sur les enseignements en règle générale. Créé par la Loi Jospin en 1989, il a été supprimé par la loi no  d'orientation et de programme pour l'avenir de l'école dite Loi Fillon (art. 15) et ses attributions sont désormais en partie exercées par le Haut Conseil de l'éducation créé en 2005. Luc Ferry a présidé le Conseil national des programmes pendant quelques années avant sa nomination comme ministre de l'Éducation nationale.

4 Pourquoi la pluridisciplinarité ?
Faire face aux besoins d’une éducation citoyenne Rapprocher l’Ecole de la science actuelle Pluridisciplinarité Renforcer l’attractivité de l’enseignement scientifique

5 Une diversité d’enjeux
Décloisonner les connaissances Modélisation / Applications Interdisciplinarité Démarches d’investigation Contenus / Compétences

6 Extrait des documents d’accompagnement des programmes du lycée (2000)
« La modélisation est une pratique scientifique majeure qui concerne un nombre croissant de domaines. […] Modéliser est une des principales modalités de l’interaction entre les mathématiques et les autres sciences. Mais la pratique de la modélisation de situations réelles est difficile. […] Au niveau du lycée, on initiera les élèves à la modélisation grâce à l’étude de certaines situations réelles, qu’on simplifiera à l’extrême et pour lesquelles le modèle grossier ainsi établi devient éclairant ou permet une prévision : la difficulté est alors de garder sens et consistance au problème simplifié. » (Accompagnement pour les classes terminales S et ES, p. 29)

7 Les thèmes de convergence
« Les thèmes de convergence [...] font partie des programmes des disciplines dans lesquels leurs contributions sont également recensées. Les thèmes choisis ont été retenus parmi des sujets importants pour la société et proches des préoccupations quotidiennes des élèves. L’intérêt que leur étude, à partir de points de vue complémentaires, peut susciter chez des collégiens a constitué une considération décisive. Pour chaque enseignement disciplinaire, il s’agit de contribuer, de façon coordonnée, à l’édification d’objets de savoir commun, éléments essentiels d’une culture partagée.  » (extrait du Rapport Bach)

8 L’enseignement d’exploration des nouveaux programmes de seconde
« L’enseignement d’exploration « méthodes et pratiques scientifiques » permet aux élèves de découvrir différents domaines des mathématiques, des sciences physiques et chimiques, des sciences de la vie et de la Terre et des sciences de l’ingénieur. C’est aussi l’occasion de montrer l’apport et la synergie de ces disciplines pour trouver des réponses aux questions scientifiques que soulève une société moderne, d’en faire percevoir différents grands enjeux, et de donner les moyens de les aborder de façon objective. »

9 Le discours de Pierre Lena à l’Académie des Sciences
Il y propose trois leviers pour l’avenir de l’école : Le changement des pratiques pédagogiques et le développement des démarches d’investigation à l’image de la « Main à la Pâte » Des professeurs accompagnés dans leur développement professionnel, au contact de la science vivante et de ses acteurs Décloisonnement et interdisciplinarité: une conception plus globale des savoirs, un décloisonnement des disciplines.

10 Le discours de Pierre Lena
« Chaque année, l’Académie des sciences distingue les lauréats de ses Prix : ces travaux révèlent l’immensité des savoirs d’aujourd’hui, leur perpétuel mouvement, leurs interactions croisées et souvent improbables, leur degré d’abstraction, leur extrême technicité, leurs surprenantes applications. Notre système d’éducation, ne sachant évidemment plus embrasser cette immensité de savoirs, traumatisé, peine à prendre un cap où beaucoup est à réinventer. Il se contente d’aménager des programmes étroitement disciplinaires. Que l’on ne voie pas ici une critique d’institutions ou de personnes, car nombre de pays se heurtent à ces mêmes difficultés. »

11 Le Plan Sciences et l’EIST
« Afin de décloisonner l'approche des sciences et des technologies au collège pour redonner du sens à l'enseignement et faciliter la liaison CM2-sixième, une expérimentation d'un enseignement intégré de science et technologie (EIST), mise en œuvre par l'Académie des sciences, l'Académie des technologies et le ministère, est conduite depuis 2006 en classe de sixième et de cinquième.  […] L'EIST s'inscrit dans le sillage de « La main à la pâte » à l'école élémentaire et offre aux élèves la possibilité de mener à bien une démarche expérimentale et d'investigation […] Le plan sciences et technologies à l'École vise l'extension du dispositif à 400 collèges à terme. »

12 Et au niveau international ?
Des convergences évidentes aisément repérables dans la perception des enjeux : au niveau Européen (Rapport Rocard, Financement de projets ) au niveau de l’OCDE (PISA et le concept de « littéracie », le cycle de modélisation…) au niveau de l’UNESCO (les deux documents récents sur les défis de l’éducation scientifique et mathématique dans la scolarité de base) Des évolutions curriculaires convergentes

13 Le contexte français : des volontés affichées mais aussi des facteurs peu favorables
Une culture éducative qui est fondée sur le cloisonnement disciplinaire voire la compétitions entre disciplines. Des enseignants qui sont, à partir du collège, (hors lycée professionnel) monovalents. Des enseignants qui sont très peu préparés par leur formation initiale à des pratiques pluridisciplinaires et aux démarches de modélisation qu’elles induisent. Une vision du travail enseignant où les pratiques collaboratives ont encore assez peu de place. Des possibilités de formation continue de plus en plus réduites pour accompagner les dispositifs progressivement introduits. Une avalanche de réformes et une détérioration des conditions de travail qui ne favorisent pas les évolutions souhaitées.

14 L’expérience des IREM Une expérience indéniable et qui mérite d’être valorisée

15 Le cas de l’IREM Paris 7 Un IREM initialement pluri-disciplinaire : maths- physique, math-technologie, math-biologie, math- français. Une pluri-disciplinarité qui va progressivement s’estomper pour renaître à la fin des années 90 avec : le groupe MAG (Maths-Arts plastiques- Géographie) le groupe ZEP qui deviendra le groupe Math-Français le groupe TPE qui deviendra le groupe Modélisation Et avec l’émergence aujourd’hui d’une collaboration avec les informaticiens autour de l’algorithmique

16 Le groupe IREM Modélisation
Un groupe pluridisciplinaire : maths – physique – SVT. Un groupe créé en 1999 pour accompagner la mise en place des TPE et qui s’est progressivement orienté vers les questions de modélisation et d’interactions entre disciplines. L’animation de stages PAF puis l’opportunité de mener un travail plus approfondi créée par la mise en place du master professionnel didactique en 2004. L’importance prise par les interactions entre mathématiques et biologie dans le travail du groupe.

17 Le processus de modélisation
Le découpage d’un segment de « réalité » Un choix de description Une mathématisation de cette description Un travail dans le modèle Une confrontation à la contingence Un problème à résoudre Des modèles de référence

18 Un travail interdisciplinaire math-physique inspiré par une ressource du projet Européen LEMA

19 L’apport d’une démarche pluridisciplinaire
La vision initiale des enseignants de mathématiques : La modélisation des jets d’eau par des paraboles le problème devient alors un problème géométrico- fonctionnel l’utilisation de logiciels de géométrie (Geoplan et Geospace) pour simuler les jets d’eau et visualiser l’effet des variations des paramètres l’exploitation des propriétés de symétrie de la situation

20 L’apport d’une démarche pluridisciplinaire
L’apport de l’enseignante de physique : La modélisation physique et ses approximations La confrontation au réel via un dispositif expérimental Une autre utilisation de la technologie pour tester le modèle et trouver par ajustement l’équation de la parabole L’introduction d’un exemple historique

21 La modélisation physique
La modélisation de l’eau par un liquide parfait incompressible et l’utilisation du théorème de Bernouilli. La modélisation du jet en un ensemble de gouttes d’eau soumises à la seule pesanteur et l’utilisation des lois de la mécanique classique.

22 Influence de l’intensité de la vitesse initiale (angle constant)

23 Influence de l’angle à vitesse constante
L’existence d’une portée maximale (45°)

24 Le dispositif expérimental
En utilisant le théorème de Bernouilli pour l’écoulement permanent d’un fluide parfait (sans viscosité) incompressible on obtient pour la vitesse à la sortie v=rac(2gz) où z est la hauteur d’eau. Ensuite, on considère que l’on a des gouttes d’eau soumises à la pesanteur et sans interactions entre elles. Ceci conduit en utilisant les lois de la mécanique classique à une trajectoire parabolique.

25 L’exploitation du logiciel Dynamic

26 Le test du modèle quadratique

27 Leonardo da Vinci: une étrange affirmation !

28 Le calcul effectif

29 La simulation avec Geospace

30 Des prolongements : parabole de sécurité

31 Des prolongements

32 Interactions maths-SVT
Des spécificités certaines

33 Le cas spécifique de la biologie
Des concepts dont les mathématiques ne sont pas constitutives, contrairement à la physique. La diversité des sources de modélisation en biologie et l’influence croissante mais relativement récente des modélisations mathématiques. Le rôle déterminant joué par les modélisations aléatoires et la variabilité du vivant comme source d’obstacles : Le défi résultant pour faire vivre le rôle créateur des modèles mathématiques en biologie. Mais aussi la possibilité progressivement constatée de faire vivre des interactions riches et motivantes entre maths et biologie avec des outils mathématiques assez élémentaires, en particulier grâce aux outils technologiques disponibles.

34 Deux exemples historiques travaillés dans le master et les stages
L’essai sur le principe de population de Malthus Le travail de Daniel Bernoulli sur la variole

35 Bernoulli : les hypothèses de modélisation
H1 : « Tant qu’on a pas eu la petite vérole, on court continuellement le même risque de l’avoir. » H2 : « Quant au risque annuel d’être attaqué par la petite vérole, pour ceux qui ne l’ont pas eue, j’ai cru ne pouvoir satisfaire aux notions générales que nous avons sur cette maladie, qu’en la supposant d’un huitième, ce rapport de 1 sur 8 étant supposé constant » H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième » H4 :  « Le risque de mourir par une autre cause que la petite vérole est le même que l’on ait eu la petite vérole ou non  »

36 Bernouilli : les justifications
H1 : « Nous n’avons encore aucune observation qui nous oblige à renoncer à cette supposition, et les lois de la Nature les plus simples sont toujours les plus vraisemblables … » H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième : deux raisons m’y ont engagé, …la première est qu’on apprend exactement tous ceux qui en meurent, et qu’on ne saurait apprendre si exactement tous ceux qui ont la maladie , la seconde, est que le rapport de 1 sur 7 ferait la mortalité variolique trop grande par rapport à la mortalité entière, pendant que celui de 1 sur 8 est entièrement conforme à l’observation la mieux constatée, qui est que la petite vérole enlève la treizième partie du total des morts … »

37 La mathématisation On introduit les variables suivantes :
t : variable qui représente l’âge des individus en années. N(t) : le nombre de survivants de cette population à l’instant t x(t) : le nombre des personnes susceptibles d’attraper la variole à l’instant t, c’est-à-dire, parmi les survivants, ceux qui n’ont pas encore eu la variole m(t) : le taux annuel de décès par d’autres causes que la variole au sein des deux populations.

38 Le jeu entre discret et continu

39 La résolution du système différentiel
Bernoulli introduit la proportion de survivants à l’instant t, encore susceptibles d’avoir la variole en posant : On reconnaît là une équation différentielle logistique

40 La résolution de l’équation différentielle logistique

41 Si l’on utilise les valeurs de N(t) données dans une table de mortalité, on peut alors en déduire les valeurs de x(t), puis déterminer comment évoluerait la population si personne ne mourait de la variole, par un raisonnement de proportionnalité. C’est ce que fait Bernoulli en s’appuyant sur les tables de mortalité d’une population de 1300 personnes de la naissance à l’âge de 24 ans.

42

43 Le raffinement de la modélisation et les conclusions qui en sont tirées
La modélisation effectuée ne tient pas compte de l’existence de décès suite à l’inoculation : 1 sur 600 à Londres en 1755, or c’est sur ce nombre de décès d’inoculés que se fondaient les opposés à l’inoculation. Bernoulli raffine donc son modèle en calculant ce qui se passerait si on avait une chance sur 200 de mourir de la variole après avoir été inoculé (l’inoculation étant supposée avoir lieu la première année). Avec des arguments de nature probabiliste, il conclut ensuite que l’espérance de vie passerait de 30 à 34 ans environ si tout le monde était inoculé. Cette étude le conduit prendre parti pour l’inoculation préventive comme mesure salutaire de prophylaxie collective en dépit du risque individuel que la mesure comporte.

44 Des conclusions source de débats qui ont des résonances actuelles…
Un long débat mathématique et philosophique, auquel Jean Le Rond D’Alembert ( ) prit une part active, s’ensuivit, montrant bien combien l’introduction d’une approche statistique en médecine est problématique à l’époque : « Je suppose avec monsieur Bernoulli que le risque de mourir de l’inoculation soit de 1 sur 200. Cela posé, il me semble que pour apprécier l’avantage de l’inoculation, il faut comparer, non la vie moyenne de 34 ans à la vie moyenne de 30, mais le risque de 1 sur 200 auquel on s’expose de mourir en un mois par l’inoculation … à l’avantage éloigné de vivre quatre ans de plus au bout de 60 ans lorsqu’on sera beaucoup moins en état de jouir de la vie … Voilà, il n’en faut point douter, ce qui rend tant de personnes, et surtout tant de mères, peu favorables parmi nous à l’inoculation. » (Opuscules, tome II)

45 Les thèmes abordés dans les projets
La propagation de maladies contagieuses dans une population humaine. La dynamique des pools de gènes dans une population animale ou humaine au fil des générations. L’analyse de séquences ADN dont la fonction n’est pas connue. La représentation de l’ADN par la CGR. La modélisation des formes (toiles d’araignée, empreintes digitales). La dynamique des tumeurs cancéreuses et leur traitement (réalisation inspirée des stages Hippocampe mis en place à l’IREM d’Aix-Marseille).

46 La propagation de maladies contagieuses
Un des premiers thèmes abordés ((lèpre, rougeole, SIDA) qui permet d’entrer en contact avec diverses questions : choix entre modèles déterministes et aléatoires, raffinement progressif des modèles (du modèle « S.I. » de Hamer au modèle « S.I.R. » de Kermack et MacKendrick , la prise en compte d’effets de vaccination), recherche et exploitation de données réelles, critique de documents. Et ce, avec des besoins mathématiques raisonnables (équations et systèmes différentiels simples et suites) et des besoins biologiques très réduits. Un thème qui permet de combiner le travail sur des exemples historiques (variole, peste) et sur des questions actuelles.

47 La dynamique des pools de gènes dans une population
La nécessité de passer par un modèle aléatoire (urne des gamètes). La mise en évidence d’un phénomène intéressant de stabilité intergénérationnelle (Loi de Hardy-Weinberg) et l’explicitation des hypothèses sous-jacentes : taille de la population, absence de mutation, de migration, de sélection, de croisements entre générations. La remise en cause de certaines hypothèses : étude des effets, rectification des modèles : simulations pour le cas de petites populations (dérive génique et modèle de Wright), étude du cas d’une maladie génétique récessive : la mucoviscidose, étude d’une maladie spécifique locale (ataxie spastique).. La possibilité de réaliser des transpositions didactiques au niveau lycée, et même collège exploitant des modélisations probabilistes simples.

48 L’analyse de séquences ADN dont la fonction n’est pas connue
Un thème plus exigeant sur le plan biologique et mathématique, avec un premier niveau de modélisation : celle de l’ADN par un texte sur l’alphabet A, C, G, T, puis une seconde modélisation via des chaînes de Markov. Mais un thème qui permet d’envisager l’exploitation du travail de modélisation sous l’angle de l’écart à un modèle, avec le problème de la détection de sections codantes du texte : par la recherche de fragments qui s’écartent d’une répartition aléatoire sur la base des fréquences des lettres, par la recherche de mots « connus ». La familiarisation avec ces questions via une transposition sur la succession consonnes-voyelles dans un texte, l’exploration de modèles markoviens simples et l’étude de l’effet de permutations du texte. L’exploitation sur des données réelles avec la définition de macro Excel appropriées et la transposition au niveau lycée.

49 ADN et CGR Plus qu’une modélisation, une représentation
GAGCACAGTGGAAGGG…

50 Les représentations CGR de l’ADN de quatre espèces

51 ADN et CGR Une appropriation et une exploitation multiforme de cette représentation via l’utilisation d’outils mathématiques élémentaires mais très divers : 1- Récurrence, homothéties : combinatoire élémentaire, suite de points du plan définis par récurrence barycentrique, intervention des homothéties, exploitation combinatoire de la récurrence vectorielle, utilisation d’un tableur pour représenter et conjecturer, interprétation et comparaison de séquences « vraies » et de séquences produites par un automate probabiliste ; 2- Calcul barycentrique : calcul des poids des points de la CGR comme barycentres des sommets du carré, exploitation combinatoire en relation avec l’aspect des dessins ; 3- Un peu d’arithmétique : écriture des poids en base 2 ; 4- Programmation d’un tableur pour dessiner des CGR, application aux séquences d’ADN des patients atteints de la chorée de Huntington, cas d’école de la biologie. Liens entre propriétés statistiques simples d’une séquence et sa CGR.

52 En conclusion : quelques leçons de ces expériences
Les réelles potentialités offertes par des travaux interdisciplinaires dès l’enseignement secondaire mais aussi la distance des cultures disciplinaires et le temps nécessaire à l’opérationnalisation. L’importance du choix des questions qui doit faire sens pour les deux disciplines et la vigilance à avoir vis-à-vis de notre tendance à nous évader dans des jeux purement mathématiques. La confrontation salutaire à l’ignorance et à la difficulté que nous ressentons comme nos élèves à faire fonctionner des concepts et techniques que nous pensons bien maîtriser hors des sentiers battus. L’ importance du travail collaboratif et l’enrichissement que l’on retire des échanges avec d’autres disciplines La compréhension des limites des erzats de modélisation scolaires mais aussi une vision réaliste des limites de ce qui peut être fait dans le cadre de séances de classe ordinaires, et l’importance donc d’arriver à profiter des dispositifs institutionnels secondaires existants pour faire vivre modélisation et interdisciplinarité.

53 L’interdisciplinarité : un réel défi pour les enseignants de mathématiques mais un défi qui mérite d’être relevé !


Télécharger ppt "Enseignement des mathématiques : le défi de la pluridisciplinarité"

Présentations similaires


Annonces Google