La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Techniques de l’intelligence artificielle 11 Mars 2014 t 1/33oliviergeorgeon.com.

Présentations similaires


Présentation au sujet: "Techniques de l’intelligence artificielle 11 Mars 2014 t 1/33oliviergeorgeon.com."— Transcription de la présentation:

1 Techniques de l’intelligence artificielle 11 Mars t 1/33oliviergeorgeon.com

2 Déroulement de l’UE 11 marsOlivier Georgeon 18 marsINTELLIGENCE ARTIFICIELLE 25 marsDEVELOPPEMENTALE 1 avril 8 avrilAlain Mille 15 avrilRAISONNEMENT A PARTIR DE CASRendu projet 22 avril 29 avrilNadia Kabachi 6 maiVACANCES 13 maiNadia Kabachi 20 maiSYSTEMES MULTI AGENTS 1 27 maiSamir Aknine 3 juinSYSTEMES MULTI AGENTS 2 10 juin 17 juil 24 juinExam Responsable de l’UE: Alain MILLE Evaluation: - Projets: 2/3 - Exam: 1/3 2/33oliviergeorgeon.com

3 Initiation à l’intelligence artificielle développementale 11 Mars – 1 avril 2014 (10h) 3/33oliviergeorgeon.com

4 Vieux rêve de l’IA Instead of trying to produce a program to simulate the adult mind, why not rather try to produce one which simulates the child's? If this were then subjected to an appropriate course of education one would obtain the adult brain. Presumably, the child brain is something like a notebook […]. Rather little mechanism, and lots of blank sheets. […]. Our hope is that there is so little mechanism in the child brain that something like it can be easily programmed. The amount of work in the education we can assume, as a first approximation, to be much the same as for the human child. Computing machinery and intelligence (Alan Turing, 1950, Mind, philosophy journal). 4/33oliviergeorgeon.com

5 Est-ce même possible? Théories spiritualiste de la conscience. Théories de l’ouverture causale de la réalité physique. Trop complexe. … Théorie matérialiste de la conscience – (Julien Offray de La Mettrie, ). La conscience comme processus computationnel – (Chalmers 1994) Non ? Oui ? 5/33oliviergeorgeon.com

6 Plan Exemple – Demo d’apprentissage développemental. Outils théorique – Poser le problème. – La question de l’auto-programmation. Travaux pratiques – Développez votre agent auto-programmant. 6/33oliviergeorgeon.com

7 6 “expériences” I existe des régularités séquentielles hiérarchiques d’interaction, par exemple: Après i 7, tentatives de i 1 or i 2 provoque plus souvent i 1 que i 2. Après  i 9, i 3, i 1, i 8 ,  i 4, i 7, i 1  peut souvent etre effectuée. Après i 8, séquence  i 9, i 3, i 1  peut souvent être effectuée. Après i 8, i 8 peut à nouveau être effectué. i 1 (5) i 2 (-10) i 3 (-3) i 7 (-1) i 8 (-1) i 5 (-1) i 6 (-1) i 9 (-1) i 10 (-1) i 4 (-3) 2 résultats10 Interactions (avec valeurs) Couplage agent/environnement 7/33oliviergeorgeon.com

8 Exemple 1: Bump: Touch: Avance / collision (5) (-10) Tournes gauche/droite (-3) Touche droite/devant/gauche (-1) 8/28oliviergeorgeon.com

9 Outils théoriques Philosophie de l’esprit. Epistémologie (théorie de la connaissance) Psychologie développementale. Biologie (autopoiese, enaction). Neurosciences. 9/33oliviergeorgeon.com

10 Philosophie : Est-ce possible? John Locke (1632 – 1704) – « Tabula Rasa » La Mettrie ( ). – « La matière peut penser » David Chalmers – A Computational Foundation for the Study of Cognition (1994) Daniel Dennett – Consciousness explained (1991) – Libre arbitre, choix individuel, motivation propre, déterminisme. 10/33oliviergeorgeon.com

11 Idées philosophiques clés pour l’IAD La cognition comme computation au sens large. – Dispositif causal Exemple: un réseau de neurone avec de la chimie (neurotransmetteurs, hormones etc). Le déterminisme n’est pas incompatible avec le libre arbitre. – Ne pas confondre déterminisme et prédictibilité. Hervé Zwirn (Les systèmes complexes, 2006) 11/33oliviergeorgeon.com

12 Epistémologie (que puis-je connaître?) Concept d’ontologie L'étude de l'être en tant qu'être – Aristote (384 – 322 avant JC). – Onto: « étant », Logos: discours. – c'est-à-dire l'étude des propriétés générales de tout ce qui est. La réalité en tant que telle est inconnaissable – Emmanuel Kant, (1724 – 1804) 12/33oliviergeorgeon.com

13 Idées épistémologiques clés pour l’IAD Implémenter des systèmes sans présupposés ontologiques. – Agents agnostics (Georgeon 2012). – L’agent ne pourra jamais connaître son environnement tel que nous le voyons. Mais avec présupposés interactionnels – Prédéfinir les possibilités d’interaction entre l’agent et son environnement – Laisser l’agent construire sa propre ontologie de l’environnement au fur et à mesure de son expérience d’interaction. 13/33oliviergeorgeon.com

14 Psychologie développementale Comment puis-je connaitre? Apprentissage développemental – Jean Piaget (1896 – 1980) Téléologie / principes motivationnels ”l’individu s'auto-finalise de manière récursive”. Ne pas séparer perception et action a priori: Notion de schème sensorimoteur Epistémologie contructiviste – Jean-Louis Le Moigne ( ) – Ernst von Glasersfeld. La connaissance est une adaptation fonctionnelle. 14/33oliviergeorgeon.com

15 Etapes développementales indicatives Mois 4: prédictions « Bayésiennes ». Mois 5: modèles des mouvements des mains. Mois 6: reconnaissance des objets et des visages. Mois 7: persistance des objets. Mois 8: modèles dynamiques des objets. Mois 9: usage d’outils (amène une tasse à la bouche) Comportements de pointage d’objets. Mois 10: Imite les mouvements, rampe. Mois 11: marche avec l’aide d’un adulte. Mois 15: marche seul. 15/45oliviergeorgeon.com

16 Idées psychologiques clés pour l’IAD Raisonner sur les « intéractions » plutôt que séparer perception et action. Définir un niveau intermédiaire de l’intelligence: – Cognition sémantique (Manzotti & Chella 2012) Adaptation stimulus-réponse Cognition sémantique Raisonnement et langage Bas niveau Haut niveau Niveau intérmédiaire 16/33oliviergeorgeon.com

17 Théorie de la vie (pourquoi connaître?) Autopoiese – auto: soi, poièse : création – Maturana (1972) – Couplage structurel agent/environnement. – Domaine relationnel (espace des possibilités d’interaction) Homéostasie – Régulation de l’état interne – Motivation propre Théorie de l’enaction – « to enact » mettre en œuvre. – Auto organisation par interaction avec l’environnement. – Enactive Artificial Intelligence. Froeze and Ziemke (2009). 17/33oliviergeorgeon.com

18 Idées Enactivistes clés pour l’IAD L’autonomie constitutive est nécessaire pour la construction de sens. – Evolution des possibilités d’interaction au cours de la vie du système. – Individuation de la façon de voir le monde. Faire des systèmes capables de s’auto- programmer. – Les données apprises ne sont pas de simples valeurs de paramètres ou de pondération, ce sont des données exécutables. 18/33oliviergeorgeon.com

19 Neurosciences Multiples niveaux d’analyse Beaucoup de plasticité ET beaucoup de pré-câblage 19/33oliviergeorgeon.com

20 Neuroscience Connectome du C. Elegans: 302 neurones. Connectome entièrement inné plutôt qu’acquis par l’expérience 20/33oliviergeorgeon.com

21 Human connectome 21/33oliviergeorgeon.com

22 Neurosciences Exemples de cerveaux de mammifères Il n’y a pas de rupture qualitative: les fonctions cognitives humaines (langage raisonnement) sont basées sur des fonctions cérébrales également existantes chez d’autres mammifères. Mais il y a des différences innées. Le cerveau sert à organiser les comportements dans le temps et l’espace. 22/33oliviergeorgeon.com

23 Idées de neurosceinces clés pour l’IAD Renoncer à l’espoir que ce sera simple. Commencer à un niveau assez élevé et descendre si ca ne marche pas ? Le vivant peut être source d’inspiration – Architecture cognitive bio-inspirée. Importance de la capacité de simulation interne de comportements. 23/33oliviergeorgeon.com

24 Les idées clé des idées clé Le but est d’apprendre (découvrir, organiser et exploiter) des régularités d’interaction dans le temps et l’espace pour favoriser des critères innés (survie, etc.). Sans encoder de connaissances ontologiques présupposées. En permettant une certaine autonomie constitutive (auto-programmation). 24/33oliviergeorgeon.com

25 Exemples 25/33oliviergeorgeon.com

26 6 “expériences” I existe des régularités séquentielles hiérarchiques d’interaction, par exemple: Après i 7, tentatives de i 1 or i 2 provoque plus souvent i 1 que i 2. Après  i 9, i 3, i 1, i 8 ,  i 4, i 7, i 1  peut souvent etre effectuée. Après i 8, séquence  i 9, i 3, i 1  peut souvent être effectuée. Après i 8, i 8 peut à nouveau être effectué. i 1 (5) i 2 (-10) i 3 (-3) i 7 (-1) i 8 (-1) i 5 (-1) i 6 (-1) i 9 (-1) i 10 (-1) i 4 (-3) 2 résultats10 Interactions (value) Couplage agent/environnement 26/33oliviergeorgeon.com

27 Exemple 1: Bump: Touch: Avance / collision (5) (-10) Tournes gauche/droite (-3) Touche droite/devant/gauche (-1) 27/28oliviergeorgeon.com

28 Exemple de trace 28/33oliviergeorgeon.com

29 Exemple 2 29/5oliviergeorgeon.com

30 Travaux dirigés 30/33oliviergeorgeon.com 1ere partie. Salles TP6 et TP6 Groupes de 2

31 Exercice Deux expériences possibles E = {e 1,e 2 } Deux résultats possibles R = {r 1,r 2 } Quatre interactions possibles E x R = {i 11, i 12, i 21, i 22 } Environnements – env 1 : e 1 -> r 1, e 2 -> r 2 (i 12 et i 21 ne se produisent jamais) – env 2 : e 1 -> r 2, e 2 -> r 1 (i 11 et i 22 ne se produisent jamais) Systèmes motivationnels : – mot 1 : v(i 11 ) = v(i 12 ) = 1, v(i 21 ) = v(i 22 ) = -1 – mot 2 : v(i 11 ) = v(i 12 ) = -1, v(i 21 ) = v(i 22 ) = 1 – mot 2 : v(i 11 ) = v(i 21 ) = 1, v(i 12 ) = v(i 22 ) = -1 Implémenter un agent qui apprenne à effectuer les interactions positives sans connaître à priori son système motivationnel (mot 1 ou mot 2 ) ni son environnement (env 1 ou env 2 ). Produire un rapport d’analyse de comportement basés sur les traces. 31/33oliviergeorgeon.com

32 Pas de connaissance de l’environnement a priori Agen{ … public Experience chooseExperience(){ If (env == env 1 and mot == mot 1 ) or (env == env 2 and mot == mot 2 ) return e 1 ; else return e 2 ; } 32/33oliviergeorgeon.com

33 Implémentation public static Experience e1 = new experience(); Experience e2 = new experience(); public static Result r1 = new result(); Result r2 = new result(); public static Interaction i11 = new Interaction(e1,r1, 1); etc. Public static void main() Agent agent = new Agent(); Environnement env = new Env1(); // Env2(); for(int i=0 ; i < 10 ; i++) e = agent.chooseExperience(r); r = env.giveResult(e); System.out.println(e, r, value); Class Agent public Experience chooseExperience(Result r) Class Environnement public Result giveResult(experience e) Class Env1 Class Env2 Class Experience Class Result Class Interaction(experience, result, value) public int getValue() 33/33oliviergeorgeon.com


Télécharger ppt "Techniques de l’intelligence artificielle 11 Mars 2014 t 1/33oliviergeorgeon.com."

Présentations similaires


Annonces Google