La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Intelligence Artificielle Développementale 1 er Avril 2014 t oliviergeorgeon.com1/23.

Présentations similaires


Présentation au sujet: "Intelligence Artificielle Développementale 1 er Avril 2014 t oliviergeorgeon.com1/23."— Transcription de la présentation:

1 Intelligence Artificielle Développementale 1 er Avril t oliviergeorgeon.com1/23

2 Plan Vers de la recherche en robotique. – Demos Conclusion du cours. Travaux pratiques – Développez votre agent auto-programmant (suite). oliviergeorgeon.com2/23

3 Recherche en robotique oliviergeorgeon.com Bumper tactile sensor Panoramic camera Ground optic sensor 3/23

4 Expérimentation oliviergeorgeon.com 4/23

5 Conclusion sur l’IA développementale oliviergeorgeon.com5/23

6 Positionnement dans le cadre de l’IA Newell & Simon (1972) goals drive problem solving; (1976) Physical Symbol Systems. Symbolique Non symbolique oliviergeorgeon.com6/23

7 “L’environnement” passe des symboles à l’agent en input. Nous codons une sémantique des symboles dans l’agent. Nous implémentons un « moteur de raisonnement ». (ne pas confondre symbolique et discret) IA symbolique oliviergeorgeon.com7/23

8 Apprentissage par enregistrement (Georgeon, 2014) Apprentissage par l’expérience Positionnement dans le cadre de l’IA Newell & Simon (1972) goals drive problem solving; (1976) Physical Symbol Systems. En confondant naivement “input” et “perception” (Crowley, 2014) Apprentissage par renforcement. Symbolic Non-symbolic Apprentissage « désincarnée » Cognition située (Clancey 1992) Réseaux de neurones. Machine learning. « Perception and action arise together, dialectically forming each other » (Clancey, 1992) A E A E oliviergeorgeon.com8/23

9 L’environnement passe des “observations” en input de l’agent. La relation monde -> observation est “statistiquement” une surjection. Nous implémentons des algorithmes qui supposent qu’un état du monde donné induit une observation donnée (bien que partielle et bruitée) Apprentissage « désincarné » oliviergeorgeon.com9/23

10 Apprentissage par enregistrement (Georgeon, 2014) Apprentissage par l’expérience Positionnement dans le cadre de l’IA Newell & Simon (1972) goals drive problem solving; (1976) Physical Symbol Systems. En confondant naivement “input” et “perception” (Crowley, 2014) Reinforcement Learning. “intrinsic motivation” (Oudeyer et al. 2007) Symbolic Non-symbolic Apprentissage « désincarnée » Cognition située (Clancey 1992) Neural networks. Machine learning. A* etc. Paradigme de validation Behavioral analysis rather than performance measure Théories Implementations Horde (Sutton et al., 2011) SMC theory (O’Regan & Noë, 2001) Phenomenology (Dreyfus, 2007) “even more Heideggarian AI” Radical Interactionism, ECA (Georgeon et al., 2013) perception-action inversion (Pfeifer & Scheier, 1994) Théorie des systèmes oliviergeorgeon.com10/23

11 Cécité au changement oliviergeorgeon.com 11/23

12 Time L’environnement passe le résultat d’une expérience initiée par l’agent. C’est contre-intuitif! Nous implémentons des algorithmes qui apprennent à “maitriser les contingences sensorimotrices” (O’Regan & Noë, 2001). Apprentissage par l’expérience oliviergeorgeon.com12/23

13 Accepter cette contre-intuitivité Nous avons l’impression que le soleil tourne autour de la terre. – Impression est trompeuse ! (Copernic, 1519) Nous avons l’impression de recevoir des données sur l’état du monde. – Impression trompeuse! (Philosophie de la connaissance depuis les lumières, au moins). – Comment transcrire cette contre-intuitivité dans les algorithmes? oliviergeorgeon.com13/23

14 Enjeux: cognition sémantique Adaptation stimumuls-response Raisonnement et langage Cognition sémantique Apprentissage par renforcement, Réseaux de neurones, machine learning classique. Systèmes à bases de règles, Ontologies, IA traditionnelle. Ancrage de la connaissance dans l’expérience, Construction de sens. Auto-programmation. oliviergeorgeon.com14/23

15 Conclusion Raisonner en termes d’interactions – Plutôt que de séparer perception et action. Raisonner en termes de comportements générés – Plutôt qu’en termes de données apprises. Garder son esprit critique – Inventer de nouvelles approches. oliviergeorgeon.com15/23

16 Inventer de nouvelles approches « Hard problem of AI » Problème formalisé Etc. oliviergeorgeon.com A E A E 16/23

17 Travaux dirigés oliviergeorgeon.com 4eme partie (suite). Salles TP6 et TP7 Groupes de 2 17/23

18 Environnement 3 modifié Se comporte comme Environnement 0 jusqu’au cycle 5, puis comme environnement 1 jusqu’au cycle 10, puis comme environnement 0. Implémentation – If (step 10) If (experiment = e1) then result = r1 If (experiment = e2) then result = r2 – Else If (experiment = e1) then result = r2 If (experiment = e2) then result = r1 – Step++ oliviergeorgeon.com18/23

19 Agent 3 dans Environnement 3 oliviergeorgeon.com 0. e1r1,-1,0 1. e1r1,-1,0 learn (e1r1e1r1),-2,1 activated (e1r1e1r1),-2,1 propose e1,-1 2. e2r2,1,0 learn (e1r1e2r2),0,1 3. e2r2,1,0 learn (e2r2e2r2),2,1 activated (e2r2e2r2),2,1 propose e2,1 4. e2r2,1,0 activated (e2r2e2r2),2,2 propose e2,2 5. e2r1,-1,0 learn (e2r2e2r1),0,1 6. e2r1,-1,0 learn (e2r1e2r1),-2,1 activated (e2r1e2r1),-2,1 propose e2,-1 7. e1r2,1,0 learn (e2r1e1r2),0,1 8. e1r2,1,0 learn (e1r2e1r2),2,1 activated (e1r2e1r2),2,1 propose e1,1 9. e1r2,1,0 activated (e1r2e1r2),2,2 propose e1,2 10. e1r1,-1,0 learn (e1r2e1r1),0,1 activated (e1r1e2r2),0,1 activated (e1r1e1r1),-2,1 propose e2,1 propose e1, e2r2,1,0 activated (e2r2e2r1),0,1 activated (e2r2e2r2),2,2 propose e2,1 12. e2r2,1,0 activated (e2r2e2r1),0,1 activated (e2r2e2r2),2,3 propose e2,2 13. e2r2,1,0 Environnement 0Environnement 1Environnement 0 19/23

20 Temps Activé i11 Propose … i11 i t-3 i t-2 i t-4 i t-1 i t = i11 i11 PRESENT FUTURPASSE Apprend AGENT itit (i t-1,i t ) Active i t-1 oliviergeorgeon.com Principe de l’Agent 3 (i11,i12) i12 e1 Choisit Execute (i11i11) 20/23

21 Environnement 4 Retourne résultat r2 uniquement après deux fois la même expérience. e1 -> r1, e1 -> r2, e1 -> r1, e1-> r1, … e1->r1, e2 - > r1, e2->r2, e2 -> r1, …, e2 -> r1, e1 -> r1, e1 -> r2, e2 -> r1, e2 -> r2, e1 -> r1, e1 -> r2, … If (experience t-2 !=experience t && experience t-1 ==experience t ) result = r2; else result = r1; oliviergeorgeon.com21/23

22 Rapport Agent 1 – Explications du code – Traces dans les environnements 0 et 1 avec différentes motivations. – Explications du comportement Agent 2 – Explications du code – Traces dans les environnements 0 à 2 avec différentes motivations. – Explications du comportement Agent 3 – Explications du code – Traces dans les environnements 0 et 4 avec différentes motivations. – Explications des comportement Conclusion – Quelle serait la prochaine étape pour faire l’agent 4 capable de s’adapter aux environnements 1 à 4? oliviergeorgeon.com22/23


Télécharger ppt "Intelligence Artificielle Développementale 1 er Avril 2014 t oliviergeorgeon.com1/23."

Présentations similaires


Annonces Google