La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Techniques de lintelligence artificielle (MIF24) 6 marsOlivier Georgeon 13 marsINTELLIGENCE ARTIFICIELLE 20 marsDEVELOPPEMENTALE 27 mars 3 avrilAlain Mille.

Présentations similaires


Présentation au sujet: "Techniques de lintelligence artificielle (MIF24) 6 marsOlivier Georgeon 13 marsINTELLIGENCE ARTIFICIELLE 20 marsDEVELOPPEMENTALE 27 mars 3 avrilAlain Mille."— Transcription de la présentation:

1 Techniques de lintelligence artificielle (MIF24) 6 marsOlivier Georgeon 13 marsINTELLIGENCE ARTIFICIELLE 20 marsDEVELOPPEMENTALE 27 mars 3 avrilAlain Mille 10 avrilRAISONNEMENT A PARTIR DE CASRendu projet 17 avril 24 avrilVacances 1 mai 8 mai 15 maiSamir Akkouche 22 maiAlain Mille 29 maiSamir Akkouche 5 juinSYSTEMES MULTI AGENTSRendu projet 12 juin 19 juinExam 26 juinRendu projet Responsable de lUE: Alain MILLE Evaluation: - Projets: 70% - Exam: 30%

2 Initiation à lintelligence artificielle développementale 13 mars Temps

3 Plan du jour Démonstration – Comment augmenter la complexité? Explications – Formalisation du problème – Implémentation dune solution possible Travaux Dirigés

4 Exemple Avancer ou cogner (5) (-10) Tourner (-3) Toucher droite/ devant / gauche (- 1) Cogner: Toucher:

5 Environnement plus complexe

6 Robot e-puck

7 Augmenter la complexité de lagent Principe de ecological balance – Pfeifer (1996). Building fungus eaters: Design principles of autonomous agents Principle de sensorimotor coordination – Classification, perception, […] and memory should be viewed as sensorimotor coordination rather that as individual modules Principe développemental. – Affinage progressif des perceptions et actions – Développement céphalocaudal? Balanced Unbalance Balanced

8 Système visuel rudimentaire

9 Interactions Avancer Tourner à gauche Tourner à droite Inchangé (0) Apparition (10) Rapprochement (10) Disparition (-10) Temps Gauche Droite 3 x 4 x 4 = 48 interactions primitives

10 Comportement « diagonal »

11 Comportement tengentiel

12 Problème spatial Problème de la persistance des objets: Apprendre quil y a des objets « cibles » et des objets « murs » et que la présence dun objet mur peut expliquer quon ne voit plus lobjet cible

13 « Decision Process » Environment output t Input t Agent Un agent est un programme qui interagit avec un environnement au cours du temps. Concevoir les inputs comme une « perception » et les outputs comme une « action » est déjà un biais de modélisation ! - exemple: toucher est à la fois une action et une perception.

14 Problème général (-3) (-1) (5) (-10) Un ensemble « doutputs » possibles A : Un ensemble « dinputs » possible O: Un ensemble dinteractions possibles I = A x O (valués) : (-1) True / False (-3) Il y a des régularités séquentielles (i 11, i 12 … i 1n )(i 21, i 22 … i 2m )

15 Régularités séquentielles hiérarchiques Après :, résulte plus probablement en que en Après :, la séquence peut probablement être réalisée Après la séquence :, la séquence peut probablement être réalisée Etc…

16 Différentes échelles de temps Environnement output input Agent Auto-programmation

17 Modèle sensorimoteur Environment outputinput Agent Interaction primitive Pfeifer & Scheier (1994). From perception to action: The right direction? Dennett (2009). Darwins strange inversion of reasoning. Piaget (1937) La construction du réel chez lenfant. Considérer la perception comme un « construit cognitif » plutôt que comme un input. Perception

18 active Trajectoire développementale Active apprend interaction Temps Niveau interaction active apprend interaction Le modèle dauto-programmation interaction

19 Formalisation (-3) (-1) (5) (-10) Un ensemble I des interactions primitives possibles (valuées) : (-1) (-3) 19/45 Agent r(e t ) e t I Environnement i t I Au temps t -Lagent choisit une interaction intentionnelle i t -Lenvironnement renvoie une interaction effectuée e t -Si e t =i t alors i t est correctement effectuée

20 Exemple de « la petite boucle » Un ensemble dinteractions possibles (avec des valeurs): i 1 (5)i 3 (-3)i 5 (-1) i 7 (-1)i 9 (-1) i 2 (-10)i 4 (-3)i 6 (-1)i 8 (-1)i 10 (-1) Les interactions sont organisées en ensembles « dintéractions alternatives ». alt 1 = {i 1, i 2 } alt 2 = {i 3 } alt 3 = {i 4 } alt 4 = {i 5, i 6 } alt 5 = {i 7, i 8 } alt 6 = {i 9, i 10 } - Après i 7, i t alt 1 résulte plus probablement en i 1 quen i 2. - Après i 9, i 3, i 1, i 8, i 4, i 7, i 1 peut souvent être effectuée. - Après i 8, la séquence i 9, i 3, i 1 c peut souvent être effectuée.

21 Agent auto-programmant Interaction sérielle : i s = i 1, … i k, avec i 1, … i k I Effectuer successivement ses intéractions primitives Si la j eme intéraction primitive incorrecte: Si toutes les interactions primitives effectuée correctement: e t = i t J t Interaction sérielle interrompue au pas j : e t = i 1, … i j-1, e j J t Soit J t lensemble des Interactions sérielles connues par lagent au temps t Effectuer une interaction sérielle: Une interaction sérielle fonctionne comme un « programme senrorimoteur » appris Valeur motivationnelle r(i s ) = r(i 1 ) +, … + r(i k )

22 Agent auto-programmant Agent r(e t ) e t I Environnement i t I Environnement « connu » au temps t Mécanisme décisionnel au temps t i st J t e st J t

23 Exemple de trace

24 Parti-pris de modélisation Problème « réel » Agent r(e t ) e t I Environnement i t I Problème formalisé Agent r(s t ) o t O Environnement a t A Modèle perception-cognition-action Modèle sensorimoteur Etc. Solutions implémentées Algorithme 1 Algorithme 2 … Algorithme 3 Algorithme 4 …

25 Exercice Deux interactions possibles I = {i 1,i 2 } Environnements – Env1: e t = i t – Env2: Si i t =i 1 alors e t =i 2, si i t =i 2 alors e t = i 1 – Env3: se comporte alternativement comme env1 puis comme env2 Systèmes motivationnels : – Mot1: r(i 1 ) = 1, r(i 2 ) = -1 – Mot2: r(i 1 ) = -1, r(i 2 ) = 1 Implémenter un agent qui apprenne à effectuer les interactions positives dans tout environnement {env1,env2,env3}.

26 Implémentation Main.java – Public static void main() Agent agent = new Agent(); Environnement env = new Environnement(); Interaction i1 = new Interaction(1); Interaction i2 = new Interaction(-1); agent.addInteraction(i1); agent.addInteraction(i2); env.addInteraction(i1);env.addInteraction(i2); While() – Interaction = agent.step(prev_interaction); – prev_interaction = env.step(interaction); – System.out.println(interaction); Agent.java – Agent0: choisit toujours linteraction qui a la plus forte valeur. Environnement.java Interaction.java


Télécharger ppt "Techniques de lintelligence artificielle (MIF24) 6 marsOlivier Georgeon 13 marsINTELLIGENCE ARTIFICIELLE 20 marsDEVELOPPEMENTALE 27 mars 3 avrilAlain Mille."

Présentations similaires


Annonces Google