Agents intelligents Chap. 2.

Slides:



Advertisements
Présentations similaires
Le moteur
Advertisements

Produit Gammes Nomenclatures Modules Techniques Prix de Revient Prix de Vente Modules Techniques Client Marges Mise en route Temps Unitaire Prix (Ex:
Fabrice Lauri, François Charpillet, Daniel Szer
Présentation du référentiel CAP « PROELEC »
La distance en formation: une occasion de repenser l’acte d’apprendre
Faculté des Sciences de la Santé
Karima Boudaoud, Charles McCathieNevile
Les lésions du cortex Prémoteur
Reconnaissance de la parole
Statistique et probabilité Série n° 1
Les Systèmes Multi Agents
ACTIVITES Le calcul littéral (3).
Les Prepositions.
1. 2 LE DÎNER TRADITIONNEL CHINOIS OU LIMAGE DUN MODÈLE SYSTÉMIQUE DE LAPPRENTISSAGE EN MILIEU SCOLAIRE.
PLAN DU COURS Outils de traitement des risques
Le Modèle Logique de Données
Vendredi 21 février 2014vendredi 21 février 2014vendredi 21 février 2014vendredi 21 février 2014vendredi 21 février 2014vendredi 21 février 2014vendredi.
Performances 1 Évolution : Performance. Performances 2 Évolution : Mémoire.
A abstraction b assembleur c nombre binaire d bit e cache f UC g puce h compilateur i famille dordinateurs j contrôle k chemin de données l défaut m dé
TRAVAIL sur ECRAN.
l'approche ergonomique
Systèmes Experts implémentation en Prolog
STMG Sciences et Technologies du Management et de la Gestion
1 7 Langues niveaux débutant à avancé. 2 Allemand.
Évaluer pour faire apprendre dans une approche par compétences
L ’enseignement de la construction en BEP industriel
La domotique, l’habitat et le confort.
Le portfolio électronique
Apprendre à partir des observations
Des RRA à la diagnosticabilité
IFT 615 – Intelligence artificielle Agents intelligents
Principes de la technologie orientée objets
1 Bienvenue au module 1 Principes denseignement des mathématiques.
L’évaluation des élèves en SVT
L’avancement du mémoire 19 avril 2005
IFT 615 – Intelligence artificielle Agents intelligents
BIAD Bases de l’Intelligence Artificielle Distribuée
Méthode des k plus proches voisins
Quelques Modèles de conception
Indexation 1. Concepts de base 2. Arbre B 3. Indexes secondaires.
Développement Humanisation et Patrimoine
Les communautés de pratiques
Connaissance du travail et Reconnaissance de soi
Apprendre à distance : tuteur, un rôle indispensable ?
Des indicateurs de performance pertinents et adéquats
Notre calendrier français MARS 2014
© Alain Noël, Ph.D., F.Adm.A. 1 Le concept de stratégie par Alain Noël, M.B.A.,Ph.D., F.Adm.A.
Quelle heure est-il ??. THE TIME: OCLOCK IL EST HEURE IL EST + + HEURES etc.
Stage dintroduction Programme dergothérapie 20 mars 2013 Hiver 2013.
Le portfolio d’apprentissage à l’École d’architecture
2.2 PRODUIT SCALAIRE ET CALCUL D’ANGLES
E 1 Rénovation STMG : programme dEconomie RUPTURE ET CONTINUITE Claude NAVA Inspecteur général de lEducation nationale.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
1 Modèle pédagogique d’un système d’apprentissage (SA)
1. Présentation générale du système
10 paires -. 9 séries de 3 étuis ( n° 1 à 27 ) 9 positions à jouer 5 tables Réalisé par M..Chardon.
CALENDRIER-PLAYBOY 2020.
1. Présentation générale du système
USAM BRIDGE H O W E L L -CLASSIQUE
9 paires séries de 3 étuis ( n° 1 à 27 )
Agents intelligents.  L’IA peut être envisagée de différentes manières. Les deux questions essentielles qu’ il convient de se poser sont: Vous intéressez-vous.
Quel est l’intérêt d’utiliser le diagramme de Gantt dans la démarche de projet A partir d’un exemple concret, nous allons pouvoir exploiter plusieurs parties.
1. 2 Objectifs du Référentiel Permettre aux gestionnaires Sur le plan personnel : d’autoévaluer leurs compétences professionnelles de déterminer leurs.
Etude cinématique sur l’axe R3 d’un robot fruitier
Etude cinématique du mécanisme de direction de la DAE
Intégration des TIC et démarche d’apprentissage constructiviste Par Luc Guay Université de Sherbrooke, Québec.
Réalisé par : Mr IRZIM Hédi Mr JRAD Firas
« LA PERFORMANCE DOIT ÊTRE GÉRÉE… ». 2 GÉRER / MESURER ? GÉRER LA PERFORMANCE DES PERSONNES, C’EST BEAUCOUP PLUS QUE LA MESURER. Partager.
Transcription de la présentation:

Agents intelligents Chap. 2

Plan Agents et environnements Rationalité PEAS (Performance measure, Environment, Actuators, Sensors) Types d’environnement Types d’agent

Agents Un agent est une entité quelconque qui peut percevoir son environnement via des senseurs et agir sur l’environnement via des actuateurs Agent humain: yeux, oreilles, et d’autres organes senseurs; mains, jambes, Bouche et d’autres membres comme actuateurs Agent robotique: cameras et télémètre infrarouge comme senseurs; différents moteurs comme actuateurs

Agents et environnements Une fonction agent mappe des histoire de perception à actions: [f: P*  A] Un programme agent fonctionne sur une architecture physique pour produire f agent = architecture + programme

Le monde de l’aspirateur Perçus: localisation et contenus, e.g., [A,Dirty] Actions: Left, Right, Suck, NoOp

Un agent aspirateur

Agents rationnels Un agent doit se forcer à “faire des choses justes”, basée sur ce qu’il perçoit et des actions qu’il peut effectuer. L’action juste est celle qui cause le succès de l’agent Mesure de performance: Un critère objectif de succès pour un comportement d’agent E.g., mesure de performance pour un agent aspirateur peut être le volume de saleté ramassée, le temps pris, l’électricité consommée, le bruit produit, etc.

Agents rationnels Agent rationnel: Pour chaque séquence de perceptions, un agent rationnel doit toujours choisir une action qui peut maximiser la mesure de performance, étant donné les évidences fournies par la séquence de perceptions et éventuellement des connaissances que l’agent possède.

Agents rationnels La rationalité est différente de l’omniscience (tout savoir avec des connaissances sans limite) Un agent peut exécuter une action pour modifier des perceptions futures afin d’obtenir des informations utiles (collecte des information, exploration) Un agent est autonome si son comportement est déterminé par sa propre expérience (avec la capacité d’apprendre et de s’adapter)

PEAS PEAS: Performance measure, Environment, Actuators, Sensors Doit d’abord spécifier le contexte dans lequel l’agent intelligent est développé Considérer, e.g., la tâche de développer un conducteur automatique de taxi: Mesure de performance Environnement Actuateurs Senseurs

PEAS Doit d’abord spécifier le contexte dans lequel l’agent intelligent est développé Considérer, e.g., la tâche de développer un conducteur automatique de taxi: Mesure de performance: sécurité, rapide, légal, confortable, maximiser le profit Environnement: route, autre trafic, piétons, clients Actuateurs: volant, accélérateur, frein, signal, klaxon Senseurs: Cameras, sonar, tableau de bord, GPS

PEAS Agent: Système de diagnostic médical Mesures de performance: santé de patient, minimiser les coûts, poursuite judiciaire Environnement: Patient, hôpital, personnel Actuateurs: affichage sur l’écran (questions, tests, diagnostics, traitements, références) Senseurs: clavier(entrer les symptômes, observations, réponses du patient)

PEAS Agent: robot pour ranger des pièces Mesure de performance: Pourcentage de pièces mises dans des boîtes correctes Environnement: Convoyeur de pièces, boîtes Actuateurs: bras mécanique Senseurs: Camera, senseurs des angles

PEAS Agent: Tuteur interactive d’anglais Mesures de performance: Maximiser le score de test de l’étudiant Environnement: ensemble des étudiants Actuateurs: Affichages sur l’écran (exercices, suggestions, corrections) Senseurs: clavier

Types d’environnement Complètement observable (vs. partiellement observable): Les senseurs d’un agent peuvent accéder à l’état complet de l’environnement à chaque moment. Déterministe (vs. stochastique): Le prochain état est complètement déterminé par l’état actuel et l’action exécutée par l’agent. Si l’environnement est déterministe sauf pour les actions d’autres agents, alors l’environnement est stratégique. Épisodique (vs. séquentiel): L’expérience de l’agent est divisée en “épisodes” atomiques (chaque épisode contient des perceptions de l’agent et une seule action) et le choix de l’action dans chaque épisode est indépendant des autres épisodes.

Types d’environnement Statique (vs. dynamique): L’environnement est inchangé quand l’agent réfléchit. L’environnement est semidynamique si l’environnement lui-même ne change pas avec le temps, mais le score de performance change. Discret (vs. continu): Un nombre limité de perçus et d’actions distincts et clairement définis. mono agent (vs. multiagent): Un seul agent agit sur l’environnement.

Types d’environnement Échecs avec Échecs sans Conducteur horloge horloge de taxi Complètement observable oui oui Non Déterministe Stratégique Stratégique Non Épisodique Non Non Non Statique Semi oui Non Discret oui oui Non Mono agent Non Non Non Le type d’environnement détermine largement la conception de l’agent Le monde réel est partiellement observable, stochastique, séquentiel, dynamique, continu et multiagent.

Fonctions et programmes d’agent Un agent est spécifié complètement par la fonction d’agent qui mappe la séquence de perçus aux actions Une fonction d’agent (ou une petite classe d’équivalence) est rationnelle But: trouver une façon d’implanter la fonction d’agent rationnelle de façon concise

Agent qui cherche dans une table function Table-Driven-Agent(percept) returns an action persistent: percepts, a sequence, initially empty table, a table of actions, indexed by percept sequences, initially fully specified append percept to the end of percepts action  Lookup(percepts, table) return action Inconvénients: Table énorme Prend longtemps pour construire la table Pas d’autonomie Longtemps pour apprendre les entrées de la table, même avec l’apprentissage

Types d’agent 4 types de base dans l’ordre de généralité: Agents reflex simples Agents reflex basés sur modèle Agents basé sur but Agents basé sur utilité

Agents reflex simples

Agents reflex simples function Simple-Reflex-Agent(percept) returns an action persistent: rules, a set of condition-action rules state  Interpret-Input(percept) rule  Rule-Match(state, rules) action  rule.Action return action

Agents reflex basés sur modèle

Agents reflex basés sur but

Agents basés sur utilité

Agents avec apprentissage