La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Introduction à lIntelligence Artificielle 2007 – Khaled Hadj Hamou, Samuel Bassetto.

Présentations similaires


Présentation au sujet: "Introduction à lIntelligence Artificielle 2007 – Khaled Hadj Hamou, Samuel Bassetto."— Transcription de la présentation:

1 Introduction à lIntelligence Artificielle 2007 – Khaled Hadj Hamou, Samuel Bassetto

2 LI.A. ça nest pas… Ingénieur Adjoint MATRIX I.A. Les temps modernes

3 LI.A cest plutôt… Démarche cognitive assistée par ordinateur Donner à une machine des moyens habituellement réservées à des êtres vivants: perception, raisonnement, décision, apprentissage, action open_pino.html

4 historique Antiquitié à 1954, une émergence des machines « intelligentes » 1954: congrès à Darmouth, USA, Mc Carthy, Minsky, Shannon, Newell, Simon => programmes doués dintelligence Quelques noms célèbres: –Babbage (machine à calculer, 1842) –Turing (machine universelle, 1936)... (apple) –Wiener ( cybernétique, 1943) –McCulloch & Pitt, Sutton, Barto, Haton,…

5 Des applications de lI.A. Démonstration de théorèmes Traitement Automatique du Langage Naturel Traitement Automatique de la Parole Interprétation dimages & vision Robotique Jeux Systèmes daide à la décision (SE, SbC, classification, discrimination)

6 Plan Introduction Le raisonnement Lapprentissage Quelques outils –SE –RN –DL –SMA –SàBdCas –SàBdContraintes

7 Introduction 4 processus de définition dun système intelligent: –Search : résolution de problèmes – recherche dune solution dans un espace de solutions –Pattern Matching : reconnaissance de formes –Inferencing or reasoning : raisonnement –Knowledge representation : représentation des connaissances

8 Introduction Processus de traitement symbolique Reconnaissance de formes inférence Représentation des connaissances Résolution de pbs IHM Explications Reconnaissance vocale Apprentissage Acquisition des données Reconnaissance visuelle

9 Introduction Deux approches aux développements –Réaliser un esprit I.A. symbolique, systèmes à bases de connaissances –Modéliser le vivant I.A. connexionniste Mc Culloch & Pitt Rosenblatt

10 Plan Introduction Le raisonnement Lapprentissage Quelques outils –SE –RN –DL –SMA –SàBdCas –SàBdContraintes

11 Le raisonnement La résolution de problèmes P = {Initial, Opérateurs, Buts} –Méthodes dexploration des arbres En profondeur En largeur

12 Le raisonnement Pb : larbre peut être un peu grand –1KAn pour la résolution dun problème déchec –Nécessiter dadopter des Stratégies de parcours de larbre Pb: nécessité de formaliser COMPLETEMENT le pb (temps non négligeable) Classe de problèmes formalisables et difficiles pour lhomme (ex: les lois, le diagnostique médical, automobile…)

13 Le raisonnement Ex trivial: A B CB C A ButI {O} ?

14 Le raisonnement B C A B CA B C A B C A B C A B C A B C A voie: 4 pas 2 voie: 3 pas + long si on passe passe en revue toutes les combinaisons dempilage et dépilage

15 Le raisonnement Raisonnement itératif: –À partir de I –Branche (i) –Appliquer les opérations x fois => B est atteint ? Sinon, on remonte à I et on passe à la branche (i+1) … Utilisation de connaissances « dexperts » sur larborescence méthodes heuristiques

16 Le raisonnement Représentation des connaissances: Connaissance est qualifiée (superficielle, profonde, spécifique, incertaine, précise, complète, incomplète…) Heuristique: confiance accordée à une connaissance CONFIANCE ? K ?

17 Le raisonnement Les formules logiques –Logique des propositions: une proposition syntaxiquement vraie ou fausse Ex: VIN(Bordeaux) = VRAI ; VIN(Clio)=FAUX Vin() Prédicat ; Bordeaux, Clio Argument Assertion

18 Le raisonnement Les formules logiques –Les prédicats peuvent avoirs plusieurs arguments Modèle(Couleur, Voiture) –Liens entre les prédicats Négation ¬ Et ^ Ou v –Implication => –Equivalence –Une formule bien formée permet de représenter un fragment de connaissance

19 Le raisonnement Insuffisance des formules des propositions –Représenter que toutes les voitures ont un moyen de propulsion… (on ne va pas énumérer chaque voiture) Logique des prédicats du 1 er ordre (quantification des variables) –Même opérateurs que la logique des propositions –Ajout dune quantification des variables par les opérateurs : (quelque soit) et (il existe) Ex: y Q(y) signifie Quelque soit y du domaine, Q(y) est Vrai.

20 Le raisonnement « Modus Ponens » P et P=>Q, permet de dériver Q « Modus Tollens » ¬Q et P=>Q, permet de dériver ¬P Formule de Skolem: toute formule bien posée peut être transformée en un ensemble de clauses (écriture de la formule par des disjonctions) Ex: ( x) ( ENSGI(x) => Classepreparatoires(x) v CPP(x)) ( x) ( ¬ ENSGI(x) v Classepreparatoire(x) v CPP(x)) P ¬P NIL

21 Le raisonnement Les limitations des raisonnements logiques du 1 er ordre: –Nécessité de formaliser complètement le pb. –Pas dappréciations nuancées Existances dautres logiques: –Multivaluées (Valeur de vérité > 2) –Modales (modalités dimplication (possible, peut être…)) –Floue –Non monotones (une assertion vraie à un instant, ne le sera plus à linstant suivant) –De description (description de concepts)

22 Le raisonnement Les réseaux sémantiques –Permet de décrire des concepts, faire des liens (relations entre les concepts et les individus) –Raisonner sur des réseaux sémantiques Modéliser le pb par un réseau Pb: trouver le mécanisme de mise en correspondance structurelle

23 Le raisonnement Les réseaux sémantiques

24 Le raisonnement Une règle de production: parcelle de connaissance SI prémisses ALORS conclusion (coefficient) Si les prémisses sont vrais alors, la règle sapplique et la conclusion est vrai Base des systèmes experts

25 Le raisonnement Les systèmes à base de règle Base de faits Base de règles Moteur dInférence

26 Le raisonnement Le raisonnement : chaînage avant –Guidé par les données, il envisage les règles dans le sens conditions =>conclusions –Détection des règles dont la partie prémisses est vérifiée par la base de faits –Sélection dune règle parmi les candidats (résolution de conflits choix dune branche de larbre) –Application de la règle, les prémisses disparaîssent de la base de faits et les conclusions viennent lenrichir

27 Le raisonnement Le raisonnement : chaînage arrière –Raisonnement guidé par un but, il utilise les règles dans le sens conclusions->conditions : réduction du problème 1.Détection des règles qui concluent sur le but recherché 2.Sélection de la règle à envisager 3.Application de cette règle et à considérer les prémisses comme de nouveaux sous buts à atteindres. Sils sont déjà présent dans la BF, le travail est fait, sinon, ils sont empilés dans la pile des buts

28 Plan Introduction Le raisonnement Lapprentissage Quelques outils –SE –RN –DL –SMA –SàBdCas –SàBdContraintes

29 Apprentissage Lapprentissage et la mémoire La mémoire: processus de stokage et dexploitation dune connaissance antérieurement acquise Processus de mémorisation en 4 étapes: –Information –Acquisition –Stockage –Exploitation

30 Apprentissage Les différents types de mémoires mémoire Mémoire déclarative Mémoire non déclarative Faits (sémantique) Evènements (épisodique) Aptitudes procédurales Conditionnement Apprentissage non associatif Apprentissage perceptif Savoir Quoi Savoir Comment

31 Apprentissage Les différents types de mémoires: –A chaque mémoire, son mode dapprentissage –Ex:… –Apport des neurosciences => Classification et caractérisation des mémoires Chez lhomme, lempan mnésique est de 10 E 5 signes ! (=> la mémoire visuelle nexiste pas !) Etat actuel de la science, rien ne dit quil ny a pas dautres types de mémoires

32 Apprentissage Laccès aux mémoires: –Par adresse/ contenu –Accès séquentiel/parallèle –Représentation statique/dynamique –Représentation localisée/distribuée

33 Apprentissage Lapprentissage statistique: –Classification –Discrimination –Catégorisation –Régression Différents types dapprentissage: –Supervisé –Non supervisé –Par renforcement (semi-supervisé)

34 Apprentissage La notion dagent: un agent est une entité qui perçoit son environnement à travers des capteurs et qui agit sur son environnement par des effecteurs. (capteurs et effecteurs peuvent être logiciels…) Les perceptions servent à agir mais également à apprendre Lagent apprend une correspondance entre les perceptions et les actions en évaluant et maximisant ses performances (renforcement) fournie par lenvironnement Il peut y avoir un décalage entre laction et le signal de lenvironnement

35 Apprentissage Passer de D à F en suivant les actions {Droite, Gauche, Haut, Bas}, en utilisant les perceptions {x,y,recomp} où recomp=0 si (x,y)=(xf,yf),sinon recomp=- 1, si (x,y) = mur => recomp = -10 D F

36 Apprentissage Lapprentissage par renforcement, un modèle dagent Environnement action Etat récompense Agent

37 Apprentissage Lapprentissage par renforcement : S: ensemble des états A: ensemble des actions

38 Apprentissage Lapprentissage par renforcement : Hypothèse de markov : la probabilité de passer de létat s à létat s par laction a dépend seulement de s et de a, pas des états précédents.

39 Apprentissage Lapprentissage par renforcement : Fonction objectif à maximiser, γ ds [0,1], fonction de rabais, pour tenir compte des récompenses passées et orienter le cheminement.

40 Apprentissage Lapprentissage par renforcement : - cas stationnaire

41 Apprentissage Lapprentissage par renforcement : Fonction de valeur dun état s sous une politique π, lobjectif est de trouver π qui maximise cette fonction

42 Apprentissage Lapprentissage par renforcement : Fonction de valeur dune action a, dun état s sous une politique π, lobjectif est de trouver π qui maximise cette fonction

43 Apprentissage Lapprentissage par renforcement –Conflit principal: exploration vs exploitation dun résultat (différent de lapprentissage supervisé où la récompense est immédiate) –Notations: S: ensemble fini détats A: ensemble fini dactions Π est la politique qui associé à un état, une action à réaliser, elle est probabiliste Action a effectuer quand lagent est à s Espérance des récompenses cumulées Notations:

44 Apprentissage Lapprentissage par renforcement : Equation de Bellman pour lapprentissage

45 Apprentissage Problème: quelle action a mener à un instant t ? Valeur estimée de Q*(a) à linstant t Moyenne réelle de la récompense consécutive à a

46 Apprentissage Problème: quelle action a mener à un instant t ? – Greedy response => action choisie / –Méthode excluant lexploration des actions possibles, or la somme des optimums nest pas forcément loptimum des actions

47 Apprentissage Problème: quelle action a mener à un instant t ? – ε-Greedy response => action choisie / –ε->0 : méthode greedy, ε->1 : exploration pure

48 Apprentissage Problème: quelle action a mener à un instant t ? – Greedy response => action choisie / –ε-Greedy response Valeur estimée de Q*(a) à linstant t Moyenne réelle de la récompense consécutive à a

49 Apprentissage Classification : mise en évidence des relations entre des objets et entre des objets et leurs paramètres. Discrimination : processus de classement, recherche de séparations entre des classes existantes. Notion de distances, de similarités. Objectif : produire une partition homogène de lensemble des objets

50 Plan Introduction Le raisonnement Lapprentissage Quelques outils –SE –RN –DL –SMA –SàBdCas –SàBdContraintes

51 Les outils techniques Les réseaux de neurones Du neurone biologique au neurone formel

52 Les outils techniques Les réseaux de neurones Du neurone biologique au neurone formel dendrite axone + SeuillageSommation

53 Les outils techniques Les réseaux de neurones Du neurone biologique au neurone formel e1 Ei en Si

54 Les outils techniques Les réseaux de neurones –Les connexions entre les neurones sont de tous types –La plus utilisée, la structure en couches

55 Les outils techniques Les réseaux de neurones –Pour réaliser cette analyse, il faut discriminer les populations 0, de 1, de 2,…de

56 Les outils techniques Les réseaux de neurones –Structuration des réseaux –Pondération des réseaux –Apprentissage: Supervisé Non supervisé Orienté

57 Les outils techniques Les réseaux de neurones –Apprentissage: règle de Hebb: Wij(t+1)=Wij(t)+kSiSj La modification du poids est proportionnelle aux activités pré et post synaptiques Si et Sj = activation des neurones i et j Wij = poids de la connexion entre les neurones i & j

58 Les outils techniques Les réseaux de neurones –Le perceptron : réseau à 1 couche N1 N2 N3 N4 S1,D1 S2,D2 S3,D3 S4,D4 Apprentissage supervisé, on réinjecte lerreur: Wij(t+1)=Wij(t)+k(Di-Si)ej ΔWij=k(Di-Si)ej = erreur On ne prend en compte que lerreur post synaptique e1 e7

59 Les outils techniques Les réseaux de neurones –Limite du perceptron : il ne sait faire que de la discrimination de pb linéairement séparables. N S S=1 si x1w1+x2w2-N>0 S=0 si x1w1+x2w2-N<0 x1 x2 w1 w2 S=1 S=0 x1 x2 Trouver w1 et w2 trouver léquation de lhyperplan séparant le problème !

60 Les outils techniques Les réseaux de neurones –Lidée est de décomposer la non linéarité en un succession de pb linéaires et de rajouter 1 couche ! D1: x1w1+x2w2-N=0 D2: x1w1+x2w2-N=0 x1 x2 Oui H2 H1 N x2 w1 w2 N w1 1,5 1 1 Non

61 Les outils techniques Les réseaux de neurones –Pb dans un réseau multicouches, déterminer le poids des couches intermédiaires de sorte à minimiser lerreur de sortie, cependant, on ne connaît pas lerreur ! –Solution : rétropropager lerreur à chaque niveau –Algorithme de descente du gradient

62 Les outils techniques Les réseaux de neurones Objectif : atteindre à la sortie On diminue de manière incrémentale cette fonction: On retrouve la loi dapprentissage du perceptron

63 Les outils techniques Les réseaux de neurones Objectif : propager lerreur pour modifier les poids sur la couche cachée i On fait passer lerreur post-synaptique en erreur présynaptique Il faut ensuite répartir cette erreur présynaptiques aux différentes branches

64 Les outils techniques Les réseaux de neurones Fonction de transfert = filtre sortie Entrée

65 Les outils techniques Les réseaux de neurones On positionne les neurones dans les plages dentrées tels quils réagissent à leur position Réseaux sauto-organisants: Les neurones sajoutent là où il y a le moins dactivation

66 Dautres outils techniques Les systèmes à base de cas Les systèmes à base de contraintes Les systèmes multi agents Les systèmes logiques de description Les systèmes experts

67 Des applications (1/5) Oui, il y en a! ;-) ex, sur loptimisation des opérations de ctrls vs opérations de production.

68 Une application (2/5) Influences possibles sur une machine de production CCCCCC Dérive de la machine de production Influence des opérations précédentesConception des gammes opératoires Architecture produit Dérive de la machine de métrologie Conception de la gamme de contrôle Lot produit

69 Une application (3/5) Source dinformation pour lanalyse en temps réel et prise de décision CCCCCC Lot produit FDC GMAO Qualité prod Rebus Régulation AlarmesSPC Qualité mesures MES

70 Une application (4/5) Scénario: le lot est mesuré « mauvais » Léquipement précédent est arrêté… mais est ce que cette décision est juste ? vue la quantité dinfluences possibles ? CCCCCC Lot produit

71 Une application (5/5) Pour traiter cette question, une négiciation sengage entre des agents lots – des agents équipements (qui vérifient leurs états) et qui se mettent en défaut ou pas CCCCCC Lot produit

72 Très (trop) courte bibliographie Jean-Paul Haton, Marie Christine Haton, Lintelligence Artificielle, Que sais-je ?, N°2444, PUF, 1993, ISBN Sutton & Barton, Reinforcement learning, an introduction, Cambridge, MA, 1998 Jacques Ferber, MultiAgents, vers une intelligence collective, Ed InterEditions, Collection iia, 1995

73 Lapprentissage par rétropropagation du gradian

74 Les outils techniques Les réseaux de neurones Objectif : propager lerreur pour modifier les poids notons alors

75 Les outils techniques Les réseaux de neurones Objectif : propager lerreur pour modifier les poids Sur la dernière couche:

76 Les outils techniques Les réseaux de neurones Objectif : propager lerreur pour modifier les poids sur la couche cachée i fi dépend de fj, de la couche supérieure On descend bien lerreur dune couche


Télécharger ppt "Introduction à lIntelligence Artificielle 2007 – Khaled Hadj Hamou, Samuel Bassetto."

Présentations similaires


Annonces Google