La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Evolution des problématiques informatique

Présentations similaires


Présentation au sujet: "Evolution des problématiques informatique"— Transcription de la présentation:

1 Evolution des problématiques informatique
Connaître le passé et le présent pour envisager l’avenir

2 Pourquoi ce cours ? Culture générale
Comprendre un passé récent et vous positionner dans une actualité changeante Prévoir l’avenir ou au moins se préparer à évoluer

3 Ce cours comment CM : présentation théoriques de concepts
TD et TP : étude de cas, lecture d’articles récents et anciens Venue d’un industriel (1er juin) pour présenter l’évolution de son métier en même temps que des outils tels que la globalisation des ressources Evaluation : 3 notes 1 exposé en binômes sur une notion – 10 minutes de présentation Fiches de synthèse + rédaction d’une nouvelle futuriste (à rendre en fin de semestre) Examen sur table : deux articles scientifiques à mettre en perspective

4 Jour Type Remarque 25/04 CM Intro + IA 27/04 IA 03/05 IHM 09/05 TD Lectures S&Vie 11/05 CM & TD Richard Hotte (Evolution Enseignement) 16/05 TD & TD Exp 3 … 7 21/05 TP Visu Vidéos 23/05 Sujet des nouvelles Début fiches de synthèses 30/05 Lectures guidées + fiches synthèses 01/06 CM & TD & TP N. Thomas 04/06 05/06

5 Définitions

6 Quelques définitions Paradigme = « vision du monde »
Kuhn définit un paradigme scientifique comme suit : un ensemble d'observations et de faits avérés ; un ensemble de questions en relation avec le sujet qui se posent et doivent être résolues ; des indications méthodologiques : comment ces questions doivent être posées) ; comment les résultats de la recherche scientifique doivent être interprétés. Un paradigme est une représentation du monde, une manière de voir les choses, un modèle cohérent de vision du monde qui repose sur une base définie (matrice disciplinaire, modèle théorique ou courant de pensée). C'est une forme de rail de la pensée dont les lois ne doivent pas être confondues avec celles d'un autre paradigme et qui, le cas échéant, peuvent aussi faire obstacle à l’introduction de nouvelles solutions mieux adaptées.

7 Quelques définitions Une problématique est une question particulière. Il s’agit de construire progressivement la réponse, en approfondissant la question initiale et chacune des étapes de la résolution.

8 Quelques définitions Innovation (Larousse en ligne)
Ensemble du processus qui se déroule depuis la naissance d'une idée jusqu'à sa matérialisation (lancement d'un produit), en passant par l'étude du marché, le développement du prototype et les premières étapes de la production. Processus d'influence qui conduit au changement social et dont l'effet consiste à rejeter les normes sociales existantes et à en proposer de nouvelles

9 Quelques mots sur l’informatique

10 Années 1950 ? Balbutiements de l’informatique
Pouvait-on prévoir son développement ? Qu’elle devienne LA science de l’information et de la communication ? Qu’elle impacte les autres sciences comme la bio ou la médecine ? Qu’elle influence l’économie mondiale ? La société ? La culture ? Alors que l’informatique en était encore à ses premiers balbutiements, personne ne pouvait prévoir la façon dont elle allait se développer ultèrieurement, devenant peu à peu LA science de l’information et de la communication. En effet, personne ne pouvait prévoir l’extraordinaire impact, aujourd’hui indiscutable, qu’elle aurait sur les autres sciences (comme la biologie et la médecine) et sur la plupart des innovations technologiques, ni la profonde influence qu’elle exercerait sur l’économie mondiale, la société et la culture.

11 Qui peut prédire l’avenir ? Voire arriver une révolution ?
Les philosophes Les historiens Les scientifiques Les sociologues Les artistes Les hommes politiques Qui pouvait reconnaitre les innovations qui allaient marcher ? la souris internet Peu de scientifiques, de philosophes, de sociologues, d’artistes ou d’hommes politiques ont cru à la révolution que l’informatique a accomplie, tout à la fois en modifiant la manière de concevoir, de réaliser et de créer, en engendrant de nouvelles activités et interactivités dans tous les domaines.

12 Et maintenant ? Où en sommes nous ?
Comment imaginez vous l’informatique de demain ? Est-ce que la révolution est finie ? En est on au balbutiement ? Peut-être somme nous encore à l’aube d’une évolution essentielle de notre discipline : le futur système informatique sera en interaction avec le monde et se fondra progressivement dans l’environnement humain pour en devenir partie intégrante.

13 Les grands paradigmes informatiques
L’architecture des ordinateurs La recherche dans les réseaux Les grilles : globalisation des ressources et des données Systèmes embarqués La cryptologie L’ubiquité et confidentialité des données La fouille de données L’intelligence artificielle Les IHM La linguistique informatique et TALN

14 L’Intelligence Artificielle (IA)

15 Introduction

16 Définition Champ de recherche Intégré à la culture générale
Théorique et applicatif Accompagne les progrès Intégré à la culture générale Terme ambigu qui ne laisse personne indifférent IA champ de recherches * largement développé au plan théorique et applicatif depuis ses débuts (il y 50 ans) * l'IA a accompagné les progrès méthodologiques et technologiques de l'informatique - l'IA fait partie de notre culture : cf livres, articles voire films s'y rapportant

17 Définition 2/2 réussir à donner à des machines des capacités leur permettant d'effectuer des taches ou des activités réputées intelligentes Mais pourtant : reclasser dans l'ordre croissant des nombres donnés en vrac, ou de résoudre des équations, ne sont évidemment pas considérés comme intelligents - L'expression Intelligence Artificielle a pu causer des malentendus et peut être interprétée de différentes manières En effet, chacun apprécie les capacités toujours plus grandes des machines pour effectuer des calculs numériques ou des opérations symboliques ou traiter des documents, mais l'idée que la machine serait un tant soit peu intelligente provoque crainte, questions et/ou fantasmes. Il s'agit de réussir à donner à des machines des capacités leur permettant d'effectuer des taches ou des activités réputées intelligentes (car jusqu'à présent uniquement réalisées par des humains). Une telle définition, reste cependant assez vague car elle ne donne ni un définition de l'intelligence, ni même ne précise la nature des capacités dont il convient de doter la machine. Ainsi des programmes capables de reclasser dans l'ordre croissant des nombres donnés en vrac, ou de résoudre des équations, ne sont évidemment pas considérés comme intelligents, ni ne font appel à des techniques d'IA, sauf éventuellement à avoir de plus des capacités explicatives.

18 But des recherches en IA
rendre la machine capable  : d’acquérir de l'information, de raisonner sur une situation statique ou dynamique de résoudre des problèmes combinatoires par des procédures générales de faire un diagnostic de proposer une décision, un plan d'action d'expliquer et de communiquer les conclusions qu'elle obtient de comprendre un texte ou un dialogue en langage naturel de résumer, d'apprendre, de découvrir. Les recherches en IA tendent à rendre la machine capable de : - D’acquérir de l'information, - de raisonner sur une situation statique ou dynamique - De résoudre des problèmes combinatoires par des procédures générales - de faire un diagnostic - de proposer une décision, un plan d'action - d'expliquer et de communiquer les conclusions qu'elle obtient - de comprendre un texte ou un dialogue en langage naturel de résumer, d'apprendre, de découvrir. Les résultats déjà obtenus montrent bien que tout ceci est sans doute réalisable à long terme. Par ailleurs l'IA entretient des échanges fructueux avec les sciences cognitives, car d'une part elle fournit de nouveaux repères, points de comparaison pour la compréhension de l'intelligence, et d'autre part elle peut s'inspirer de ce qu'on sait du fonctionnement du cerveau et de la façon dont l'homme raisonne, même si rien ne dit que l'IA doive copier l'Intell Humaine : les avions volent différemment des oiseaux. L'objectif de ce cours est de proposer une image structurée des préoccupations de la recherche en IA hier et aujourd'hui.

19 L'objectif de ce cours est de proposer une image structurée des préoccupations de la recherche en IA hier et aujourd'hui.

20 Historique

21 Avant 1956 Qui Quoi Warren McCulloch Walter Pitts
tout premiers modèles de réseaux de neurones artificiels Norbert Wiener cybernétique Claude Shannon Théorie de l’information John Von Neumann Architecture des calculateurs Alan Turing Fonctions calculables par machine La raison d'être de cette conférence est une effervescence déjà présente (débutée un peu avant 1950) autour des machines à penser ou pensantes (thinking machines) et à la comparaison du fonctionnement du cerveau humain avec les premiers ordinateurs qui venaient d'apparaitre. A la source on trouve donc les travaux : - de Warren McCulloch et Walter Pitts qui inspirés par la neurophysiologie, proposaient les tout premiers modèles de réseaux de neurones artificiels, - de Norbert Wiener sur la cybernétique (science centrée sur l'étude des mécanismes de communication et de contrôle des machines et des êtres vivants), - de Claude Shannon en théorie de l'information - de John Von Neumann sur l'architecture des calculateurs - de Alan Turing sur les fonctions calculables par machine.

22 1956 Conf de Dartmouth (New Hampshire USA) Organisée par :
John Mac Carthy et Marvin Minsky Présence remarquable de : Alan Newell et Herbert Simon conférence de Dartmouth (au Dartmouth College à Hanover, New Hampshire - USA) à l'initiative de John Mac Carthy et Marvin Minsky première utilisation généralisée du terme "Artificial Ingelligence" Participation entre autre de Alan Newell et Herbert Simon qui ont un rôle important pour la suite.

23 Années 50-70 Démonstrateur de théorème (GPS) Programmes d’échecs
Test de QI C'est aussi en 1956 que Newell et Simon proposèrent le premier programme capable de démontrer des théorèmes en logique, avant de présenter un résolveur de problème général (General Problem Solver - GPS) basé sur l'évaluation de la différence entre la situation à laquelle le résolveur est arrivé et le but qu'il a à atteindre. La recherche heuristique ordonnée, qui développe de manière systématique des algorithmes généraux de résolution de problèmes, nait à l'orée des années 70 avec les travaux de Nils Nilsson qui propose, indépendamment de la Recherche Opérationnelle, des méthodes analogues au branch and bound pour parcourir efficacement des arbres de recherche. L'IA s'intéresse dès ses débuts au développement de programmes d'échecs. Les premières discussions datent des années 50, les premiers programmes des années 60 et au fil des décennies les programmes arrivent à battre des joueurs de niveaux de plus en plus élevés. Dans les années 70 l'idée est de doter la machine de stratégies sophistiquées évoluant dynamiquement avec le jeu. Cependant, c'est avant tout la puissance calculatoire de l'ordinateur capable d'explorer de gigantesques espaces combinatoires, plus que des méthodes d'IA sophistiquées, qui viendra à bout du champion du monde en 1997 (victoire de Deep Blue sur Gary Gasparov) Programme de type test de QI, capable de trouver par analogie la quatrième figure géométrique d'une série de trois. (Thomas G. Evans 1963). Cette tâche nécessite une représentation conceptuelle des figures. Dans le même style il y a aussi l'approche de David Waltz (1975) qyu pour reconnaitre dans une image les lignes correspondant aux arêtes de solides et leurs positions relatives s'appuie sur un système à base de contraintes que l'on propage.

24 Années 70 Traitement de la langue naturelle Systèmes experts
Robots mobiles Traitement de la langue naturelle : compréhension et production automatique. Le système Eliza (syst de dialogue), de Joseph Weizenbaum était capable dès 1965 de tromper quelques temps des humains en repérant des expressions-clés dans des phrases et en reconstruisant des phrases toutes faites. Pourtant Eliza n'avait aucune représentation des phrases du dialogue et donc n'avait aucune compréhension possible. En 1971, Winograd propose le système SHRDLU qui est probablement le premier syst. a avoir de telles représentation et à les exploiter dans des dialogues sur un monde simplifié de blocs et où on s'intéressait à leur positions relatives. Les années 70 et le début des années 80 furent marqués par la réalisation de nombreux systèmes experts orientés vers le diagnostic, l'évaluation de situations et la prescription (DENDRAL en chimie, MYCIN en médecine, HERSAY-II en compréhension de la parole, PROSPECTOR en géologie), où une connaissance experte dans un domaine spécialisé est exprimée sous forme de règles "si alors ", éventuellement empreintes d'incertitude, es est appliqué à un ensemble de faits décrivant la situation sur laquelle le syst. doit prodiure des conclusions. Cette pèriode voit aussi les débuts de la recherche sur la résolution des problèmes de planification avec notamment les travux de Richard Fikes et Nils Nillson autour de STRIPS qui introduit des opérateurs de changement d'états pour représenter les actions et leurs effets. Earl Sacerdoti propose lui un système sur la nature non linéaire des plans liée aux problèmes d'interactions entre sous-buts. Les années 70 furent enfin marquées en IA par les premières expérimentations sur des robots mobiles (comme par exemple Shakey, du SRI à Menlo Park - Californie). Ces expé posaient conjointement des problèmes de vision par ordinateur, de représentation des connaissances et de planification d'activités et de trajectoires. Une dizaine d'années plus tard, Rodney Brooks au MIT, s'intéressera à des sociétés de robots réactifs à leur environnement immédiat, mais agissant sans représentation construite du monde dans lequel ils évoluent. La vision par ordinateur et l'analyse d'images initialement développées pour une part en IA est ensuite devenue une discipline largement autonome reprenant des algorithmes plus numériques que symboliques. Nous ne reviendrons donc pas dessus. Fin des années 70, c'est aussi le début des recherches sur les logiques dites non monotones qui permettent d'obtenir des conclusions plausibles, ultérieurement révisables, en présence d'informations incomplètes.

25 Qui quoi ou ? USA Europe Asie (à partir des années 1975) En France :
Cybernétique : Louis Couffignal et Paul Braffort IA : Paris (Jacques Pitrat), puis Marseille (Alain Colmerauer), … partout ! Comme le montre ce bref historique, l'IA s'est largement développée, d'abord aux USA avant d'intéresser des chercheurs en Europe, puis en Asie à partir du milieu des années 70. Pour ce qui est de la France, si on ne parle pas des pionniers de la cybernétiques (Louis Couffignal, Paul Braffort) et si l'on s'en tient à des recherches ne relevant que de l'IA, les premières équipes dans ce domaine furent créées à Paris, puis à Marseille, sous les impulsions respectives de Jacques Pitrat (role de la métaconnaissance dans les processus de résolution de problèmes et d'apprentissage) et Alain Colmerauer (père du langage PROLOG basé sur la logique et trés utilisé). Ensuite, des équipes d'IA se sont montées à Toulouse, Paris Sud, Grenoble, Nancy, Rennes, etc. Aujourd'hui presque tous les labos d'informatiques ont des chercheurs en IA.

26 Evolution des avancées en IA
À partir de 1952 Beaucoup de succès – chaque petite nouveauté est applaudie démesurément Newell et Simon General Problem Solver (GPS) Approche de la pensée humaine, découpe le but à atteindre en sous-but Pour IBM Trop de succès  croire au père noel Des « pontes » de l’IA comme Simon prédisent à la fin des années 50 que dans les 10 ans à venir un ordinateur sera champion du monde et un théorème mathématique important sera démontré par une machine. 40 ans plus tard les deux prédictions sont réalisées. 1ers syst s’appuient sur peu de connaissances et quelques manipulations syntaxiques suffisent Exemple de la retraduction dans les années 60 : « L’esprit est fort, mais la chair est faible » En « La Vodka est forte, mais la viande est avariée » Il faut une connaissance globale du sujet pour traduire même une phrase convenablement. 1ers syst s’appuient sur des petits mondes avec peu d’objets mais pour des mondes complexes, il faut une grande puissance de calcul qui n’existe pas encore  Les gouvernements coupent les finances aux recherches sur l’IA et sabordent donc le futur proche. Malgré tout des chercheurs continuent leurs travaux. Ils s’orientent vers des connaissances plus spécifiques au domaine concerné Ils vont commencer à différencier connaissances et raisonnement sur ces connaissances Qui permettent de traiter des problèmes plus complexes. Premier syst expert commerciaux en 1982 est fructueux. Configure des ordi en fonction des commandes clients.  économise 40millions de dollars à Digital Equipment Corporation  l’IA S’industrialise et les financeurs reviennent 26

27 L’IA c’est qui ? Les USA Puis l’Europe
Puis l’Asie à partir du milieu des années 70 En France, Paris, Marseille, puis Grenoble, Nancy, Rennes, et finalement dans tous les labos d’informatique Quelques noms francais : Couffignal et Braffort Alain Colmerauer Jacques Pitrat Comme le montre ce bref historique, l'IA s'est largement développée, d'abord aux USA avant d'intéresser des chercheurs en Europe, puis en Asie à partir du milieu des années 70. Pour ce qui est de la France, si on ne parle pas des pionniers de la cybernétiques (Louis Couffignal, Paul Braffort) et si l'on s'en tient à des recherches ne relevant que de l'IA, les premières équipes dans ce domaine furent créées à Paris, puis à Marseille, sous les impulsions respectives de Jacques Pitrat (role de la métaconnaissance dans les processus de résolution de problèmes et d'apprentissage) et Alain Colmerauer (père du langage PROLOG basé sur la logique et trés utilisé). Ensuite, des équipes d'IA se sont montées à Toulouse, Paris Sud, Grenoble, Nancy, Rennes, etc. Aujourd'hui presque tous les labos d'informatiques ont des chercheurs en IA.

28 Principaux Paradigmes de Recherche

29 Représentation des connaissances
Concevoir / développer des formalismes Généricité Informations factuelles, incertaines, temporelles Liens conceptuels Expressions en logiques ou graphes Il s'agit de concevoir ou de dévelpoper des formalismes susceptibles de représenter des connaissances génériques, des informations factuelles, éventuellement incertaines, des relations d'indépendance, des informations temporelles, des liens conceptuels notamment, das des cadres structurés purement ou partiellement symboliques, sous forme d'expressions en logiques, classique ou non classiques (modales par exemple), ou de graphes (comme les graphes conceptuels ou les réseaux bayésiens);

30 Recueil de connaissances
Travail avec experts (détenteurs de connaissances) Mettre au point méthodes et outils pour faciliter le recueil, l’analyse et la structuration Ontologies l'acquisition de connaissances et d'informations auprès d'experts ou d'utilisateurs. Cette problématique concerne la mise au point de méthodes et d'outils informatiques pour faciliter le recueil, l'analyse et la structuration de connaissances nécessaires à une application; on peut inasi extraire de textes spécialisés des ontologies contenant les concepts d'un domaine et leur liens sémantiques;

31 Formalisation et mécanisation de raisonnements
Réaliser des outils efficaces et théoriquement fondés pour raisonner Raisonnement déductif Raisonnement inductif Raisonnement abductif Raisonnement par analogie Lien avec les sciences cognitives la formalisation et la mécanisation de différents types de raisonnement. Les principales recherches portent sur la réalisation d'outils, efficaces et théoriquement fondés, pour raisonner déductivement en présence d'informations incomplètes ou d'incertitude, pour raisonner sur L'homme raisonne au quotidien avec des informations incomplètes, incertaines, voire incohérentes. Ces raisonnements lui permettent de rapprocher des situations et transposer des solutions, de tirer parti à la fois de savoirs généraux et d'exemples, d'appréhender de manière qualitative des informations quantitatives ou encore de réviser des états de croyance à la lumière de nouvelles informations et de mettre à jour des informations temporisées. De tels mécanismes/processus de raisonnement dépasse les capacités de représentation et d'inférence de la logique classique et de la théorie des probabilités en ce qui concerne la représentation des informations incomplètes. L'IA cherche à formaliser différentes formes de raisonnement étudiées depuis longtemps par les philosophes : - raisonnement déductif en présence d'incertitude, d'exception ou d'incohérence - raisonnement inductif (ou de généralisation, exploité en apprentissage) - raisonnement abductif (qui cherche à observer en termes de cause les raisonnements observés, et qui est à l'oeuvre pour établir des diagnostics) - raisonnement par analogie (permet à partir d'un ens de cas observés d'extrapoler une conclusion plausible pour une situation rencontrée présentant des similarités avec des cas connus ...) Il est à noter que les recherches actuelles en IA sont souvent développées en synergie avec les sciences cognitives, afin de valider l'adéquation des modèles utilisés avec la facon dont les agents appréhendent l'incertitude, ou perçoivent les relations temporelles ou spatiales, ou dont les agents interagissent entre eux, modifiant leurs croyances, ou exprimant leurs préférences ou leur intentions. le changement, le temps ou le mouvement, pour rechercher les causes plausibles d'un état de faits (partiellement) observé notamment;

32 Évaluation de situations
Evaluer des situations pour : Classer, décider ou planifier A mettre en perspective avec la théorie de la décision (économiste) mais avec des notions de préférences, de connaissances et de maitrise de complexité calculatoire l'évaluation de situations pour classer, décider, ou planifier. Les préoccupations de l'IA rejoignent là celles de la théorie de la décision, mais avec des soucis plus marqués en matière de représentation des préférences et de la connaissance, et de maîtrise de la complexité calculatoire; La théorie de la décision (décision multi-critères, décision dans l'incertain, décision de groupe) a été étudiée depuis plus de cinquante ans par des économistes et des chercheurs en recherche opérationnelle et en sciences sociales. Il s'agit pour les premiers de modéliser la prise de décision chez des décideurs rationnels, c'est à dire des agents économiques dont le comportement est en permanence en accord avec des postulats, tandis que les seconds considèrent la décision davantage dans une perspective d'optimisation où, par exemple, plusieurs critères interviennent. Enfin les sciences sociales se sont intéressées à formaliser les procédures de vote et les problèmes de partage équitable. Le but des modèles ainsi développé est de classer les décisions possibles, souvent à l'aide d'évaluations numériques (usage justifié par l'utilisation de postulat). Ces méthodes ne permettent en revanche pas d'expliquer les raisons qui font qu'une décision est meilleure qu'une autre. De plus, ces modèles s'appuient souvent sur des fonctions numériques pour évaluer les choix, et des fonctions de distribution de probabilité pour décrire l'incertitude sur le résultat des actions. Cependant les préférences des agents ne sont pas toujours connues de manière complète (et cohérente) sous la forme de fonctions d'évaluation. De même, ce qui est connu des résultats possibles des actions peut être de nature qualitative, et ne pas se mettre aisément sous la forme de probabilités précises.

33 A partir des années 90, la décision devient problématique centrale en IA
Jusque là : représentation symbolique et logique du raisonnement, Loin d’opérations numériques utilisées pour la décision Maintenant : Il est clair que l’IA peut apporter des outils pour une représentation plus souple, plus qualitative et plus consise qui offre des possibilités d’explications des décisions proposées. C'est seulement au début des années 90 que la problématique de la décision fait partie des préoccupations centrales de l'IA. Jusque là, l'IA étant tournée vers la modélisation symbolique et logique du raisonnement, elle était assez loin des opérations numériques de compromis utilisées pour la décision. Et ce même si l'un des pionniers de l'IA est un prix Nobel d'économie (H. A. Simon). Depuis plusieurs années maintenant, il est clair que l'IA peut apporter des outils pour une représentation plus souple, plus concise et qualitative de l'information, des préférences et des buts poursuivis, et propose des formulations qui se prêtent ensuite plus facilement à des possibilités d'explications des décisions proposées. De telles approches sont utiles pour guider un usager dans ses choix en lui proposant des solutions répondant à ses préférences, qu'il peut faire évoluer si nécessaire. Un systèmes d'aide à la décision peut aussi s'appuyer sur les résultats connus de décisions prises antérieurement dans des situations similaires à celle où une décision doit être proposée: cette facon d'envisager la décision est très proche du raisonnement à partir de cas développé en IA.

34 La planification un cas particulier de décision
Déterminer un enchainement d’actions qui permette d’atteindre un but à partir d’une situation donnée Problème : on cherche des actions élémentaires susceptibles de permettre d’atteindre un sous but ou but partiel, mais il se peut qu’une sous suite d’actions menant à la satisfaction partielle du but recherché peut ne pas constituer un morceau d’une solution. Par ailleurs, la planification est un problème de décision étudié depuis une trentaine d'années en IA. Il s'agit de déterminer un enchainement d'actions qui permette d'atteindre un but à partir d'une situation donnée. La planification d'opérations élémentaires pour un (ensemble de) robot en vue de réaliser une tâche plus globale est l'exemple classique en IA. Une des difficultés ici est qu'une sous-suite d'actions menant à la satisfaction partielle du but recherché peut ne pas constituer un morceau d'une solution permettant de réaliser le but complètement. Depuis le début des années 90, l'utilisation des probabilités ou d'autres modèles de représentation, ont permis d'étendre cette problématique à des environnements incertains. En particulier, les processus markoviens de décision en environnement partiellement observé, prennent en compte des fonctions de cout et la possibilité d'inclure des actions informatives épistémiques (qui renseignent sur l'état du monde) à chaque étape décisionnelle. La robotique cognitive inclut explicitement une référence à la connaissance des agents pour des environnements partiellement observables, les décisions à chaque pas dépendant non de l'état du monde mais de la connaissance de l'agent sur cet état.

35 Systèmes Multi agents Prise de décision par un groupe d’individus
= décision centralisée (!= décision collective où il s’agit d’une décision distribuée.) = un groupe d’agents doit parvenir à une décision commune - Problème de recherche de compromis, de solution équitable Les situations précédentes ne concernaient qu'un agent isolé (face à un environnement éventuellement incertain). La recherche en IA se préoccupe également de la prise de décision par un groupe d'individus. Il faut noter qu'il s'agit de décision centralisée (par opposition à l'IA collective où il s'agit de décision distribuée): un groupe d'agents, ayant chacun ses préférences propres, doit parvenir à une décision commune. Le critère de qualité de cette décision commune dépend du type d'application considéré: ainsi, pour des problèmes de vote ou plus généralement de recherche de compromis, il est important d'obtenir une solution équitable; alors que pour des problèmes dits d'enchères combinatoires (de plus en plus utilisées en commerce électronique), il s'agit de maximiser le gain total d'un ensemble de vendeurs (centralisés en un commissaire priseur électronique), en déterminant une attribution optimale de biens aux agents (acheteurs), sachant que chaque agent a au préalable exprimé la somme d'argent qu'il est prêt à payer pour chaque combinaisons possible de biens. Le paradigme des systèmes multi-agents, relativement ancien en IA, connait des développements considérables, que cela soit au niveau de la simulation de l'activité de société d'agents (souvent en synergie avec l'étude des sociétés d'insectes sociaux), ou de la modélisation de processus coopératifs, de négociation, d'argumentation, de décision de groupe équitable, de dialogique (par exemple pour l'ens. assisté par ordinateur). Ces questions sont importantes pour les applications au commerce électronique, à la recherche d'information sur la toile, en particulier.

36 Apprentissage Artificiel
But : construire automatiquement des modèles à partir d’exemples Méthodes de regroupement d’exemples Apprentissage supervisé Apprentissage par contrainte Technologies possibles : arbres de régression, machines à vecteurs supports, réseaux bayésiens, réseaux de neurones, approches neuro-floues,  optimisation de la performance arbres de décision, programmation logique inductive, ou méthodes basées sur les ensembles approximatifs  souci de lisibilité de ce qui est appris Enfin, l'apprentissage artificiel a pour but de construire automatiquement des modèles (notamment des règles) à partir de bases de données, d'exemples. A coté des méthodes de regroupement d'exemples semblables en clusters (apprentissage non supervisé), l'apprentissage supervisé est un domaine ancien de l'IA qui a connu de grandes avancées depuis vingt-cinq ans, tant au plan conceptuel qu'algorithmique. Selon la nature des exemples, numérique ou symbolique, on privilégie des approches de type optimisation tournées vers la performance, ou bien on voit les exemples comme des contraintes (comme c'est le cas en apprentissage symbolique dans cadre formel de l'espace des versions) avec un souci plus grand de lisibilité de ce qui est appris. Rentrent dans la première catégorie, l'apprentissage par arbres de régression, par machines à vecteurs supports, par réseaux bayésiens, par réseaux de neurones, par approches neuro-floues, tandis que les arbres de décision, la programmation logique inductive, ou les méthodes basées sur les ensembles approximatifs relèvent de la seconde approche.

37 Intelligence (artificielle) collective
Coopérations d’agents Définition de protocoles d’interactions Définition de modèles d’organisation Etude de l’émergence de fonctions collectives à partir de comportements élémentaires (le cas des fourmis) l'intelligence artificielle collective. De nombreuses tâches nécessitent la coopération d'agents humains ou artificiels. Il est alors question de définir des protocoles d'interaction entre agents, des modèles d'organisation adéquats à la réalisation d'une tâche collective, ou encore d'étudier l'émergence de fonctions collectives à partir de comportements élémentaires.

38 L’IA et les sciences du traitement de l’information

39 Les STIC Les Sciences du traitement de l'information et de la communication = science du calcul numérique ou symbolique, sur ordinateur Bien au-delà de ca : tous les problèmes posés par la manipulation d'un matériau dont la spécificité et l'importance se sont affirmées depuis un demi- siècle : l'information. L'information existe sous différentes formes et requiert de nombreux traitements pour être utilisable par l’homme Les Sciences du traitement de l'information et de la communication (STIC) sont quelquefois restreintes à une informatique comprise comme une science du calcul numérique ou symbolique, sur ordinateur (tant dans ses aspects algorithmiques que logiciels ou matériels). Les STIC, qui certes bénéficient de la puissance calculatoire des machines informatiques, concernent en fait tous les problèmes posés par la manipulation d'un matériau dont la spécificité et l'importance se sont affirmées depuis un demi-siècle : l'information. L'information existe sous différentes formes (tableaux de données, textes, images, sons, etc.) et requiert de nombreux traitements de diverses sortes pour être utilisée par l'homme à différentes fins. Ainsi, très schématiquement, on peut distinguer trois grandes familles de traitements sur l'information : 1. ceux ayant pour but de l'élaborer, de l'interpréter, c'est à dire de la mettre dans un certain cadre de représentation afin de pouvoir la communiquer, soit à un usager soit à un nouveau module de traitement; il s'agit alors de la "débruiter", de la lisser, mais aussi de la classifier, structurer, résumer l'information, de la présenter sous forme synthétique; 2. ceux ayant pour fonction de la stocker, de la retrouver et de l'expliciter; compressions de données, techniques d'inférences pour interroger l'information présente et conclure à de nouvelles conclusions; cela pose aussi des problèmes de sécurité et d'anonymisation dans certain cas. 3. les traitements visant à exploiter l'information dans des environnements statiques ou dynamiques, en général dans une perspective de décision et d'action

40 3 grandes familles de traitements de l’information
ceux ayant pour but de l'élaborer, de l'interpréter; ceux ayant pour fonction de la stocker, de la retrouver et de l'expliciter; les traitements visant à exploiter l'information dans des environnements statiques ou dynamiques. Ainsi, très schématiquement, on peut distinguer trois grandes familles de traitements sur l'information : 1. ceux ayant pour but de l'élaborer, de l'interpréter, c'est à dire de la mettre dans un certain cadre de représentation afin de pouvoir la communiquer, soit à un usager soit à un nouveau module de traitement; il s'agit alors de la "débruiter", de la lisser, mais aussi de la classifier, structurer, résumer l'information, de la présenter sous forme synthétique; 2. ceux ayant pour fonction de la stocker, de la retrouver et de l'expliciter; compressions de données, techniques d'inférences pour interroger l'information présente et conclure à de nouvelles conclusions; cela pose aussi des problèmes de sécurité et d'anonymisation dans certain cas. 3. les traitements visant à exploiter l'information dans des environnements statiques ou dynamiques, en général dans une perspective de décision et d'action

41 Spécialités de l’IA qui en découlent
Problématiques spécifiques : le traitement du signal, l'analyse de données, la reconnaissance des formes, l'interaction homme-machine, les bases de données, la recherche d'information, l'IA, l'automatique, la recherche opérationnelle Problématiques transversales (selon le type d’info traitée) le traitement d'images et la vision par ordinateur, le traitement du langage naturel, la linguistique computationnelle qui font pour partie appel à des techniques d'IA Problématiques de synthèses : l'indexation multimédia, la robotique Ces préoccupations ont données naissance depuis le début de l'IA à de nombreuses spécialités, qui toutes participent à la problématique des STIC : le traitement du signal, l'analyse de données, la reconnaissance des formes, l'interaction homme-machine, les bases de données, la recherche d'information, l'IA, l'automatique, la recherche opérationnelle. A coté de ces thématiques spécifiques il existe aussi des problématiques de recherche transversales centrées sur le type d'information traitée : le traitement d'images et la vision par ordinateur, le traitement du langage naturel, la linguistique computationnelle qui font pour partie appel à des techniques d'IA. La problématique en plein essor de l'indexation multimédia offre un autre exemple de sujet de recherche où sont convoqués des outils provenant de différents secteurs des STIC: bases de données, IA et reconnaissance des formes notamment. L'IA opère au croisement des trois familles de traitements citées plus haut, en ce sens elle se situe au coeur des STIC. La robotique en est un bon exemple.

42 Exemple d’application

43 Démonstrations Animation d’agents : Steering behaviors
+ le roi lion Vie artificielle + algo génétiques : Animats – JA Meyer Robot intégrant des algorithmes d'adaptation et d'apprentissage (vidéo) Apprentissage devine à quoi on pense


Télécharger ppt "Evolution des problématiques informatique"

Présentations similaires


Annonces Google