IFT 703 Informatique cognitive Introduction André Mayers Automne 2010
Plan Description du plan de cours Introduction à l’informatique cognitive Intelligence artificielle Psychologie cognitive Neuropsychologie Introduction aux architectures cognitives Historique Introduction Intelligence artificielle Sciences cognitives Psychologie cognitive
Sciences cognitives Les sciences cognitives ont pour objet l’étude des systèmes intelligents dans leurs aspects représentationnels et computationnels. Les systèmes intelligents sont des systèmes complexes de traitement de l'information capable d'acquérir, conserver, utiliser et transmettre des connaissances. Les sciences cognitives s’intéressent à la théorie abstraite des processus intelligents, à l’intelligence des machines artificielles, à l’étude de l’intelligence humaine et animale. Les sciences cognitives étudient les phénomènes suivant la perception, l’attention, le langage, les mécanismes de résolution de problèmes (conception, planification…)
Les disciplines des sciences cognitives Philosophie Linguistique Anthropologie Neurosciences Informatique Psychologie
Informatique cognitive Discipline des sciences cognitives But de l’informatique cognitive : Concevoir des modèles computationnels des processus cognitifs Architecture cognitive Modèle complet de la cognition humaine Intégration de modèle computationnel de l’usager dans les systèmes homme-machine Systèmes tutoriels intelligents Habitats intelligents Contrôle de systèmes complexes Centrales nucléaires ou électriques
Intelligence artificielle Résoudre des problèmes pour lequel il n’existe pas d’algorithmes dédiés connus Fouille dans un espace d’état Symbolique Forage de donnée, réseau de neurones, algorithme génétique Deux approches Intelligence générale Simulation de l’intelligence naturelle ou humaine
Psychologie Le behaviorisme considère les processus cognitifs comme une boîte noire et essaie de prédire le comportement (sortie de la boîte noire) en fonction des stimuli (entrée de la boîte noire). La psychologie cognitive essaie de prédire le comportement en fonction des stimuli et d’hypothèses sur la boîte noire et ses processus L’individu a un état interne qui influence son comportement La méthode scientifique aide à choisir l’hypothèse la plus plausible Les liens entre un concept théorique et les expériences le mettant en valeur peuvent être complexes (entre une particule atomique et sa trace sur une photographie). Les processus cognitifs doivent être plausibles compte tenu des connaissances que nous avons sur le cerveau Le behaviorisme postule qu’uniquement ce qui est observable est scientifique. Le behaviorisme ne nie pas les processus mentaux mais estime qu’il est impossible de les introduire comme causes des comportements observables. Les lois behavioristes s’attachent à relier les stimuli avec les réponses.
Psychologie cognitive Étude de la pensée et de ses mécanismes pris dans un sens large. la perception la résolution de problèmes la mémoire les fonctions exécutives attention planification prise de décision … 4 approches Traitement de l’information utilisation de symboles et d’abstraction Basé sur la biologie voir aussi neuropsychologie Basé sur les processus de l’évolution Une combinaison des trois précédentes
Approche traitement de l’information 10/07/08 Approche traitement de l’information 9 Modèle modale Atkinson & Shiffrin (1968) Information encodée sous sa forme perceptuelle dans la mémoire sensorielle Information est transmise dans la mémoire à court terme (MCT) Capacité limitée et dégradation rapide de l’information Information est ensuite transmise avec une certaine probalité dans la mémoire à long teme (MLT) Capacité infinie et dégradation lente
Approche traitement de l’information Modèle de la mémoire de travail Baddeley et Hitch’s (1974) Module exécutif central : sélectionne et manipule le contenu des modules esclaves Boucle phonologique : tampon à court terme : encode l’information sous sa forme verbale boucle articulatoire : processus de rafraichissement de l’information Tablette Visuo-spatiale Visuo-spatial sketchpad: encode sous l’information sous sa forme spatiale ou visuelle
Neuropsychologie La neuropsychologie est une discipline scientifique et clinique qui étudie les fonctions mentales supérieures dans leurs rapports avec les structures cérébrales au moyen d'observations menées auprès de patients présentant des lésions cérébrales accidentelles, congénitales ou chirurgicales. Son objectif est la compréhension du système cognitif normal et anormal par le biais de l'étude de ses dysfonctionnements.
Architecture cognitive
Architecture cognitive Architecture informatique ensemble de structures fixes permettant à un système d’être programmé Architecture cognitive ensemble de structure fixe qui explique l’ensemble des processus cognitifs indépendance de la tâche modéliser une théorie générale de la cognition, intègre plusieurs théories spécifiques perception, attention, mémoire … une explicitation de la boîte noire
Architecture cognitive computationnelle Une architecture cognitivive pouvant servir de devis pour concevoir un programme Un modèle informatique d’une architecture cognitive de simuler avec un ordinateur des comportements complexes de générer des hypothèses qui pourront être validés expérimentalement
Caractéristiques des architectures cognitives Degré de dépendance par rapport à un domaine. généralisation possible Degré de spécification sa distance d’un modèle computationnel Étendue des fonctions cognitives modéliser explicitement attention, mémoire, processus subsymboliques Adéquation aux résultats expérimentaux
Architecture cognitive : définition “The fixed (or slowly varying) structure that forms the framework for the immediate processes of cognitive performance and learning” Newell, 1990, p. 111 “The functional architecture includes the basic operations provided by the biological substrate, say, for storing and retrieving symbols, comparing them, treating them differently” Pylyshyn, 1984, p. 30 “ A specification of the structure of the brain at a level of abstraction that explains how it achieves the function of the mind” Anderson, 2007, p. 7 La notion d’architecture cognitive permet de ne pas s’enfarger dans la complexité du cerveau humain (1012 cellules) en faisant abstraction du but des structures du cerveau dans la multiplicité des explications du comportement humain en faisant abstraction du cerveau qui doit les produire There are two common threads that underlie these examples of architecture. The first is the idea that for any level of a complex system, we can make a distinction between the fixed set of mechanisms and structures of the architecture itself, and the content those architectural mechanisms and structures process. The second common thread running through the examples is that any particular architecture reflects assumptions on the part of the designer about characteristics of the content the architecture will process. In general, then, the idea of architecture is useful because it allows us to factor out some common aspects of the wide array of behaviors that characterize the content. A particular architecture, that is, a particular fixed set of mechanisms and structures, stands as a theory of what is common among much of the behavior at the level above it. Using this idea, we can define a cognitive architecture as a theory of the fixed mechanisms and structures that underlie human cognition. Factoring out what is common across cognitive behaviors, across the phenomena explained by microtheories, seems to us to be a significant step toward producing a unified theory of cognition. … Soar is one theory of what is common to the wide array of behaviors we think of as intelligent. So, for us at least, working on a unified theory of cognition means trying to find a set of computationally-realizable mechanisms and structures that can answer all the questions we might want to ask about cognitive behavior. A key piece of the puzzle, we believe, lies in the idea of architecture. In fact, most of our everyday behavior seems to require some degree of thinking to mediate our perceptions and actions. Because every architecture is a theory about what is common to the content it processes, Soar is a theory of what cognitive behaviors have in common.
Les niveaux d’une architecture cognitive (Newell) Tout dans la nature peut être décrit à différents niveaux La matière peut être décrit au niveau subatomique, atomique, moléculaire, nano, … il en est de même pour les architectures cognitives Un niveau dans une architecture consiste en un medium qui est manipulé des composantes qui permet les opérations de base des lois de composition qui permet d’assembler les composantes du système formé à l’aide des lois de composition des lois comportementales qui décrit le comportement du système les lois comportementales découlent du comportement de ses composantes et de la façon dont elles sont assemblées. Knowledge Level Symbol Level Agent Total symbol system Actions Symbol systems with transducers Knowledge Symbol structure plus its processes Goals (Knowledge of goals) Principle of Rationality Total problem solving process Figure 4-2. Reduction of the Knowledge Level to the Symbol Level A level consists of a medium that is to be processed, components that provide primitive processing, laws of composition that permit components to be assembled into systems, and laws of behavior that determine how system behavior depends on the component behavior and the structure of the system.
Les niveaux de traitement Le niveau du milieu est l’architecture qui manipule le contenu du niveau supérieur et est en même temps le contenu manipulé par le niveau du bas. Une architecture offre des outils pour manipuler le contenu, p. ex. un traitement de texte offre des outils pour manipuler du texte. Just as we talk about how a particular hardware architecture processes software applications, we can also talk about how a particular software application processes a set of high-level tasks (see Figure 1). That is, we can think of a software application as also having an architecture. If we want to create documents or organize spreadsheets (two common sets of high-level tasks), we can choose among word-processing or spreadsheet applications. As in the hardware example, there are many possible application programs, with different programs designed to be optimal under different assumptions about the tasks. Which particular application architecture we choose dictates which subtasks will be easy and efficient. If, for example, our set of high level tasks is writing the chapters in a calculus book, we are likely to choose a word-processing program that has functions and commands for formatting mathematical equations. If we are simply interested in writing letters, those functions are not important. gentle introduction to soar 2006
Description d’un niveau Un niveau peut être décrit de deux façons autonome Un programmeur n’a pas besoin de connaître le niveau de la logique des circuits Un concepteur de circuits logiques n’a pas besoin de connaître les lois régissant le magnétisme ou le courant électrique par réduction au niveau précédent On explique les circuits logiques en terme des circuits électriques
Description autonome du niveau connaissance d’un agent La principale caractéristique du niveau connaissance est que son comportement est uniquement déterminé par ses connaissances et non par sa structure ou ses composantes. Un agent au sens de l’intelligence artificielle possède des connaissances et des buts des composantes pour percevoir et agir dans son environnement Le principe de rationalité Si un agent a la connaissance qu’une de ses actions lui permettra d’atteindre un de ses buts alors il choisit cette action Que pensez d’un thermostat ? The knowledge level is a distinct computer systems level that lies immediately above the symbol level. The medium processed at the knowledge level is knowledge. An agent - a system at the knowledge level - consists of a physical body that can interact with an environment. knowledge. and a set of goals. The law of behavior is the Principle of Rationality: "If an agent has knowledge that one of its actions will lead to one of its goals. then the agent will select that action." (Newell. 1981. p. 8) Once knowledge is acquired. it is available for all future goals. There are no capacity limitations on the amount of knowledge that can be available or on the agent's ability to bring it to bear in the selection of actions that achieve its goals. An essential feature of the knowledge level 's that the agent's behavior is determined by the content of its knowledge, not by any aspects of its internal structure. It abstracts away from the processing and representation of the lower levels. This lack of significant internal structure implies that there are no laws of composition at the knowledge level. === Knowledge, in the principle of rationality, is defined entirely in terms of the environment of the agent, for it is the environment that is the object of the agent’s goals, and whose features therefore bear on the way actions can attain goals. This is true even if the agent’s goals have to do with the agent itself as a physical system. Therefore, the solutions are ways to say things about the environment, not ways to say things about reasoning, internal information processing states, and the like.*
La description du niveau connaissance avec le niveau sous-jacent Attribut \ Niveau Connaissance Symbolique Médium Structure symbolique, Attributs subsymboliques Composantes N. A. Sous-systèmes symboliques, de perception et moteur Lois de composition Échange de structures symboliques entre les sous-systèmes Système Agent intelligent Système symbolique complet (architecture cognitive) Lois comportementales Principe de rationalité Processus symbolique (Modèle mathématique des traitements de symboles)
Les niveaux d’architecture pour un agent intelligent informatisé Connaissance le médium est constitué des connaissances Programme le médium sont les symboles Registre, le médium est le vecteur de bits les actions sont les transferts entre les registres ou la mémoire Circuit logique le medium est le bit Circuit électrique le médium est le courant électrique Matériel le médium est l’électron avec toutes ses propriétés Knowledge Level Symbol Level Agent Total symbol system Actions Symbol systems with transducers Knowledge Symbol structure plus its processes Goals (Knowledge of goals) Principle of Rationality Total problem solving process Médium Composantes Lois de composition Système Lois comportementale
Le niveau intelligence d’une architecture cognitive Comme au niveau intelligence, les composantes et la structure ne sont pas importantes alors une description autonome du niveau intelligence d’une architecture cognitive est la description de la « logique » de ses comportements en fonction de son environnement. Pas très réjouissant comme constatation pour des informaticiens La solution est de le décrire en le réduisant au niveau précédent, i.e. au niveau d’un système de symbole ou programme. Tous les programmes ou systèmes de symboles ne sont pas des agents intelligents, ils doivent respecter le principe de rationalité. Il ne faut pas non plus s’enfarger dans les détails du programme et l’idéal est de créer une abstraction au niveau symbolique ainsi que le modèle mathématique décrivant les manipulations symboliques. C’est à ce niveau d’abstraction que nous décrirons les architectures cognitives comme ACT-R et SOAR Nous décrirons les modules de ACT-R et l’espace problème de SOAR C’est aussi à ce niveau que vous devrez décrire les architectures dans vos travaux et présentations
La description du niveau connaissance avec le niveau sous-jacent (bis) Attribut \ Niveau Connaissance Symbolique Médium Structure symbolique, Attributs subsymboliques Composantes N. A. Sous-systèmes symboliques, de perception et moteur Lois de composition Échange de structures symboliques entre les sous-systèmes Système Agent intelligent Système symbolique complet (architecture cognitive) Lois comportementales Principe de rationalité Processus symbolique (Modèle mathématique des traitements de symboles)
Comment la cognition est-elle possible dans l’univers physique ? Comment expliquer les fonctions mentales à partir du cerveau ? Comment expliquer une maison à un extraterrestre ? C’est certain qu’il faut décrire l’architecture d’une maison, mais est-ce suffisant ? Il faut aussi expliquer pourquoi l’architecture est ce qu’elle est pour répondre aux besoins humains Ce sont les contraintes (humain, économique… ) du marché qui font que les maisons ont la forme qu’elles ont actuellement. Ce sont les contraintes de l’évolution (survie, biologie) qui font que nous avons notre cerveau actuel et ses fonctions cognitions cognitives Une architecture cognitive permet d’expliquer la fonction cognitive à partir du cerveau. ce n’est pas toujours le cas
3 alternatives pour expliquer la cognition Une architecture qui ne tient pas compte du cerveau Le paradigme classique du traitement de l’information Une architecture qui ne tient pas compte de la fonction cognitive Le paradigme du connexionnisme sans l’esprit Un paradigme qui fait abstraction de l’architecture L’analyse rationnelle de la fonction cognitive i.e. la fonction cognitive est le résultat d’une adaptation à l’environnement.
Alternative 1 pour expliquer la cognition Le traitement de l’information classique le paradigme “information processing” classique de la psychologie présente des théories validées par des expérimentations expliquant la fonction cognitive voir la théorie de Sternberg pour expliquer si un nombre fait partie d’une liste dans la WM sa théorie ne tenait pas compte de la vitesse à laquelle un neurone peut être excitée ignorer le cerveau, c’est comme concevoir une maison sans tenir compte des contraintes des matériaux pour la construire
Alternative I1 pour expliquer la cognition Le connexionnisme sans l’esprit Une description exacte et fonctionnelle du cerveau C’est comme expliquer une maison à un extraterrestre sans tenir compte des fonctions de ses parties pour un être humain. La cognition est un effet de bord du cerveau Construire une maison avec des briques, du bois… sans contraintes et constater à la fin que l’être humain puisse y vivre C’est comme expliquer le fonctionnement d’un ordinateur sans expliquer l’intention en arrière de chaque structure C’est comme expliquer la physiologie en terme d’interactions entre les cellules du corps en faisant abstraction des fonctionnalités des organes. Rumelhart and McClelland (1986) ont conçu un réseau de neurones qui apprenait les participes passés comme un enfant en faisant par exemple les erreurs de surgénéralisation classique du début de l’apprentissage (runned au lieu de ran). Ignorer l’esprit, c’est considéré que ce réseau de neurones a été premièrement construit et constater ensuite qu’il fait les participes passés Rumelhart and McClelland (1986) not only challenged the conventional wisdom but also implemented a system that approximated the empirical phenomena by simulating a neural network, illustrated in figure 1.3, that simple neural learning system was used to learn the mapping between the feature representation of the root and the feature representation of the past tense. We have, we believe, provided a distinct alternative to the view that children learn the rules or English past-tense formation in any explicit sense. We have shown that a reasonable account of the acquisition of past tense can be provided without recourse to he notion or a “rule” as anything more than a description of the langage. We have shown that, for this case, there is no induction problem”,. The child need not figure out what the rules are, nor even there are rules.
Alternative III pour expliquer la cognition L’analyse rationnelle de la fonction cognitive en faisant abstraction de l’architecture. Une des contraintes imposées à la façon dont le cerveau permet la cognition est que les deux sont le résultat d’une évolution dans un environnement réel Le raccourci est de se concentrer sur l’adaptation de la cognition à l’environnement en faisant abstraction de l’architecture qui doit supporter les fonctions cognitives C’est un courant très actif actuellement et toutes les variantes sont basées sur l’approche bayésienne Il ne s’agit pas d’expliquer comment les calculs bayésiens sont exécutés mais tout simplement, sachant qu’il y a adaptation l’environnement, d’élaborer une théorie prédisant le comportement cognitif en conséquence. Un autre raccourci part de l’oobservation qu’une des contraintes du comment le cerveau permet la cognition est que les deux doivent survivre dans l’environnement ; le raccourci est donc de se concentrer uniquement sur l’adaptation sans tenir compte qu’il faut une architecture. We looked at how various statistics about the appearance of information in the environment predicted whether we would need know the information in the future. … someone on a given day varies as a function of how long it has been since I last received an email from that person. For example, if I received an email message from someone yesterday, the probability is about 30% that I will receive one from that person today. However, if it has been 100 days It reflects the demand that the world makes on our memory. For instance, when I receive an email message, it is a demand on my memory to remember the person who sent it. If the brain chose which memories to make most available, it would make sense to choose the memories that are most likely to be needed. page 17 Thus, a memory for something diminishes in proportion of how likely people are to need that memory. We showed that this was true not only for retention functions but also for practice functions, for the interaction between practice and retention, for spacing effects, for associative priming effects, and so on. Human memory turned out to mirror the statistical relationship in the environment in every case. As described in chapter 3, we discovered a relationship in human memory between retention and priming in the environment that had never been tested. Thus, the argument goes, one does not need a description of how memory works, which is what an architecture gives; rather, one just needs to focus on how memory solves the problem it encounters. causal inference (Griffiths and Tenenl, 2005), language (Pickering and Crocker, 1996), decision making lBogacz et al., 2006), and reasoning (Oaksford and Chater, 1994). page 18 While I was an advocate of this approach, I started to realize (e.g., Anerson, 1991 a) that it would never answer the question of how the human mnd can occur in the physical universe. This is because the human mind not just the sum of core competences such as memory, or categorization, or reasoning. It is about how all these pieces and other pieces work together to produce cognition. All the pieces might be adapted to the regularities in the world, but understanding their individual adaptations does not address how they are put together. The universal nature of these features raises the question of what enables the human mind in particular.14 Humans share much with other creatures (primates in particular), so these analyses have much to contribute to understanding humans, but something is missing if we stop with them. There is a great cognitive gulf between humans and other species, and we need to understand the nature of that gulf. What distnguishes humans is their ability to bring the pieces together, and this unique ability is just what adaptive analyses do not address, and just what a cognitive architecture is about. As Newell said, you have to know how he gears clank, and how the pistons go, and all the rest of that detail. Voir C:\Users\amayers\Documents\Articles\Taatgen Niels A\Constraints in cognitive architectures.txt C:\Users\amayers\Documents\Articles\Taatgen Niels A Taatgen, N. A., & Anderson, J. R. (in press). Constraints in cognitive architectures. In R. Sun (ed.), Handbook of Cognitive Modeling. New York: Cambridge University Press.
L’approche bayésienne de la cognition L’évolution fait en sorte que nos capacités sont fonction de la probabilité qu’un évènement survienne a priori Pr(pluie), Pr(cumulonimbus)… Nous sommes en mesure de connaître les situations dans lesquelles certains événements se produisent Pr(cumulonimbus | pluie) Connaissant les probabilités conditionnelles et les probabilité a priori, nous pouvons connaître la probabilité a posteriori que nous sommes dans tel situation étant donné qu’un tel événement est survenu Pr(pluie | cumulonimbus) = Pr(cumulonimbus| pluie) * Pr(pluie) Pr(cumulonimbus). Basé sur l’information précédente, i.e. les probabilités a posteriori des situations actuelles, il s’agit de choisir l’action qui maximise l’atteinte des besoins de l’individu se mettre à l’abri si la situation la plus probable est qu’il pleuve Reprendre les exemples d’adaptation de la fonction cognitive à l’environnement Situation Évènement P(E) P(S | E) = P(E S) / P(E) P(E | S) = P(E S) / P(S)
Architecture cognitive Architecture informatique ensemble de structures fixes permettant à un système d’être programmé Architecture cognitive ensemble de structure fixe qui explique l’ensemble des processus cognitifs indépendance de la tâche modéliser une théorie générale de la cognition, intègre plusieurs théories spécifiques perception, attention, mémoire … une explicitation de la boîte noire
Architecture cognitive computationnelle Une architecture cognitivive pouvant servir de devis pour concevoir un programme Un modèle informatique d’une architecture cognitive de simuler avec un ordinateur des comportements complexes de générer des hypothèses qui pourront être validés expérimentalement
Caractéristiques des architectures cognitives Degré de dépendance par rapport à un domaine. généralisation possible Degré de spécification sa distance d’un modèle computationnel Étendue des fonctions cognitives modéliser explicitement attention, mémoire, processus subsymboliques Adéquation aux résultats expérimentaux
Architecture cognitive : les débuts 1957 General Problem Solver Herbert Simon et Allen Newell généralise Logic Theorist un résolveur de problème universel espace problème (problem space) résoudre un problème consiste à explorer et construire un graphe à partir d’un état initial pour trouver un état final. méthode faible (weak method) méthode de résolution pouvant être appliquée à plusieurs domaines comme l’analyse moyens-fins (means-ends analysis, hill-climbing … manipule des structures symboliques logique, géométrie, jeux d'échecs Le General Problem Solver (GPS) est un programme informatique créé en 1957 par Herbert Simon et Allen Newell dans le but de construire un résolveur de problème universel. N'importe quel problème formalisé peut en principe être résolu par GPS, par exemple des preuves de théorèmes, des problèmes géométriques et des parties d'échecs. http://tecfa.unige.ch/tecfa/publicat/schneider/these-daniel/wmwork/www/phd_43.html Ernst, G. & Newell, A. (1969). GPS: A Case Study in Generality and Problem Solving. New York: Academic Press GPS, a program that simulates human thought,'' in Edward A. Feigenbaum and Julian Feldman, Computers and Thought (New York: McGraw-Hill, 1963), pages 279 – 293 Newell, A., Shaw, J.C., & Simon, H.A. (1957). Problem solving in humans and computers. Carnegie Technical, 21(4), 35-38. Ericsson, K.A., & Simon, H.A. (1984). PROTOCOL ANALYSIS: VERBAL REPORTS AS DATA. Cambridge, MA: The MIT Press. Ericsson, K. A., & Simon, H. A. (1980). Verbal reports as data. Psychological Review, 87, 215-251 We first examine the Logic Theorist system given two statements in propositional calculus, it would try to prove their equality it would use a collection of rules (shown in a few slides) LT’s rules performed one of three types of operations substitution – substitute one expression for every occurrence of a symbol that is already known to be true (B v B) B can be replaced by (!A v !A) !A replacement – substitute an expression that has a connective (e.g., ) by its equivalent form or definition A B can be replaced by !A v B since they are equivalent detachment – apply modus ponens to introduce a new, true statement or clause
1973 human associative memory John Robert Anderson W : mot P : prédicat S : sujet R : relation O : objet
Représentation des propositions
1980 validation expérimentale (protocole verbal) K. Anders Ericsson et Herbert Simon 2 systèmes sont faiblements équivalents s’ils représentents la même fonction et fortement équivalents si c’est le même algorithme
Les architectures à base de systèmes de production 1943 Les systèmes de production sont apparus sous forme théorique 1972 implantation de systèmes de production Human problem solving de Newell
Évolution des architectures basés sur les systèmes de production
1983 Dispersion de l’activation ACT* Connaissance sémantique (déclarative) Réseau sémantique Activation de base + activation provenant du contexte Dispersion de l’activation Pas de distinction entre MCT et MLT, les éléments de la MCT sont les éléments actifs (perception ou actifs) ?? Connaissances procédurales Système de production Force d’une production Anderson, J. R. (1983). The Architecture of Cognition. Cambridge, MA: Harvard University Press. [info]
ACT* 1983 figure 1.2 de Active components of tought
ACT* : dispersion de l’activation L’activation part des objets (unit) actuellement actifs et via ses attributs (element) se propage à d’autres objets dans la mémoire à long terme. Anderson, J. R. (1983). The Architecture of Cognition. Cambridge, MA: Harvard University Press. [info]
1983 SOAR 1 (State, Operator And Result) John Laird, Allen Newell, et Paul Rosenbloom Expliquer le comportement intelligent en proposant l’architecture de base de tout système intelligent Mécanisme sophistiqué d’apprentissage de nouvelles connaissances Initialement peu de fondement psychologique à l’architecture Possible de produire des comportements plausibles et non plausibles Difficile de modéliser les connaissances sémantiques et épisodiques avec l’architecture SOAR Attention les règles de production ne sont pas des connaissances procédurales Il ajoutent des préférences dans la mémoire de travail et complète l’information qui est déjà dans la mémoire de travail mais cette mémoire de travail n’a aucun rapport avec sa partie correspondante en psychologie Anderson, J. R. (1983). The Architecture of Cognition. Cambridge, MA: Harvard University Press. [info]
Soar : 1983 Figure 5 de LAIRD …
1983 : Model Human Processor (MHP) Figure 1. Model Human Processor. Based on Card, Moran, and Newell (1983). The MHP is a system with multiple memories and multiple processors, and many of the properties of those processors and memories is described in some detail.
1983 : CPM-GOMS Cognitive, Perceptual, Motor GOMS Goals, Operators, Methods and Selection rules, Tâche routinière (pas de problem solving) Card et al. (1980) provided the most detailed list of the weaknesses of GOMS. The weaknesses are as follows: The model applied to skilled users, not to beginners or intermediates. The model doesn't account for either learning of the system or its recall after a period of disuse. Even skilled users occasionally make errors; however, the model doesn't account for errors. Within skilled behavior, the model is explicit about elementary perceptual and motor components. The cognitive processes in skilled behavior are treated in a less distinguished fashion. Mental workload is not addressed in the model. The model doesn't address functionality. That is the model doesn't address which tasks should be performed by the system. The model addresses only the usability of a task on a system. Users experience fatigue while using a system. The model does not address the amount and kind of of fatigue. Individual differences among users is not accounted for in the model. Guidance in predicting whether users will judge the system to be either useful or satisfying, or whether the system will be globally acceptable is not included in the model. How computer-supported work fits or misfits office or organizational life is not addressed in the model. Analyze task based on Card, Moran, & Newell (1983) Model Human Processor. Cognitive, Perceptual, Motor GOMS, or Critical Path Method GOMS Cognitive, Perceptual, Motor GOMS Goals, Operators, Methods and Selection rules
Calcul du temps nécessaire pour percevoir un objet avec GOM/CPM The duration of a perception of a simple binary visual signal is 100 msec. The duration of a perception of a complex visual signal similar to a 6 letter word is 290 msec. If the eyes have been focusing at a place other than the infomation to be perceived, or if unrelated cognitive activity precedes the attend-info operator, then an eye movement is required, with it's associated cognitive initiation; use the template "Perceive Visual Information With Eye Movement". If the user perceived information in that exact area immediately prior to the current situation, with no intervening visual or auditory perception or cognitive activity, then it is assumed that the eyes remained fixed on the appropriate area and no eye-movement is necessary; use the template "Perceive Visual Information Without Eye Movemento.
1996 : EPIC Overall structure of the EPIC architecture. Based on Kieras and Meyer (1996).
Description d’un ordinateur à deux niveaux The knowledge level is a distinct computer systems level that lies immediately above the symbol level. The medium processed at the knowledge level is knowledge. An agent - a system at the knowledge level - consists of a physical body that can interact with an environment. knowledge. and a set of goals. The law of behavior is the Principle of Rationality: "If an agent has knowledge that one of its actions will lead to one of its goals. then the agent will select that action." (Newell. 1981. p. 8) Once knowledge is acquired. it is available for all future goals. There are no capacity limitations on the amount of knowledge that can be available or on the agent's ability to bring it to bear in the selection of actions that achieve its goals. An essential feature of the knowledge level 's that the agent's behavior is determined by the content of its knowledge, not by any aspects of its internal structure. It abstracts away from the processing and representation of the lower levels. This lack of significant internal structure implies that there are no laws of composition at the knowledge level. === Aspects Register-Transfer Level Symbol Level Medium Bit Vectors Symbols, expressions Components Registers Memories Operations Functional Units Composition Laws Transfer Path Designation association Systems Digital Systems Computers Behavior Laws Logical Operations Sequential interpretation