vendredi 26 novembre 2010

Finkbeiner, M. & al. (2008). Utiliser un système moteur pour étudier l'amorçage orthographique inconscient

Dans cette expérience, les sujets ont catégorisés des mots cibles, selon qu'ils faisaient plus penser à du vert (petits pois) ou à du rouge (fraise), grâce à une tâche de pointage du doigt. Ils avaient inclus des amorces qui étaient soit "rouge" soit "vert". Ils ont trouvé que la courbure des trajectoires de pointage était plus grande quand le mot cible était incongruent avec l'amorce (vert - SANG) que quand il suivait des amorces congruentes.
Il y a une augmentation de l'activité cérébrale dans la zone du cortex moteur située du côté opposé à la cible, dans le cas d'amorces incongruentes. Cela signifie que les amorces subliminales peuvent moduler l'activité électrique du cortex moteur. 

Il a déjà été montré que les processus perceptifs et les processus de formulation de réponse étaient continuent pour des stimuli conscients, mais ps encore pour les stimuli inconscients. Pour voir s'il y avait une réponse du cortex moteur avec des amorces inconscientes, ils ont utilisé l'analyse du mouvement du bras. Ils ont fait attention avec leur matériel à bien choisir leur ISI, parce qu'ils ont vu que plus les participants avaient du temps pour traiter le stimulus amorce, plus leur trajectoire de pointage était incurvé vers la mauvaise cible (dans le cas de situation congruente ou le prime a un rapport avec la cible). Cela agirait comme une "inhibition retour" sémantique, où il serait plus difficile d'aller vers les mots qui ressemblent à ceux qu'on a déjà vu en amorce.

Dans leur expérience, ils ont utilisé une procédure de présentation de l'amorce qui empêche d'en prendre conscience. 
La courbure des trajectoires de pointage des participants était plus grande dans la condition incongruente. Les participants étaient donc à même de programmer leur réponse en fonction de l'amorce, du côté de celle-ci, ce qu'ils devaient corriger en cours de pointage si la situation était en fait incongruente. Avec les ISI choisis, ils ont donc rétabli un effet normal où le participant est attiré vers la cible en rapport avec l'amorce. 

Expérience 1

Méthode
7 participants droitiers ont fait une tâche de catégorisation de mots qui étaient présentés sur un écran noir, en blanc. La catégorisation était de dire si la couleur de ce que les mots représentaient était verte ou rouge. (ex: sang ou concombre). Ils devaient pointer vers le carré rouge ou vert de l'écran. Avant ce mot, il y avait une amorce (soit rouge soit vert) dont le participant n'était pas avisé.
Ils avaient dix mots cibles (5 se rapportant au vert et 5 au rouge). Les mots amorces étaient "rouge" ou "vert". Ils ont contrôlé les variables de fréquence, de longueur, etc. Dans chaque condition (congruent, incongruent et neutre), chaque mot apparaissait 4 fois pour un total de 120 essais. Ils avaient une phase d'entrainement sur 30 essais.
Chaque essai était constitué d'un masque de 500ms, puis le mot amorce pendant 30ms, puis un masque pour 10ms et la cible pendant 2 sec ou jusqu'à ce qu'une réponse soit donnée. Ils avaient mit un ISI de 2 sec pendant lequel apparaissait le mot "loading". 

Résultats
Le temps de réaction est définie à partir du moment où la vitesse de la main dépassait un seuil de 10cm/s et le temps total est définie comme l'intervalle entre le début d'affichage de la cible et la fin du pointage. La Courbure maximale est définie comme le point le plus éloigné par rapport à la trajectoire linéaire. Ils ont enlevé les réponses fausses (4%) et les réponses trop rapides (<100ms)
  • Ils ont observé un effet significatif du type d'amorce sur la courbure maximale: la condition incongruente avait un maximum plus grand que la condition neutre et que la condition congruente. Néanmoins, pas de différences n'ont été observées entre la condition congruente et neutre.
  • Ils ont observé un effet significatif du type d'amorce sur le temps total mais pas sur le temps de réaction: Les réponses étaient plus lentes dans la condition incongruente que pour la condition neutre et congruente. Il n'y avait pas de différence entre la condition congruente et neutre.

Expérience 2

Dans cette expérience, ils ont fait varié la durée de présentation de l'amorce, afin de savoir si les résultats n'étaient pas dû à une prise de conscience de l'amorce. Ils voulaient également préciser les effets de congruences pour des valeurs de présentation de l'amorce élevés (on a dit plus haut que quand l'amorce était présentée longtemps, les temps sur la condition congruentes étaient augmentés).

Méthode
7 participants droitiers ont fait la même tâche que dans l'expérience 1, sauf qu'ils n'utilisaient pas un mouvement de la main, mais le mouvement d'un stylo sur une tablette. Ils faisaient 240 essais au total, 30 congruents et 30 incongruents pour chacune des 4 durées de présentation des amorces (10ms, 20ms, 30ms, 40ms). Il n'y avait pas d'amorce neutre cette fois-ci. 
La tâche de catégorisation de l'amorce était faite sur un clavier avec la main gauche. Les participants ne devaient pas répondre avant que n'apparaisse le point d'interrogation, 1 seconde après l'apparition de la cible. 

Résultats
Ils ont à nouveau supprimé les réponses fausses (2,3%) et ceux qui réagissaient trop vite (<100ms). 
  • La courbure maximale augmentait dans la condition incongruente plus le temps de présentation de l'amorce était long.
  • Les temps de réaction ne montraient aucune différence mais le temps total correspondait aux observations sur la courbure maximale: un effet significatif de l'amorce était observé, avec des temps totaux plus longs pour la condition incongruente pour la condition à 40ms (mais pas pour les autres)
 Discussion
Ils ont pu observer les résultats connus sur les processus de catégorisation avec une nouvelle méthode: l'analyse de la réponse motrice. Les résultats ont montré que la congruence entre l'amorce et la cible oriente le mouvement dans une direction: celle de la couleur de l'amorce, ce qu'il faut ensuite corrigé si on est en situation incongruente, et qui explique l'augmentation des temps de réponse totaux et le maximum de la courbure.


Source: Finkbeiner, M. & al. (2008). Engaging the motor system with masked orthographic primes: A kinematic analysis, in Visual Cognition, 16 (1), 11-22

Bechara, A. (2004). Le rôle de l'émotion dans la prise de décision : étude des patients orbitofrontaux


La plupart des théories sur la décision disent que celle-ci résulte des imagination de ce qu'une option ou une autre nous apportera dans l'avenir. Mais les gens ne jugent pas seulement comment prendre leur décision en fonction des buts et des risques rationnels, intervient aussi l'émotion! Quand on a une lésion dans le cortex préfrontal ventromédiant (incluant l'orbitofrontal), on a du mal à prendre en compte nos émotions pour nos décisions.
Il y a à propos de ça une hypothèse qui a été émise: l'hypothèse des marqueurs somatiques sensoriels. Elle prend en considération plusieurs niveaux entrant en compte dans la décision, et notamment ceux d'homéostasie (rester à l'équilibre), l'émotion et les sensations.

Dans la région orbitofrontale du cortex préfrontal, on a le gyrus rectus et les gyri orbitaux. Une lésion uniquement de cette région est rare, elle apparait souvent associée à une lésion de tout le cortex préfrontal ventromédian. Ceux qui ont ces lésions ont de gros problèmes au quotidien dans leurs décisions, qu'elle soient à titre personnel ou vis à vis des autres. Les autres capacités cognitives sont cependant préservées. L'hypothèse des marqueurs somatiques sensoriels prédit qu'une diminution des émotions influerait la prise de décision. Ces patients ont des problèmes de décision, et ce serait donc dû à un problème de prise en compte d'émotions. 

Méthode
La gambling Task
Ils ont utilisé trois types de tâches pour tester les problèmes de décision des patients avec lésion Ventromédiane: la Gambling Task (jeu de poker), la Betting Task et la Delay Task
Dans la Gambling Task, les sujets ont à choisir des cartes dans 4 paquets différents. Deux des paquets sont à haut risque de perte mais on gagne beaucoup les peu de fois où on gagne (mais au final ils font perdre de l'argent) et les deux autres sont à risque faible risque mais on gagne peu à chaque coup (au final, on gagne de l'argent).
Ils avaient trois groupes de sujets: les patients lésés du cortex Ventromédian ("patients VM"), des patients lésés d'une autre zone ("patients lésés contrôles") et des gens sans lésion ("groupe contrôle") qui passaient tous la Gambling Task. Ils ont mesuré en même temps la conductance de leur peau (un bon marqueur émotionnel)

Résultats
  • Les patients VM n'ont pas évité les paquets à risque (qui faisaient perdre à la fin), alors que les deux groupe contrôle si.
  • La conductance de la peau faisait un pic chez tous les patients après avoir pioché une carte et appris si c'était une perte ou un gain. La différence est que chez les sujets contrôle, il y avait également un pic de conductance (i.e. une émotion) avant de piocher une carte dans un paquet à risque, alors que les patients VM n'en avaient pas. 

Ces patients VM étaient tous lésés des deux hémisphères. Ils ont donc ensuite comparé les lésés VM unilatéraux. Il semblerait que ceux qui sont lésés du côté gauche ont moins de problèmes avec la décision au quotidien et dans la Gambling Task que ceux qui sont lésés du côté droit, qui présentent, eux, les mêmes résultats que les lésés bilatéraux. Ils ont corrélés ces résultats avec le fait que les comportements émotionnels de l'hémisphère droit sont plus des comportement d'évitement et d'émotions négatives et pour l'hémisphère gauche, on a plus des comportement de rapprochement et d'émotions positives. Pour ceux qui sont lésés à droite, on peut donc comprendre que, vu qu'ils ont moins d'émotions négatives et de comportement d'évitement, et plus de comportement de rapprochement avec des émotions positives, ils choisissent plus les decks à risques. Ce sont en quelque sorte d'éternels optimistes qui ne pensent jamais perdre... 

Pour ceux qui ont eu la lésion ventromédiane plus tôt dans leur vie, les dégâts sont plus importants et irréversibles, alors que ceux qui l'ont acquis plus tard, à l'âge adulte, sont moins désavantagés dans leur décisions quotidiennes.

Pour revenir à l'hypothèse des marqueurs somatiques, on explique donc les résultats de décision de ces patients par leurs émotions (ils ont moins d'émotions négatives, et plus d'émotions positives, ça les attire plus vers le risque). Il y a trois moyens de faire passer les sensations du corps vers le cortex et les émotions: la corde spinale, les nerfs vagues et le chemin endocrinien. Ce serait les nerfs vagues qui seraient le plus à même de faire correspondre l'état du corps (les sensations, donc) avec une prise de décision.
  • Ils ont donc testé cette hypothèse avec des patients épileptiques stimulés directement via électrodes. Ils ont observés un choix plus important des paquets avantageux lorsqu'ils activaient les nerfs vagues, par rapport à quand ils ne l'étaient pas. 
Un autre problème pouvant intervenir dans la prise de décision endommagée chez les patients VM est que le cortex préfrontal permet aussi de faire des estimations. Sans estimations, ils ne peuvent pas savoir à l'avance si un paquet est avantageux ou pas (ce qui peu expliquer l'absence de réponse cutanée avant de piocher).

Ils ont également comparé les problèmes de décision avec la mémoire de travail. Les patients VM ont un problème de prise de décision mais aucun problème de mémoire de travail. Au contraire, des patients avec des lésions préfrontales dorsolatérales (DLPF) ont des problèmes de mémoire de travail mais pas de prise de décision (selon les zones, cela affecte plus la mémoire des objets (zone inférieure) ou la mémoire spatiale (zone supérieure)).
  • En utilisant une Delay Task, il semblerait que la mémoire de travail ne soit pas affectée par la capacité à prendre des décisions.
  • Mais il semblerait que la prise de décision soit influencée par l'intégrité de la mémoire de travail.
Les auteurs font ensuite la distinction entre impulsivité (qui est une absence d'inhibition) et mauvaise prise de décision. La différence se justifierait en cela que pour prendre une décision, il faut évaluer les pour et les contre et on n'est pas au courant des conséquences de nos actions, alors que pour une impulsivité, il n'y a pas d'évaluation des pour et des contres qui entre en compte, et on est parfaitement au courant des résultats si on y cède. La prise de décision est une impulsivité cognitive, gérée comme on vient de le voir démontrer par le cortex préfrontal ventromédian, alors que l'impulsivité au sens classique est en fait une impulsivité motrice, gérée par les zones cingulaires antérieures. Il existe encore un autre type d'impulsivité: l'impulsivité perceptive qui est en fait l'impossibilité de faire taire des pensées récurrentes, et qui serait géré par la mémoire de travail. Cette dernière impulsivité est plus gérée par le cortex frontal latéral et le cortex insulaire antérieur.

Les émotions et les états du corps n'entrent pas toujours en considération dans les prises de décision. Il y a deux circuits, un circuit qui intègre les signaux du corps, le "body loop" et un circuit qui fonctionne sans input du corps, le "as-if loop". Dans le as-if loop, l'activation n'a pas besoin de passer par le corps les cortex insulaires et somatosensoriels sont directement activés en souvenir de l'émotion déjà ressentie dans la situation similaire. 


Source: Bechara, A. (2004). The role of emotion in decision-making: Evidence from neurological patients with orbitofrontal damage, in Brain and Cognition, 55, 30-40

mercredi 24 novembre 2010

Wagner, A. D., & al. (1998). Construction de la mémoire : prédire la mémorisation ou l'oubli d'expérience verbales à partir de l'imagerie cérébrale

Pourquoi se souvient-on de certaines expériences et pas d'autres ?
Plus le Gyrus Parahippocampique est activé, plus on a de chance de ne pas oublier un souvenir

Les auteurs ont trouvé, via un IRMf, les zones impliquées dans l'encodage et la récupération des souvenirs. Il semblerait que plus un souvenir est encodé avec force par le cortex préfrontal , le cortex temporal et les régions parahippocampiques, plus il a de chance de ne pas être oublié.

L'encodage est le processus par lequel une expérience est transformé en trace mnésique dans le cerveau. Pour bien encoder notamment des mots, il faut avoir comprit le sens de ce qu'on encode (i.e. l'encodage sémantique marche mieux que le non sémantique). Dans ce cas, c'est le cortex préfrontal gauche qui s'active plus. Il s'activera moins si on n'utilise pas cette méthode.
Ils ont également trouvé une implication du cortex temporal médian sur la qualité de la récupération du souvenir ensuite.
Il semble également que les régions parahippocampiques sont plus fortement activées lors d'un stimulus nouveau, qu'on ne connait pas, plutôt que quand on revoit quelque chose de connu. Ces zones sont donc impliquées dans l'encodage de nouvelles informations, peut être même que pour cela.

Méthode
Ils ont utilisé une tâche de processus sémantique (décider si un mot est abstrait ou concret) et une tâche de processus non sémantique (décider si un mot est écrit en majuscules ou en minuscules). La tâche contrôle étant une tâche de fixation.
Ils ont testé 12 sujets, tous droitiers, qui étaient placés dans un IRMf pendant les trois tâches. Ils ont contrôle la nouveauté des mots dans les conditions sémantiques et non sémantique.

Résultats
  • Les temps de réactions étaient plus longs pour les décisions sémantiques (873ms) que pour les décisions non sémantiques (539ms)
  • La mémorisation était meilleure pour les rappels après décision sémantique (85% rappelés) qu'après une décision non sémantique (47% rappelés)
  • Les cortex Préfrontal et Temporal influencent la manière d'encoder une information, mais elles n'entrent pas directement en jeu pour ce qui est de prédire si une information restera en mémoire ou sera oubliée.

Méthode 2
Ils ont donc effectué une seconde expérience, avec 13 sujets droitiers, qu'ils ont mis dans 6 IRMf, correspondant à 6 séries de 120 présentations de mots qu'ils devaient observer et catégoriser sémantiquement en abstrait ou concret (comme dans la première expérience). On les représentaient ensuite aux mots rencontrés et ils devaient noter si c'étaient des mots de l'expérience (et à quel point ils en étaient sûr). La différence avec la première expérience résulte dans le traitement des données IRM: ils ont séparé les données retenues des données oubliées (i.e. Si un mot était retenu, ils revenaient sur le scan qui avait été fait pour ce mot, si un mot était oublié, ils revenaient aux images du moment de ce mot oublié).

Résultats 2
  • En comparant les résultats correctement identifiés avec une bonne certitude et les mots oubliés/ratés, on remarque une plus grande activation dans plusieurs régions préfrontales gauches ainsi que dans les régions parahippocampiques gauche et les gyri fusiformes, pour les mots rappelés correctement. Et ce que ce soit pour les mots concrets comme abstraits.
  • Les mêmes régions ont été activées pour l'encodage des mots plus tard rappelés et oubliés, mais ce qui change, c'est la magnitude d'activation.
Discussion
On leur a reproché de n'avoir pas fixé les temps de réponse, mais même en le faisant, après coup, ils ont retrouvé les mêmes résultats. 

Ce qui fait qu'une expérience verbale est mémorable est en partie l'activation des zones préfrontales gauches, temporales médianes gauches et parahippocampiques gauche. Le gyrus parahippocampique est plus activé lors de l'encodage d'informations qui ne seront pas oubliées. On savait déjà que l'hippocampe jouait un rôle phare dans la mémoire, on en découvre ici un peu plus. 
Les zones préfrontales et parahippocampiques peuvent peut être agir interdépendamment pour permettre aux événements de rester en mémoire. 
Ce qui peut faire varier l'activation de ces zones (et donc la possibilité que l'information reste en mémoire, qu'on ne l'oublie pas) est: ce qu'on demande de faire, les changements de stratégie d'encodage en cours de route par le sujet, les caractéristiques de ce qu'on doit encoder ou encore les modulations de l'attention. 

"Une plus grande participation des processus des zones préfrontales et temporales gauche ainsi que des zones parahippocampiques tendent à produire des expériences plus mémorables"

Source:  Wagner, A. D., Schacter, D. L., Rotte, M., Koutstaal, W., Maril, A., Dale, A. M., Rosen, B. R., Buckner, R. L. (1998). Building Memories: Remembering and Forgetting of Verbal Experiences as Predicted by Brain Activity, in Science, 281, 1188-1191

dimanche 21 novembre 2010

Kosslyn, S. M., & al. (1992). Catégorisation et coordination dans les relations spatiales : une simulation par ordinateur d'un système d'intelligence computationnelle artificiel

Grâce à 4 modélisations, les chercheurs ont pu démontrer la différence qui existait entre la catégorisation et la coordonnée des représentations spatiales. Les réseaux qui étaient dissociés afin que les neurones artificiels contribuent soit pour une tâche, soit pour l'autre, avaient de meilleurs résultats que les réseaux non dissociés. Les résultats étaient plus difficiles à obtenir lorsque la tâche était plus complexe. Ceci est peut être une base pour expliquer la latéralisation des deux processus (catégorisation et coordonnée spatiale). Peut être que dans le cerveau, du coup, l'asymétrie des deux processus serait visible avec des tâches avec un contraste élevé (comme ici, les résultats ont été plus difficiles à obtenir avec quand la tâche était plus fine, moins contrasté entre les différents éléments).

Dans les théories issues des neurosciences, le cerveau fonctionnerait en systèmes, divisés en systèmes plus petits. A chaque niveau, il y aurait des connexions pour faire fonctionner les systèmes ensembles. C'est notamment le cas pour le lobe pariétal et le lobe temporal. Le lobe pariétal encode les informations spatiales, et le lobe temporal encode les propriétés des objets. Les auteurs attestent que le lobe pariétal, et donc les informations spatiales, sont divisées en deux sous-système: la catégorisation et la coordonnée. Ils sont partis pour cela de la considération qu'un humain peut faire deux choses bien distinctes avec sa représentation spatiale: pour diriger l'action vers un objet, et donc savoir où il est situé exactement (c'est la coordonnée, qui serait plus l'apanage du cerveau droit); pour savoir où sont les objets les uns par rapport aux autres (c'est la catégorisation, gérée par le cerveau gauche).

Etude 1

Ils ont prit comme tâche de décision de la catégorisation, une tâche de décision au dessus/en dessous, où le réseau devait décider si un point était au dessus ou en dessous une barre, pour cela,  il devait regrouper les pixels en catégories (au dessus, en dessous, la zone de la barre). La tâche de coordonnée était de décider si ce même point était à plus ou moins 4 unités (pixels) de la barre, où là, le réseau devait être plus précis. 
Ils ont regardé le nombre d'erreurs du réseau après une période d'entrainement. 

La partie 1 a utilisé des réseaux soit reliés, soit dissociés pour effectuer les tâches soit ensembles, soit chacun s'attribuant une tâche.
La partie 2 est là pour vérifier que la facilité des réseaux dissociés n'est pas due à cette tâche spécifiquement. 

               Partie 1
Matériel
Ils ont utilisés des réseaux standards à trois niveaux, de 28 unités input et 4 unités output (2 pour chaque tâche) et avec un nombre d'unités cachées de 8 à 17. Les réseaux dissocié et non dissociés étaient identiques hormis pour la séparation en deux. Une modélisation des réseaux est présentée sur le schéma de gauche.

Sur le design de la tâche elle même, il y avait une ligne de plusieurs unités, soit actives, soit inactives (des pixels). Un point était représenté par l'allumage d'un pixel à n'importe laquelle des 8 positions en dessus et des 8 positions en dessous. Selon la position, la tâche était néanmoins plus ou moins difficile à réaliser.
La réponse était correcte pour la tâche de catégorisation si il avait identifié le point dans l'une des 8 positions grisées sur le schéma (représenté par Below / Above). Pour la tâche de coordonnée, il s'agissait de savoir si le point allumé était à plus ou moins de 4 éléments de la barre.

Ils ont testé 18 réseaux de chaque type, dans 50 essais de 80 stimuli chacun. Cela donne beaucoup de données, mais c'est ce qu'il faut en modélisation.

Résultats
Les résultats ont montré que les réseaux dissociés étaient plus efficaces pour effectuer les deux tâches, ce qui indiquerait que les deux tâches sont bien gérées différemment et sont donc distinctes.

               Partie 2
Méthode
Ils ont voulu voir dans cette deuxième partie de l'expérience si la tâche de coordonnée était bien le dernier sous-système, ou si à nouveau, un réseau dissocié serait plus performant, attestant alors de deux tâches de coordonnée en fait différentes.
Les deux tâches qui sont utilisées sont de savoir si le point est dans 2 éléments plus haut ou plus bas que la barre, ou s'il est dans 6 éléments plus haut ou plus bas que la barre. Cela correspondrait, dans le cerveau, à savoir si la perception d'une différence entre 10 et 20 cm relève du même sous-système qu'une différence entre 10 et 20 m. 

Résultats
Le réseau non dissocié produisait moins d'erreurs que le réseau dissocié, ce qui atteste bien que discriminer si c'est à 10 ou 20 cm est en fait la même chose que discriminer si c'est à 10 ou 20 mètres, en tout cas en terme de sous-systèmes cognitifs impliqués. Il n'y a donc bien qu'un seul sous-système de Coordonnés.

Discussion
Ces simulations indiquent que la catégorisation spatiale et de coordonnés sont deux tâches distinctes, et que des réseaux spécialisés sont plus à même d'être efficace que si un seul réseau s'occupait des deux tâches. Cela n'implique cependant pas nécessairement que le cerveau soit organisé de la même manière avec deux sous-systèmes distincts, seulement que ce serait plus efficace s'il l'était.

Etude 2

Dans cette étude, ils ont utilisé des réseaux pour savoir à peu près la même chose que pour la deuxième partie de l'étude 1, mais en rajoutant la tâche de catégorisation, et non uniquement la tâche de coordonné. Ils ont utilisé pour cela les notions de "easy" et "difficult" que l'on voit sur le schéma de l'expérience. 
Pour la tâche de catégorisation, c'était facile quand le point était loin de la barre et difficile quand c'était proche.
Pour la tâche de coordonnés, c'était facile quand le point était loin de la distance centrale (à 4 unitésde la barre) et difficile quand c'était proche de ce point.

Méthode
Le matériel était le même que pour l'étude 1, à la différence près qu'ils n'ont utilisé que des réseaux non dissociés, avec deux unités de sorti et qu'ils ont fait varier le nombre d'unités cachées entre 6 et 12. 
La tâche de jugement catégoriel était divisée en facile et difficile. La tâche facile était quand le point était à plus de 4 unités de la barre. La tâche difficile quand le point était à moins de 4 unités de la barre.
La tâche de jugement coordonné était également divisée en facile et difficile. Dans la condition facile, le point était à plus de 2 unités du centre de la partie haute ou basse, et dans la condition difficile, à moins de 2 unités.
Les réseaux étaient entrainés avec 40 patterns d'entrée. 
Ils ont testé 25 réseaux de chaque type dans chaque condition. Ils ont mesuré le taux d'erreur non pas après 50 essais, comme dans l'étude 1, mais après 30, pour avoir plus de différences.
 
Résultats
Les deux tâches, que ce soit catégorielle ou coordonnée montrent une augmentation de l'erreur avec la difficulté.
Discussion
Les difficultés de la tâches, la subtilité de celle-ci, la façon dont elle a besoin d'être précise influence les deux types de tâches, et le pourcentage d'erreur dans chacune augmente avec la précision demandée.
Cela correspond aux difficultés rencontrées chez les sujets humains. 
Etude 3

Les auteurs pensent que les représentation coordonnées jouent un rôle particulier dans le contrôle des actions, et les représentations catégorielles jouent un rôle particulier dans la reconnaissance et l'identification des objets. Là dessus, les auteurs ont fait le lien avec l'idée que les neurones de l'hémisphère droit de l'aire visuelle ont des champs récepteurs plutôt larges, et ceux de l'hémisphère gauche ont des champs récepteurs plutôt restreints. L'idée est de dire que chaque hémisphère s'occupe d'une tâche (coordonnées ou catégorisation) et que son aptitude à réussir cette tâche est directement liée au fait qu'il ait des champs récepteurs plus ou moins larges. Un champ récepteur large serait utile pour percevoir l'ensemble de l'espace, et également permettre d'initier un mouvement rapidement, dans un processus pré-attentif. Le champ récepteur restreint permettrait au contraire de créer des "zones" générales dans lequel placer les stimuli de manière grossière. (Cela va de pair avec l'idée que quand il y a de larges récepteurs, les champs se chevauchent, et ont donc une meilleure sensibilité: plusieurs neurones s'occupent de la même zone de l'espace).
Ainsi, ils ont étudié si les tâches étaient mieux réussies avec un champ récepteur large ou restreint. Dans la première partie de l'étude, ils ont étudié les champs récepteurs des unités cachées, et dans la partie 2, ils ont fixé ces champs avant les unités Input, en rajoutant d'eux même une couche.

                        Partie 1
Méthode
Deux réseaux ont été construits: un pour chaque tâche. C'était les mêmes que pour l'étude 2, mais avec un nombre d'unités cachées fixe: 10. Ils faisaient la tâche difficile et facile, et non l'une des deux. L'entrainement était effectué jusqu'à ce que les réseaux aient un pourcentage d'erreur proche de 0. 
Résultats
Les champs récepteurs développés dans le réseau qui faisait la tâche de coordonnées étaient plus larges que ceux de la tâche de catégorisation.
Discussion
Les réseaux de la tâche de coordonnée ont développé tout seuls des champs récepteurs plus larges, et les réseaux de la tâche de catégorisation ont développé des champs plus petits. Cela correspond aux hypothèses.
                       Partie 2
Méthode
Les réseaux étaient les mêmes que ceux de l'étude 2, mais ils ont rajouté une couche d'unités "rétiniennes" avec une force fixée et un nombre de connexions pour chaque unité input fixé également. les couches étaient constituées de 28 unités pour la couche "rétinienne", 14 unités pour la couche "Input", 10 unités cachées et 2 unités "output". On peut le symboliser comme sur le schéma ci-contre. La quantité d'unités afférentes à chaque unité "input" formaient le champ récepteur plus ou moins étendu, selon la force de la connexion de chaque unité "rétinienne". Pour voir à quoi correspond un champ récepteur au niveau de la rétine, voir le schéma de droite (cela se passe au niveau des yeux).

Résultats

A nouveau comme prévu, les champs récepteurs larges facilitaient la tâche de jugement de coordonnées, et inversement pour la tâche de catégorisation. 

Discussion
Ces résultats correspondent aux observations faites chez les sujets humains. Cela correspond à l'idée que le l'hémisphère gauche serait plus performant pour la tâche de catégorisation parce qu'il aurait des champs récepteurs plus restreints, et que l'hémisphère droit serait plus apte à faire la tâche de coordonnées, à cause de ses champs récepteurs visuels plus larges. L'idée est que l'avantage des champs visuels restreints pour la tâche de catégorisation ne sera présent qu'à l'intérieur de ces champs visuels, et non à l'extérieur, dans les zones non couvertes.

Etude 4

Certes, les tâches sont mieux effectuées selon la taille du champ récepteur, mais dans le cerveau, il n'y a pas que des champs larges à droite et des champs restreints à gauche, c'est plutôt mixé, et l'effet du champ récepteur pourrait être noyé dans la masse de neurones qui traitent l'information. Ceci expliquerait que les différences entre hémisphères pour ces tâches ne s'observent pas tout le temps, mais seulement avec des stimuli dégradés. Ils ont donc étudié des réseaux avec des champs récepteurs homogènes, ou hétérogènes. 

Méthode
Ils ont reprit le même matériel que dans l'étude 3, en doublant juste le nombre d'unités "input". Ils ont séparé les réseaux selon que leurs champs étant homogènes ou hétérogènes, et selon s'ils étaient larges ou restreints, ce qui nous donne 4 types de réseaux différents.

Résultats

  • Les réseaux hétérogènes réussissent mieux la tâche de catégorisation quand ils ont une majorité de champs récepteurs petits que grand. 
  • Les réseaux hétérogènes réussissaient la tâche de coordonnées aussi bien quelques soient les tailles des champs récepteurs.
  • Les réseaux hétérogènes étaient plus efficaces pour la tâche de coordonnées que pour la tâche de catégorisation. 
  • Les réseaux homogènes n'avaient pas de différence entre la taille des champs et la tâche: la tâche de catégorisation était réussie aussi bien avec des champs récepteurs grands ou petits, tout comme la tâche de coordonnées.
  • Les réseaux homogènes étaient plus efficaces pour la tâche de coordonnées que pour la catégorisation.

Discussion
Avoir un plus grand nombre d'unités élimine donc l'avantage d'avoir des champs récepteurs plus grands pour encoder les informations précises. Cela explique les données sur les humains comme quoi on n'observe pas de différence pour des tâches normales, qu'il fallait avoir des stimuli dégradés, donc avec moins d'unités qui les perçoivent pour observer des différences entre les hémisphères et les tâches.

Discussion Générale
Ces résultats apportent une preuve de la différence entre les deux tâche de catégorisation spatiale et de représentation des coordonnées. Les réseaux qui encodent ces deux tâches sont différents, et on peut expliquer grâce à la taille des champs récepteurs la facilité de l'hémisphère droit pour traiter des coordonnées et la facilité de l'hémisphère gauche pour traiter une catégorisation spatiale, ainsi que pourquoi on n'observe pas cette différence pour des stimuli à fort contraste, qui activent plus de neurones input.
Ces deux sous-systèmes partagent un grand nombre de similarités, mais les quelques différences qu'ils ont font leur spécificité. Cela reste cependant des sous-systèmes du même système de représentation spatiale.
On peut également présumer avec ces résultats (grâce aux résultats de l'étude 4 notamment) que les deux hémisphères sont capables d'effectuer les deux types de tâches, mais qu'il y en aura un plus fort que l'autre dans les situations difficiles à juger.

Il existe 5 principes sur l'activation des neurones dans le cerveau:
Division of labor: Il est plus efficace d'effectuer des cartographies de l'espace différentes avec des réseaux différents.
Weak modularity: Un sous-système peu effectuer plusieurs opérations similaires (cf. l'exemple d'avoir les coordonnées à 10-20cm ou à 10-20m).
Constraint satisfaction: Une information précise est encodée grâce à plusieurs critères activés en même temps.
Concurrent processing: Des sous-systèmes activés en parallèles sont utilisés pour faire plusieurs types de cartographie de l'espace.
Opportunism: Les mécanismes qui ont été spécialisés pour une tâche peuvent toujours changer et être re-spécialisés dans une autre.


Source: Kosslyn, S. M., Chabris, C. F., Marsolek, C. J., & Koenig, O. (1992). Categorical versus Coordinate spatial relations: computational analyses and computer simulations, in Journal of experimental psychology, 18 (2), 562-577

jeudi 18 novembre 2010

Phelps, E. A., & al. (2006). L'émotion facilite la perception et aide l'orientation de l'attention

Est-ce que les émotions modifient ce que l'on voit? La réponse est "oui", selon cette étude...


L'attention est un processus qui permet de sélectionner les informations pertinentes qu'on va pouvoir traiter par la suite grâce à un autre processus cognitif. Là dessus, l'émotion, on le sait déjà, affecte la vitesse à laquelle l'information pertinente va être sélectionnée, évitant par exemple les  phénomènes de blindness dont on a déjà parlé (Rensink, 2000). 
Les études ont déjà déterminé que la région principale de l'émotion qui maîtrisait l'attention était l'Amygdale, qui peut renvoyer un feedback aux aires visuelles, et ainsi sélectionner ce qu'il vaut mieux voir. Cela ne va pas jusqu'à dire que l'on altère la vision pour autant. Il y a cependant un lien déjà établit sur le fait que l'attention, elle, peut améliorer la perception (on voit mieux et plus de choses quand on est attentif), ce parce qu'elle permet de changer le contraste des perceptions (augmentant le contraste de ce sur quoi on se focalise, par exemple).

Hypothèses
Les émotions interagissent avec l'attention pour moduler les stades les plus précoces de la perception visuelle. Plus particulièrement quand la cible de l'attention est une image de peur.

Ils vont utiliser deux expériences. La première, pour savoir si l'émotion influence les perceptions précoces, indépendamment de l'attention. La deuxième, pour savoir comment elle joue avec l'attention pour modifier le contraste des informations perceptives. 

Expérience 1: Est-ce que l'émotion 
améliore la perception ?

Dans cette expérience, ils ont manipulé la valence des stimuli, c'est à dire la puissance de l'émotion qu'ils produisaient. Les stimuli étaient soient effrayants, soit neutres. Si l'émotion améliore la perception, quelque soit le processus attentionnel, l'hypothèse est que les visages de peur auront des seuils de contraste moins élevés que les visages neutres.

Méthode - Expérience 1
14 étudiants New-Yorkais ont participé à l'étude. Il y avait sur un écran un carré toujours présent, comme point de fixation, et 4 images qui apparaissaient simultanément. Une était la cible, les autres étaient distractrices. La cible était penchée (8°) alors que les autres visages étaient verticaux. Il y avait 11 visages de peur et 11 visages neutres, chaque visage effrayé était également représenté avec l'émotion neutre. Il y avait 6 visages de femmes et 5 visages d'hommes.
Le point de fixation apparaissait pendant 500 ms, puis venait un visage de peur ou neutre présenté pendant 75 ms, puis un écran avec juste le point de fixation pendant 50 ms, puis enfin les 4 cibles pendant 40 ms. Les sujets devaient répondre si le visage était penché vers la droite ou la gauche. Il y avait 10 blocs de 120 essais chacun. 

Résultats - Expérience 1
  • Si un visage de peur était présenté en amorce, alors les sujets avaient une diminution du seuil de contraste pour les images venant ensuite. Autrement dit, le niveau de contraste nécessaire pour déterminer l'orientation était inférieur si le stimulus priming était un stimulus de peur.
  • La présence d'un visage de peur augmente la sensibilité au contraste (autrement dit diminue le seuil). 
Ceci est la première démonstration que l'émotion altère la vision, et affecte donc bien la manière dont les gens voient. 

Expérience 2: Est-ce que l'émotion interagit 
avec l'attention pour affecter les processus de vision?

Hypothèses
Ils s'attendent à ce que quand l'amorce du visage est présentée de manière focalisée dans un coin de l'écran, il y aura des seuils de contraste moins élevés que quand c'est une présentation distribuée dans tous les cadrans de l'écran.
Si l'émotion interagit avec l'attention pour affecter la vision, alors l'effet de l'émotion sur le seuil de contraste (les résultats de l'exp 1) sera différent selon l'attention employée (distribuée ou focalisée).

Matériel
Schéma de l'écran d'amorçage, pour la condition en attention focalisée ou en attention distribuée.
Ils ont reprit le même matériel que l'expérience 1, à savoir des visages soit émotionnellement parlant, soit neutres, qu'ils ont présentés en amorce soit dans un coin de l'écran, soit au centre, en en mettant 4 identiques (c'est là que ça diffère). Il y avait 6 sujets. Ils devaient toujours dire quelle cible était orientée non verticalement le plus rapidement possible. Les visages en priming étaient toujours présentés soit à l'endroit, soit à l'envers (condition contrôle où l'émotion n'est plus reconnaissable). Les SOA, ISI, etc. étaient les mêmes que dans l'expérience 1. On demandait toujours aux sujets de fixer la croix au centre tout au long de l'expérience. Il y avait 40 essais par condition, donc 320 essais au total par passation (8 conditions: les visages neutres vs de peur; l'attention focalisée vs distribuée; le visage droit ou inversé!)

Résultats
  • Le seuil de contraste (il faut toujours m'expliquer ce que ça veut dire...) est plus faible pour l'attention focalisée que distribuée.
  • Ils ont retrouvé l'effet de l'émotion du visage sur le seuil de contraste, comme pour l'exp. 1.
  • Il y avait un effet plus grand de l'émotion pour l'attention focalisée que l'attention distribuée. La sensibilité est donc la plus grande pour l'émotion en attention focalisée.
  • L'émotion n'oriente l'attention que pour les visages dans le bon sens, par pour les visages inversés.

Discussion
A la fois l'émotion et l'attention augmentent l'activité des zones visuelles. Pour l'émotion, ce serait une influence Feedforward de l'amygdale. Dans le cas de l'attention, ce serait une influence du réseau fronto-pariétal ventral, autrement dit la jonction temporo pariétale et cortex frontal ventral.
L'émotion ne fait pas que s'ajouter à l'attention pour augmenter la sensibilité de la vision, l'émotion vient renforcer les potentialisations provoquées par l'attention.
Il semblerait que l'amygdale ait des afférences directes avec le gyrus fusiforme (responsable de la perception des visages), étant donné que le gyrus fusiforme répond aux visages de peur plus fortement qu'aux visages neutres.



Source: Phelps, E. A., Ling, S., Carrasco, M. (2006). Emotion Facilitates Perception and Potentiates the Perceptual Benefits of Attention, in Psychological Science, 17 (4), 292-299

mardi 16 novembre 2010

Dapretto, M. & al. (2006). Comprendre les émotions des autres : les dysfonctionnements des neurones miroirs chez les autistes

Les autistes ont des problèmes dans les tâches sociales, c'est bien connu. Un autiste a du mal à comprendre les émotions d'autrui notamment, il a du mal à adapter son comportement, à imiter, etc. Les tests diagnostiques (tels que l'ADI et l'ADOS) ont d'ailleurs une partie entière sur ces problèmes sociaux chez les autistes. Les auteurs ont trouvé un déficit du système de neurones miroirs (contenu dans la partie operculaire du gyrus frontal inférieur) chez les autistes.

Hypothèse
Les autistes ont une activation moindre des neurones miroirs et des structures limbiques quand ils observent ou imitent des visages émotionnellement saillants, par rapport à des enfants normaux. 

Matériel
10 sujets autistes de 12 ans, sans autre problème connu, ainsi que 10 enfants normaux, appariés selon l'âge et le QI ont passé l'expérience. L'expérience consistait à soit observer, soit imiter un visage présenté sur un écran pendant 2 secondes (avec 3 secondes de pause), tout en étant placé dans un IRMf.
Les stimuli étaient 80 visages humains d'hommes et de femmes représentant des émotions (peur, joie, tristesse, colère, dégout, neutralité). Ils étaient présentés une première fois lors d'un prétest à l'extérieur de l'IRMf, une seconde fois lors d'une première tâche (soit imitation, soit observation) dans l'IRMf, et une dernière fois lors du second passage dans l'IRMf (pour l'autre tâche).
On a observé les images IRMf du cerveau entier. On a récolté 96 images par sujet. (les 80 visages + 16 images pendant les croix de fixation nécessaires pour rediriger l'attention des enfants autiste vers les yeux).

Résultats
Activation des aires du cerveau pour les sujets normaux (control group), les autistes (ASD group) et différences d'activation entre les deux groupes. On voit bien l'activation plus importante du pars opercularis chez les sujets normaux.
  • Plus grande activation du Pars Opercularis (Partie operculaire du gyrus frontal inférieur) chez les sujets non autistes, pour l'observation comme pour l'imitation.
  • Plus grande activation du système limbique pour les sujets normaux, que ce soit pour l'observation ou l'imitation.
Discussion
La partie operculaire du gyrus frontal inférieur est connue pour être la zone siège des neurones miroirs. Un dysfonctionnement dans cette zone atteste donc d'un déficit de neurones miroirs. Les neurones miroirs étant pensés comme le substrat neuronal de l'empathie, les problèmes sociaux des autistes pourraient être expliqués par ces déficiences neuronales dans les neurones miroirs spécifiquement. Ceci couplé avec d'autres zones du cerveau, bien entendu, comme par exemple l'insula et l'amygdale, moins activés également, et qui font le lien avec les émotions.
Attention néanmoins à ne pas réduire la pathologie autistique au simple déficit de neurones miroirs!

Le fait que les autistes aient des problèmes de neurones miroirs est actuellement discuté dans la littérature et selon la tâche demandé, une activation est parfois observée dans d'autres études sur cette même zone des neurones miroirs.


Source: Dapretto, M., Davies, M. S., Pfeifer, J. H., Scott, A. A., Sigman, M., Bookheimer, S. Y.,  Iacoboni, M. (2006). Understanding emotions in others: mirror neuron dysfunction in children with autism spectrum disorders, in Nature Neuroscience, 9, 28-30

mardi 9 novembre 2010

Brosch, T. & al. (2007). Au delà de la peur : orientation de l'attention rapide vers les stimuli positifs

Les théories de l'attention en lien avec l'émotion attestent à coup sûr qu'un stimulus négatif (comme la peur, par exemple) orientent notre attention. Personne n'avait trouvé de preuves comme quoi c'était la même chose pour les stimuli positifs (un visage heureux, par exemple). Le nombre de preuves disant même qu'il n'y avait pas un tel effet pour les stimuli positifs s'accumulaient même suffisamment pour émettre une théorie d'un module particulier de la peur qui serait lié à l'attention. Les auteurs viennent ici réfuter cette théorie et amener des preuves comme quoi il existe un tel effet pour les stimuli positifs, si tant est qu'ils aient la même importance philogénétique que les stimuli de peur.
Réagir à un stimuli de peur est expliqué de manière phylogénétique, il était essentiel de réagir vite à la peur, parce qu'avoir peur pouvait attenter à notre vie. Dans les études précédentes, le stimulus positif n'avait pas un tel enjeu. Ils ont donc cherché un stimulus positif avec autant d'importance phylogénétique pour utiliser ce qui est comparable...

Hypothèse
Il existe un système général de modulation de l'attention par l'émotion, quelque soit sa valence (positive ou négative):
  • "Une émotion positive est tout aussi capable de produire un changement rapide de l'attention qu'un stimulus négatif."

Matériel
Ils ont fait passé une dot-probe task à 20 étudiants (moyenne d'âge: 24 ans), dont 15 femmes, avec comme images d'amorce des visages adultes à expression neutre, des visages d'adultes en colère, et des images de bébés ressemblants aux standards du Kindchenschema (la liste des caractères qui font qu'un bébé a un effet positif sur les gens (ex. joues rondes, grands yeux, etc.))
Qu'est-ce que la dot-probe task?
La dot-probe task: On présente une croix au centre d'un écran, suivie par deux images, dont une connotée émotionnellement (positivement ou négativement), puis à nouveau la croix de fixation, puis un triangle soit sur le côté de l'image positive (condition valide) soit du côté de l'image neutre (condition invalide). On mesure le temps de réponse du sujet et le pourcentage d'erreurs. On demande au sujet de cliquer quand la flèche pointait vers le haut pour certains, et vers le bas pour d'autres.
 
Il y avait 8 essais avec les visages d'adultes en colère (présentées en même temps que les images d'adultes neutres) et 8 essais avec les visages de bébés (présentés en même temps que les images de bébés neutres). En tout, on faisait passer au participant 4 blocs de 160 essais (après 1 bloc de 12 essais d'entrainement).

On enregistre également les données par un EEG et une analyse ERP.

Résultats
  • Les sujets ont mieux su dire dans quel sens était le triangle si celui-ci était du côté de l'image positive que neutre.
  • Il n'y avait pas d'effet sur le type d'émotion véhiculée par les images (positive ou négative)
  • P1, la première onde enregistrée dans le cerveau, est plus importante quand on est dans la situation valide (le triangle du côté de l'image émotionnelle). Ce également pour chaque émotion prise indépendamment.
  • Pas de différence à l'ERP entre les types d'émotions
  • Il n'y a pas de différence entre les essais avec le bébé et les essais avec l'adulte en colère.
Discussion
Ils ont donc trouvé que l'attention se fixait plus facilement vers un stimulus chargé émotionnellement, comme toutes les autres études, mais que cela se faisait quelque soit la valence du stimulus (qu'il soit positif ou négatif), pour peu qu'on choisisse un stimulus positif aussi important phylogénétiquement que les images de peur: là est l'intérêt, s'il n'existe pas de différence entre les différentes valences d'émotions qui contrôlent l'attention, alors on peut penser qu'il existe bien un système global de contrôle de l'attention par l'émotion, c'est ce qu'a postulé les théories de l'apraisal. Surtout que, pour confirmer leurs propos, il semble que ce soit les mêmes structures qui soient impliquées dans la modulation de l'attention pour les deux types d'émotions. 


Source: Brosch, T.,  Sander, D., Pourtois, G., Scherer, K. R. (2007). Beyond Fear: Rapid Spatial Orienting Toward Positive Emotional Stimuli, in Psychological Science, 19 (4), 362-370

jeudi 4 novembre 2010

Spivey, M. J. & al. (2005). Attraction continue de l'attention à travers des compétiteurs phonologiques

L'idée de cet article est d'utiliser une nouvelle méthode pour confirmer la théorie selon laquelle l'activation des aires du langage suite à un stimulus visuel est constamment actualisée tout au long de la présentation d'un stimulus.

Lorsqu'une information est perçue, il semblerait que les sous-systèmes neuronaux responsables du traitement perceptif et cognitif attendent jusqu'à être sûr du résultat, avant de le passer à la zone suivante qui traitera un autre point. Pourquoi ils ne sont pas sûrs tout de suite? Parce que plusieurs représentations seraient activées en parallèle, et que c'est tout un processus pour essayer de faire correspondre la perception à nos différentes représentations activées, pour trouver la plus adaptée. L'activation de plusieurs représentations lexicales est appelée "cohorte". 
Exemple: quand on entend souris et souriant, les mots se ressemblant, les études qui ont regardé le mouvement des yeux pendant la tâche de décision ont montré qu'on n'était pas tout de suite sûr de quel mot choisir, il y a un processus qui s'actualise dans le temps jusqu'à décision de quel mot correspond le plus à ce qu'on veut (lequel est un animal, par exemple).

Dans l'expérience de cet article, ils ont testé une nouvelle méthode pour retrouver les mêmes données, et ont trouvé des résultats intéressants: il s'agit de suivre le mouvement du doigt au cours du temps dans une tâche pointage. 

Méthode - expérience humaine
24 étudiants ont été choisis pour effectuer la tâche. Pour la tâche, ils présentaient deux images en couleur sur un écran (une image cible et une image distractive) et un fichier audio pré-enregistré leur disait le nom d'une des images, sur laquelle ils devaient cliquer.
Pour commencer chaque essai, les participants devaient cliquer sur une case en bas de l'écran. Les images apparaissent en haut à gauche et à droite de l'écran, et le son commençait 500ms après, de sorte que les participants commencent à bouger la souris avant que le mot ne soit complètement entendu. On enregistre la trajectoire de la souris. 
Il y avait un cas où les deux images avaient un nom qui se ressemblait (candle et candy par exemple), c'était la condition "cohorte" et un autre cas où les noms ne se ressemblaient pas, donc la condition contrôle. Les mots dits étaient ceux de l'image de gauche ou de droite, aléatoirement.

Résultats
  • Le temps de réponse de la condition "cohorte" (où le nom des deux images était similaire) est plus long que les temps de la condition contrôle.
  • Pas de différence entre les conditions pour le temps mit à commencer le mouvement, ils l'ont tous commencé avant la fin du mot (environ 345 ms après l'apparition des images).
  • La longueur du mouvement effectué était en moyenne plus grande pour la condition "cohorte".
  • Les mouvements commençaient tous à peut près au centre, mais ils déviaient pour aller vers l'image cible plus tard pour la condition cohorte, ce qui indique que le processus a eu plus de mal à effectuer son choix, étant donné que les mots se ressemblaient.

Méthode - simulation
Ils ont créé une modélisation du fonctionnement de la reconnaissance de mot en utilisant des "lexical nodes" (des neurones lexicaux). Ils ont fait en sorte que ces neurones artificiels ne répondent qu'avec les mots présents sur les images, et ne soient pas influencés par d'autres mots non présents dans la liste, cela en manipulant le poids de chacun (c'est à dire que les neurones artificiels qui codaient les mots non présents n'avaient aucune connexion (poids 0) alors que les autres en avaient déjà une, et elle peut donc être renforcée alors que la première, non).
Ils ont également simulé le mouvement de la main sur la souris, en codant à la fois l'hésitation et les différents ralentissements (quand on approche de la cible, ou quand on est à peu près au milieu du mouvement).

Résultats
Ils ont retrouvés par la simulation le résultat selon lequel le mouvement de la main (artificielle, cette fois-ci) restait sur la ligne médiane entre les deux images plus longtemps quand les mots se ressemblaient. Les courbes de trajectoire sont quasi sensiblement les mêmes.

Discussion
Ces résultats donnent des preuves fortes pour une théorie de l'actualisation des données acoustiques-phonétiques dans la reconnaissance de mots.
De plus, l'actualisation sur les données langagière se fait dans le cortex temporal,  celle de la vision dans le cortex occipital, mais elle correspond aussi à l'actualisation du cortex moteur. au cours du temps, de la même manière que le cortex temporal s'actualise au fur et à mesure qu'il reçoit des informations du cortex visuel. Là où c'est fort, c'est que l'on peut donc observer l'actualisation des processus de décision lexicale grâce aux mouvements (comme le suivi du pointage du doigt (= hand tracking)).
On retrouve cette correspondance d'actualisation de processus sur d'autres systèmes: le langage des signes ou le suivi d'instructions orales, par exemple.

On avait déjà découvert un moyen de regarder ce phénomène: le suivi des saccades oculaires. On en a maintenant un autre: le suivi du mouvement de la main. Le premier est temporellement bon, le second est spatialement bon. L'idéal est donc de coupler les deux...
"The present findings demonstrate that the continuous processing of a spoken word is observable in the continuous execution of motor output, consistent with a nonstop cascaded sharing of information among perception, cognition and action" (p. 10398)


Source: Spivey, M. J., Grosjean, M., Knoblich, G. (2005). Continuous attraction toward phonological competitors, in PNAS, 102 (29), 10393-10398