jeudi 4 novembre 2010

Spivey, M. J. & al. (2005). Attraction continue de l'attention à travers des compétiteurs phonologiques

L'idée de cet article est d'utiliser une nouvelle méthode pour confirmer la théorie selon laquelle l'activation des aires du langage suite à un stimulus visuel est constamment actualisée tout au long de la présentation d'un stimulus.

Lorsqu'une information est perçue, il semblerait que les sous-systèmes neuronaux responsables du traitement perceptif et cognitif attendent jusqu'à être sûr du résultat, avant de le passer à la zone suivante qui traitera un autre point. Pourquoi ils ne sont pas sûrs tout de suite? Parce que plusieurs représentations seraient activées en parallèle, et que c'est tout un processus pour essayer de faire correspondre la perception à nos différentes représentations activées, pour trouver la plus adaptée. L'activation de plusieurs représentations lexicales est appelée "cohorte". 
Exemple: quand on entend souris et souriant, les mots se ressemblant, les études qui ont regardé le mouvement des yeux pendant la tâche de décision ont montré qu'on n'était pas tout de suite sûr de quel mot choisir, il y a un processus qui s'actualise dans le temps jusqu'à décision de quel mot correspond le plus à ce qu'on veut (lequel est un animal, par exemple).

Dans l'expérience de cet article, ils ont testé une nouvelle méthode pour retrouver les mêmes données, et ont trouvé des résultats intéressants: il s'agit de suivre le mouvement du doigt au cours du temps dans une tâche pointage. 

Méthode - expérience humaine
24 étudiants ont été choisis pour effectuer la tâche. Pour la tâche, ils présentaient deux images en couleur sur un écran (une image cible et une image distractive) et un fichier audio pré-enregistré leur disait le nom d'une des images, sur laquelle ils devaient cliquer.
Pour commencer chaque essai, les participants devaient cliquer sur une case en bas de l'écran. Les images apparaissent en haut à gauche et à droite de l'écran, et le son commençait 500ms après, de sorte que les participants commencent à bouger la souris avant que le mot ne soit complètement entendu. On enregistre la trajectoire de la souris. 
Il y avait un cas où les deux images avaient un nom qui se ressemblait (candle et candy par exemple), c'était la condition "cohorte" et un autre cas où les noms ne se ressemblaient pas, donc la condition contrôle. Les mots dits étaient ceux de l'image de gauche ou de droite, aléatoirement.

Résultats
  • Le temps de réponse de la condition "cohorte" (où le nom des deux images était similaire) est plus long que les temps de la condition contrôle.
  • Pas de différence entre les conditions pour le temps mit à commencer le mouvement, ils l'ont tous commencé avant la fin du mot (environ 345 ms après l'apparition des images).
  • La longueur du mouvement effectué était en moyenne plus grande pour la condition "cohorte".
  • Les mouvements commençaient tous à peut près au centre, mais ils déviaient pour aller vers l'image cible plus tard pour la condition cohorte, ce qui indique que le processus a eu plus de mal à effectuer son choix, étant donné que les mots se ressemblaient.

Méthode - simulation
Ils ont créé une modélisation du fonctionnement de la reconnaissance de mot en utilisant des "lexical nodes" (des neurones lexicaux). Ils ont fait en sorte que ces neurones artificiels ne répondent qu'avec les mots présents sur les images, et ne soient pas influencés par d'autres mots non présents dans la liste, cela en manipulant le poids de chacun (c'est à dire que les neurones artificiels qui codaient les mots non présents n'avaient aucune connexion (poids 0) alors que les autres en avaient déjà une, et elle peut donc être renforcée alors que la première, non).
Ils ont également simulé le mouvement de la main sur la souris, en codant à la fois l'hésitation et les différents ralentissements (quand on approche de la cible, ou quand on est à peu près au milieu du mouvement).

Résultats
Ils ont retrouvés par la simulation le résultat selon lequel le mouvement de la main (artificielle, cette fois-ci) restait sur la ligne médiane entre les deux images plus longtemps quand les mots se ressemblaient. Les courbes de trajectoire sont quasi sensiblement les mêmes.

Discussion
Ces résultats donnent des preuves fortes pour une théorie de l'actualisation des données acoustiques-phonétiques dans la reconnaissance de mots.
De plus, l'actualisation sur les données langagière se fait dans le cortex temporal,  celle de la vision dans le cortex occipital, mais elle correspond aussi à l'actualisation du cortex moteur. au cours du temps, de la même manière que le cortex temporal s'actualise au fur et à mesure qu'il reçoit des informations du cortex visuel. Là où c'est fort, c'est que l'on peut donc observer l'actualisation des processus de décision lexicale grâce aux mouvements (comme le suivi du pointage du doigt (= hand tracking)).
On retrouve cette correspondance d'actualisation de processus sur d'autres systèmes: le langage des signes ou le suivi d'instructions orales, par exemple.

On avait déjà découvert un moyen de regarder ce phénomène: le suivi des saccades oculaires. On en a maintenant un autre: le suivi du mouvement de la main. Le premier est temporellement bon, le second est spatialement bon. L'idéal est donc de coupler les deux...
"The present findings demonstrate that the continuous processing of a spoken word is observable in the continuous execution of motor output, consistent with a nonstop cascaded sharing of information among perception, cognition and action" (p. 10398)


Source: Spivey, M. J., Grosjean, M., Knoblich, G. (2005). Continuous attraction toward phonological competitors, in PNAS, 102 (29), 10393-10398

Aucun commentaire :

Enregistrer un commentaire