vendredi 6 janvier 2012

Tillmann et al. (2010). Influence du contexte sur le traitement en musique et en langage

Votre avis :  
Le contexte désigne le fait que d'autres signaux précèdent le signal à traiter. 
L'effet du contexte désigne le fait que le traitement de ce signal est influencé par ce qui a été entendu auparavant.
Les deux faits sont connus principalement en psychologie linguistique, mais qu'en est-il de la musique ? La linguistique et la musique procèdent tous deux de phénomènes oraux, et sont traités par des zones similaires. Comment alors utiliser le paradigme d'amorçage pour mieux comprendre la musique ? Qu'est-ce que chaque domaine a à apporter à l'autre ?
Les auditeurs, quels qu'ils soient, ont toujours des connaissances (implicites ou explicites) sur les régularités qu'on trouve dans la musique, dans sa structure surtout. Entendre un contexte (le début d'un morceau, un accord ou une note) va réactiver ces connaissances, comme dans n'importe quel phénomène d'amorçage, et provoquer des attentes quant à ce qu'il est plus probable d'entendre à la suite du contexte, des attentes qui vont faciliter ou inhiber le traitement cognitif de l'événement futur. 

Le paradigme d'amorçage
Il s'agit d'une méthode d'investigation indirecte qui permet d'étudier l'influence des attentes perceptives sur la vitesse et la précision de traitement d'un événement. Dans les expérimentations, l'avantage de cette méthode est qu'elle est indirecte, c'est à dire qu'elle permet d'étudier un phénomène sans que la personne n'en soit consciente. La personne effectue par exemple une tâche de décision lexicale (dire si ce qu'elle entend est un mot ou pas) pendant que les temps de réponses sont enregistrés. C'est sur les temps de réponse que l'on pourra interpréter la facilitation ou l'inhibition due à une activation d'un contexte lié avec une cible (ex : une mélodie qui va annoncer un accord plus qu'un autre). En musique, on n'utilise pas une tâche de décision lexicale, mais une tâche de consonnance/dissonance (dire si un accord sonne "juste" ou "faux"), ou une tâche d'identification de timbre (accord joué par instrument B ou A?) ou une identification de syllabes quand on utilise le chant (dire si c'est chanté sur du /di/ ou du /du/).

Effets d'amorçage en contexte court
On a vu que le contexte était ce qui précédait un signal à traiter. Ce contexte commence même s'il ne s'agit que d'un mot ou d'un accord. C'est ce qu'on appelle le contexte court. On manipule la relation entre le contexte (dit amorce, d'où le nom de paradigme d'amorçage) et le signal à traiter (dit cible).
On a pu observer en linguistique (quand l'amorce est un mot) que les relations de type sémantique (un sens commun) facilitent le traitement de la cible. C'est également le cas, de manière encore plus forte, lorsque l'on répète deux fois le même mot en amorce et en cible.

Théorie explicative (Collins et Quillian, 1969) : les connaissances forment un réseau de relation sémantiques. Chaque concept sémantique (mot) est représenté en mémoire par une unité (nœud) relié à d'autres unités proches. La présentation d'un concept va donc, par le principe de Hebb, activer fortement les concepts proches, directement reliés, et un peu moins les concepts plus éloignés. Il peut aller jusqu'à inhiber les concepts qui sont trop éloignés. Réactiver un même concept (la répétition) est donc ce qui sera le plus fort car aucune force d'activation ne se sera perdue de proches en proches.

Ce qui fonctionne pour les mots fonctionne de la même manière avec les accords en musique. La seule différence est que la relation sémantique (on entend par là en musique des accords qui sont dans la même tonalité et ont plus de probabilité d'arriver, comme le couple V-I, sol-do, par exemple) est plus forte que la répétition d'un même accord.

Effets d'amorçage en contexte long
Utiliser non plus des mots mais des phrases entières est important car cela permet de se rapprocher de la réalité (situation écologique). Randomiser l'ordre des mots dans la phrase contexte faisant diminuer les effets d'amorçage, on est obligé d'admettre que la phrase (sa syntaxe et son sens global) influe sur le sens du mot cible, plus qu'un seul mot relié sémantiquement. Ces résultats se retrouvent pour la musique, où le contexte long est constitué soit par une suite d'accord soit par une mélodie qui installe une tonalité (de sorte qu'on s'attende plus à avoir les notes dominantes dans cette tonalité, la tonique, par exemple)

Amorçage par répétition : Langage vs Musique
Amorçage par répétition : le fait que le traitement d'un événement qui a déjà été traité précédemment est facilité par rapport au traitement d'un nouvel événement non répété. Dans un contexte court et en langage, l'amorçage par répétition surpasse tout le reste : tous les mots sont plus faciles à traiter pour une seconde fois. Cet effet dure longtemps (jusqu'à 16 essais après le mot amorce).
Curieusement, cet effet fort de la répétition ne se retrouve pas dans la musique. Dans la musique, il semble que les relations sémantiques surpassent tout autre type de lien. Cela est normal, si on réfléchit à la structure de la musique : deux accords s'enchainent rarement, on entendra plutôt un accord relié (tonique, etc.). Ces résultats sont valables à la fois en contexte court et long, où, dans tous les cas, l'amorçage par répétition est inférieur.
Intérêt de la comparaison entre l'amorçage en langage et en musique
La comparaison des résultats issus du langage et de la musique a permit de comprendre cette différence observée : lorsque le contexte est suffisant, on s'attend plus à un lien sémantique qu'à une répétition. Un accord est suffisant pour induire un contexte, un mot, non, parce que les accords ont l'habitude d'être reliés (Sol-Do s'entend souvent, il s'agit de l'enchainement de la cadence parfaite V-I).

Effets de contexte : effets de facilitation ou d'inhibition ?
Globalement, on observe un effet de facilitation pour les mots reliés, et pas d'effet pour ce qui n'est pas relié, sauf si les mots ou les accords ne sont tellement pas reliés qu'ils inhibent le traitement (un mot qui n'a rien à voir, ou un accord hors tonalité, c'est à dire opposé sur le cycle des quintes).

Corrélats neuronaux des effets de contexte en langage et musique ?
En ce qui concerne le langage, on a identifié des ondes cérébrales (par EEG) qui répondent aux violations syntaxiques : Early Left Anterior Negativity ELAN (P600). On a la même chose pour les violations sémantiques (N400). Comment interpréter ces noms (P600 et N400) : N ou P est pour Négatif ou Positif. Une onde positive est le signe d'une activité cérébrale plus forte que la normale, indiquant une activation. Une onde négative est le signe d'une activité cérébrale plus faible que la normale, indiquant une inhibition.
En musique, on a également identifié des ondes ERAN (idem que ELAN mais à droite, cette fois-ci) : P300, P600 et N5. L'onde P300 apparait plus élevée notamment quand on a deux accords non reliés qui se suivent par rapport à quand ce sont deux accords reliés.

La violation syntaxique des mots est repérée notamment par le gyrus frontal inférieur gauche et droit (un peu plus à gauche néanmoins). On a également une activation plus forte de l'opercule frontal gauche en cas de violation syntaxique. Curieusement, les mêmes zones sont activés avec les violations musicales ! En musique, on a juste des zones qui s'ajoutent à celles déjà vues, en cas de violation : des régions temporales supérieures (gyrus temporal supérieur antérieur, gyrus supérieur postérieur, et gyrus médium) et des régions pariétales droites (gyrus supramarginal).

Interaction entre les effets de contexte en musique et en langage : syntaxe - sémantique
Des cas en neuropsychologie ont montré une double dissociation entre le traitement de la musique et du langage, d'où une indépendance de traitement entre musique et langage. D'autres études ont pourtant montré que les deux processus étaient liés dans une certaine mesure (comme on peut déjà le voir avec les corrélats neuronaux).
Ils ont de plus remarqué une interaction entre ces deux processus : le traitement de la musique influence le traitement du langage. Le résultat trouvé est que l'effet d'amorçage sémantique était plus fort pour les mots cible chantés sur l'accord de tonique (cible congruente en musique) que pour ceux chantés sur l'accord de sous-dominante (cible moins attendue). Cela se traduit par un temps de traitement plus court des mots quand ils sont présentés en même temps qu'un accord cible congruent. Cela nous indique déjà un indice de la manière dont l'environnement sonore peut faciliter le traitement des informations. On explique cela en terme de ressources attentionnelles partagées.
L'effet est surtout présent sur les relations syntaxiques, les structures musicales entendues modulent le traitement syntaxique, mais le traitement sémantique de mots présentés visuellement. C'est surtout sur le point de la syntaxe que le langage et la musique partagent leurs ressourcent attentionnelles et cognitives. (Hypothèse SSIRH - Shared Syntactic Integration Resources Hypothesis)


Source : Tillmann, B., Hoch, L., Marmel, F. (eds.). Influence du contexte sur le traitement en musique et en langage. In R. Kolinski, J. Morais & I. Peretz (2010). Musique, Langage, Emotion : approche neuro-cognitive. PUR : Rennes, 11-33

Aucun commentaire :

Enregistrer un commentaire