Accès gratuit
Numéro
Med Sci (Paris)
Volume 23, Numéro 11, Novembre 2007
Page(s) 917 - 922
Section M/S revues
DOI https://doi.org/10.1051/medsci/20072311917
Publié en ligne 15 novembre 2007

© 2007 médecine/sciences - Inserm / SRMS

Le monde sonore des non-voyants

Chez tout individu, la vision joue un rôle prépondérant dans l’acquisition d’informations relatives à son environnement : elle facilite notamment ses déplacements. Ainsi, les personnes privées de la vue doivent effectuer d’importants ajustements pour compenser cette perte et interagir de manière efficace avec le monde qui les entoure.

Les interrogations liées aux mécanismes susceptibles de pallier l’absence d’une modalité sensorielle si importante passionnent les chercheurs depuis fort longtemps. Déjà au 18e siècle, Diderot avait émis l’idée que les personnes aveugles de naissance compensaient l’absence du sens de la vue en développant les autres sens et, principalement, ceux de l’ouïe et du toucher. Depuis, les études expérimentales ont donné lieu à l’émergence de deux hypothèses [1]. L’une propose que les personnes non-voyantes devraient être sévèrement handicapées puisque la vision joue chez l’humain un rôle important dans le développement de la représentation de l’espace [2]. L’autre, en accord avec ce qu’affirmait Diderot, suggère plutôt que les autres modes sensoriels permettraient de compenser la perte de la vue et qu’une conception appropriée de l’espace pourrait donc être formée [3]. La majorité des études réalisées au cours de la dernière décennie appuient davantage cette deuxième explication [4].

Notre laboratoire se consacre depuis plusieurs années à l’étude de la plasticité cérébrale consécutive à la perte d’un des cinq sens et s’attache particulièrement au développement du sens de l’ouïe chez les aveugles. Les différents travaux de recherche que nous avons effectués appuient l’hypothèse de la compensation intermodale chez la personne atteinte de cécité.

En 1998, Lessard et al. [5] ont publié, dans la revue Nature les résultats d’une étude portant sur la localisation sonore chez les personnes aveugles précoces soumises à deux situations expérimentales. Elles devaient d’abord localiser la provenance de sons à l’aide des deux oreilles (présentation binaurale) puis, dans un deuxième temps, à l’aide d’une seule oreille, l’autre étant obstruée (présentation monaurale). Lorsqu’ils pouvaient se servir des deux oreilles, les sujets aveugles, tout comme les voyants, arrivaient à bien identifier la provenance des sons. Cependant, lorsqu’ils ne pouvaient utiliser qu’une seule oreille, les voyants présentaient un biais positionnel en faveur de l’oreille non obstruée et ce, que les sons soient émis de façon ipsilatérale ou controlatérale à celle-ci (Figure 1). Chez les participants aveugles, ce phénomène était également présent mais seulement chez la moitié d’entre eux. Cependant, l’autre moitié a localisé adéquatement la provenance des sons, même s’ils étaient émis ipsilatéralement à l’oreille obstruée, et ce dans la quasi-totalité des essais. Il est particulièrement intéressant de relever qu’aucune localisation adéquate n’a été observée chez les 36 participants voyants. Ces résultats étonnants permettent de supposer que les personnes aveugles utilisent les indices monauraux plus efficacement afin d’explorer leur environnement. De plus, ils montrent que la calibration de l’espace azimutal peut être effectuée en l’absence de vision puisque les sujets aveugles arrivent à développer une excellente représentation de l’espace malgré l’absence de la vue. Ces résultats ont, par la suite, été confirmés à plusieurs reprises [68].

thumbnail Figure 1.

Tâche de localisation monaurale. Présentation des résultats pour personnes voyantes(A), un sujet représentatif des sujets aveugles présentant un biais positionnel(B) et un sujet aveugle représentatif de ceux qui ne présentent pas de biais positionnel(C). La ligne pointillée indique la localisation des sources sonores alors que les points indiquent la localisation perçue de cette même source (adaptée de [5]).

Des études subséquentes ont tenté de vérifier si notre hypothèse voulant que les personnes aveugles utilisent plus efficacement les indices monauraux pour explorer leur environnement était valide. Nous avons donc évalué l’effet d’une modification des indices spectraux lors de la localisation de sons émis de manière monaurale [7]. Les sujets aveugles ne présentant pas de biais positionnel ont donc refait la tâche de localisation monaurale tout en étant soumis à différentes modalités d’atténuation des indices spectraux, soit par des modifications de la forme du pavillon de l’oreille avec de la pâte acoustique soit par la filtration de certaines fréquences du son. Dans ces différentes situations, le nombre d’erreurs a augmenté de manière significative, ce qui appuie donc notre hypothèse.

Puisque les études précédentes s’étaient déroulées dans l’espace péripersonnel, il était pertinent de se demander si les capacités supérieures des sujets aveugles pour la localisation de sons pouvaient être attribuées au fait que l’espace proximal peut être calibré par la rétroaction sensori-motrice. Nous avons donc effectué une étude de discrimination auditive où les sons étaient émis à une distance de trois mètres [9]. Cette fois, les participants devaient déterminer si deux sons provenaient du même endroit ou d’endroits différents. Les sujets étaient soumis à trois situations de stimulation, les deux premières consistant à discriminer des sons présentés dans l’espace frontal (devant le participant) et latéral (à la gauche ou à la droite du participant). Dans la troisième, les participants devaient évaluer la distance des stimuli, le premier son étant émis à 3 mètres et le deuxième dans l’intervalle entre cette position et 4 mètres. Lorsque les sons étaient présentés en position frontale ou en position latérale, dans l’hémichamp antérieur à l’axe interaural, les sujets voyants et aveugles réussissaient de manière équivalente. Cependant, les sujets non-voyants, qu’ils aient perdu la vue tardivement ou en bas âge, arrivaient mieux que les voyants à discriminer la provenance des sons lorsque ceux-ci étaient présentés dans l’hémichamp latéral derrière l’axe interaural, et lorsqu’un jugement appréciatif de la distance était requis. Ainsi, les personnes aveugles parviennent à calibrer l’espace extra-personnel malgré l’absence de rétroaction visuelle et tactile permettant de valider cette calibration. De plus, elles présentent des capacités de discrimination supérieures à celles des voyants lorsque les tâches reposent sur l’analyse d’indices auditifs subtils, ce qui corrobore d’ailleurs les résultats d’autres chercheurs [1011].

Nous nous sommes également intéressés aux capacités de discrimination de la hauteur tonale des sons [12]. Dans l’expérience que nous avons menée, les participants entendaient des paires de sons dont la difficulté de discrimination variait soit selon les hauteurs tonales, soit selon les intervalles de temps qui séparaient les deux sons. Les sujets devaient déterminer si la hauteur tonale des deux sons montait ou descendait. Pour ce type de tâche, nous avons montré que les sujets aveugles de naissance présentaient une meilleure performance que les voyants et que les sujets devenus aveugles tardivement. Une corrélation négative était d’ailleurs présente entre l’âge du début de la cécité et la performance à la tâche.

Ces études comportementales soulignent de manière éloquente la capacité des individus aveugles à compenser la perte de stimulation visuelle. En effet, non seulement arrivent-ils à utiliser l’ouïe pour calibrer leur environnement, mais, plus encore, ils réussissent à développer des habiletés telles qu’elles augmentent leur potentiel d’interaction avec ce qui les entoure. Il est donc pertinent de se demander à quoi peuvent être attribuées ces capacités supérieures. Les techniques d’imagerie cérébrale maintenant disponibles nous offrent désormais des moyens d’approfondir davantage nos connaissances et de répondre en partie à cette question.

La cécité révèle un cerveau plastique

Au début des années 1990, il a été démontré que des signaux électriques provenant des régions corticales postérieures, celles où s’effectue normalement le traitement des stimulations visuelles, étaient présents chez les aveugles mais non chez les voyants lors de l’exécution d’une tâche de localisation auditive [13, 14]. Ainsi, ces régions seraient réquisitionnées dans le traitement d’informations auditives chez les non-voyants. De façon analogue, les participants aveugles ayant fait preuve de performances exceptionnelles (voir [5]) participèrent de nouveau à une tâche de localisation sonore mais en se prêtant, cette fois, à l’enregistrement de leurs potentiels évoqués [6]. Chez ces participants, les composantes NI et P3 (pics caractéristiques de l’onde cérébrale en réponse à une stimulation auditive) furent retrouvées non seulement dans les régions centrales, celles qui sont propres au traitement auditif comme chez les sujets voyants, mais également dans les régions occipitales (Figure 2). Ces résultats suggèrent qu’une réorganisation intermodale au niveau cortical surviendrait chez les personnes aveugles et que les structures visuelles désafférentées seraient recrutées afin de permettre le traitement des stimulus auditifs. Par ailleurs, une étude subséquente a démontré que les composantes du spectre de l’EEG des sujets aveugles manifestaient une très grande cohérence entre les cortex occipital et auditif pour ce qui est des ondes thêta, alpha et bêta [15]. Ceci témoigne du fait que l’activité déclenchée dans la zone de traitement normal, c’est-à-dire le cortex auditif, était fortement corrélée avec l’activité produite dans le cortex occipital recruté pour le traitement des stimulus auditifs.

thumbnail Figure 2.

Distribution des composantes N1 (portion gauche de la figure) et P3 (portion droite de la figure) chez les personnes aveugles et voyantes durant une tâche de localisation sonore. Les couleurs rouge-orange correspondent aux régions les plus activées et les couleurs bleu-noir aux régions les moins activées (adaptée de [6]).

Dans une étude ultérieure, les participants aveugles furent répartis en deux groupes selon leur performance liée à la tâche de localisation auditive monaurale. Leur activité cérébrale étudiée à l’aide de la tomographie par émission de positons (TEP) fut comparée à celle de personnes voyantes. Lors de l’exécution d’une tâche de localisation sonore, ces deux groupes ont manifesté des activations cérébrales différentes [8]. En effet, seuls les participants montrant une performance supérieure pour l’exécution de la tâche de localisation monaurale présentaient une activation dans le cortex visuel; ceux ayant une performance normale ne se distinguaient pas des voyants pour les régions activées (Figure 3). De plus, une corrélation a été établie entre le niveau d’activation du cortex et la performance observée chez les aveugles : plus le cortex était activé, meilleure était la performance. Ainsi, un lien clair entre le recrutement du cortex occipital et la performance lors de tâches de localisation sonore a pu être établi. Cette étude a, par la suite, été reprise auprès de participants aveugles ayant perdu la vue tardivement [16]. Ces derniers ne montraient pas de supériorité de performance pour exécuter la tâche de localisation sonore. Cependant, les résultats obtenus attestent qu’une activité est tout de même présente dans le cortex occipital, bien qu’elle soit moins importante que celle observée chez les aveugles précoces. Cela indique qu’une certaine plasticité survient également lorsque la vision est perdue plus tard dans la vie, mais elle semble plus limitée que dans le cas des sujets aveugles précoces et ne semble pas offrir de marge pour une « surperformance » lors de tâches très difficiles.

thumbnail Figure 3.

Localisation sonore et tomographie par émission de positons (TEP). A. Activations cérébrales lors de la tâche de localisation monaurale. À gauche les voyants, au centre les sujets aveugles avec biais positionnel et à droite les sujets aveugles sans biais positionnel. On note la présence d’une activation du cortex occipital seulement chez les sujets aveugles ne présentant pas de biais positionnel. Cette activation ne se retrouve pas chez les personnes voyantes et chez les sujets aveugles non-performants qui présentent tous deux un biais positionnel en faveur de l’oreille non obstruée. B. Les données comportementales correspondantes sont présentées pour la même tâche. Comme pour la Figure 1, la ligne pointillée indique la localisation des sources sonores tandis que les points indiquent la localisation perçue de cette même source. SIG = sujets témoins voyants ; EBNP = sujets aveugles précoces non performants ; EBSP = sujets aveugles précoces supra-performants (adaptée de [8]).

La stimulation magnétique transcrânienne (SMT) est une nouvelle technique de localisation cérébrale qui permet d’étudier les effets de « lésions virtuelles » sur le fonctionnement du cerveau. Comme la SMT perturbe le fonctionnement normal d’une région très précise du cerveau, on en déduit, par conséquent, la fonction de cette région. Ainsi, comme les études présentées jusqu’à maintenant portent à le croire, si le cortex visuel est utilisé par les aveugles pour le traitement de stimulus auditifs, la désactivation de ce cortex devrait perturber leur capacité à bien traiter les sons. C’est exactement ce qui s’est produit lorsque la SMT a été appliquée sur le cortex occipital concurremment à une tâche de localisation auditive : seule la performance des sujets aveugles a subi une diminution tandis que celle des voyants est demeurée inchangée [17]. Ce résultat permet donc, pour la première fois, d’établir un lien de causalité entre le recrutement du cortex occipital et la performance associée à une tâche de localisation auditive, démontrant dès lors que l’activité occipitale observée chez les sujets aveugles n’est pas qu’un simple épiphénomène.

En résumé, ces résultats mettent en lumière l’étonnante capacité du cerveau à se réorganiser après la perte d’un des cinq sens. Les études en cours au sein de notre laboratoire visent à déterminer si de telles facultés supranormales pour ce qui est de stimulations auditives et des réorganisations correspondantes se limitent au sens de l’ouïe ou s’étendent aussi à d’autres sens, tel le toucher, ou à d’autres fonctions, telles la mémoire de travail ou l’orientation dans l’espace [18].

La surdité, similaire à la cécité

Afin d’acquérir davantage d’informations quant à la manière dont le cerveau pallie la perte d’un des cinq sens, nous nous sommes également intéressés à la réorganisation du cerveau des personnes sourdes. De nombreuses études ont démontré qu’une plasticité similaire à celle détectée chez les aveugles existerait également chez les sourds. Il semblerait effectivement que, chez ces personnes, les régions auditives soient mobilisées afin de réaliser des tâches de nature visuelle [1921]. Par ailleurs, le développement de prothèses auditives (implants cochléaires) permet aujourd’hui de rétablir l’audition chez les sujets sourds [22]. Les réussites et les échecs de ces implants nous offrent la possibilité de jeter un nouveau regard sur les processus de plasticité cérébrale. En effet, il semblerait que la plasticité intermodale serait un facteur contrariant le bon fonctionnement de la prothèse [23]. C’est ce qu’a également démontré notre laboratoire [24] en enregistrant, chez des personnes dotées d’un implant cochléaire, les potentiels évoqués par des stimulus visuels.

Dans notre étude, les participants sourds (ayant tous perdu l’audition après l’acquisition du langage) furent répartis en deux groupes selon leur capacité à reconnaître le langage à l’aide de l’implant cochléaire. Des stimulus visuels en mouvement étaient présentés à l’ensemble des participants. Lors de cette tâche, les personnes du premier groupe, celles capables de reconnaître le langage à l’aide de l’implant (performants), présentaient des réponses corticales similaires à celles obtenues chez des sujets entendants, c’est-à-dire une activité cérébrale restreinte aux aires visuelles. Or, pour les personnes du second groupe, celles incapables de reconnaître le langage avec l’implant (non performants), l’activité cérébrale était nettement plus faible dans les aires visuelles et était distribuée plus antérieurement, notamment dans les zones auditives, témoignant ainsi du recrutement de ces aires. Ces résultats corroborent l’idée selon laquelle les difficultés à bénéficier de l’implant cochléaire seraient en partie attribuables à la plasticité qui fait suite à l’apparition de la surdité [25]. Ainsi, chez les individus non performants, les aires auditives sont recrutées pour traiter l’information visuelle et ne seraient plus disponibles pour traiter les entrées auditives qui parviennent maintenant au cortex grâce à l’implant.

Ces divers résultats illustrent la fascinante aptitude que possède notre cerveau pour se réorganiser, ce qui permet de pallier les déficits et d’acquérir des capacités hors du commun. Ils illustrent aussi cependant un paradoxe associé à la plasticité cérébrale : elle peut entraîner des effets indésirables empêchant les aires sollicitées par un autre mode sensoriel de se consacrer de nouveau à leur fonction première lorsque nous tentons de la rétablir grâce à une prothèse.

Références

  1. Rauschecker JP. Compensatory plasticity and sensory substitution in the cerebral cortex. Trends Neurosci 1995; 18 : 36–43. (Dans le texte)
  2. Axelrod S. Effects of early blindness, New York : American Foundation for the Blind, 1959. (Dans le texte)
  3. Rice CE. Early blindness, early experience and perceptual enhancement. Res Bull Am Found Blind 1970; 22 : 1–22. (Dans le texte)
  4. Pascual-Leone A, Amedi A, Fregni F, Merabet LB. The plastic human brain cortex. Ann Rev Neurosci 2005; 28 : 377–401. (Dans le texte)
  5. Lessard N, Paré M, Lepore F, Lassonde M. Early-blind human subjects localize sound sources better than sighted subjects. Nature 1998; 395 : 278–80. (Dans le texte)
  6. Leclerc C, Saint-Amour D, Lavoie ME, et al. Brain functional reorganization in early blind humans revealed by auditory event-related potentials. NeuroReport 2000; 11 : 545–50. (Dans le texte)
  7. Doucet ME, Guillemot JP, Lassonde M, et al. Blind subjects process auditory spectral cues more efficiently than sighted people. Exp Brain Res 2005; 160 : 194–209. (Dans le texte)
  8. Gougoux F, Zatorre RJ, Lassonde M, et al. A functional neuroimaging study of sound localization: visual cortex activity predicts performance in early-blind individuals. PLoS Biol 2005; 3 : 324–33. (Dans le texte)
  9. Voss P, Lassonde M, Gougoux F, et al. Early and late-onset blind individuals show supra-normal auditory abilities in far-space. Curr Biol 2004; 14 : 1734–8. (Dans le texte)
  10. Ashmead DH, Wall RS, Ebinger KA, et al. Spatial hearing in children with visual disabilities. Perception 1998; 27 : 105–22. (Dans le texte)
  11. Röder B, Teder-Sälejärvi W, Sterr A, et al. Improved auditory spatial tuning in blind humans. Nature 1999; 400 : 162–6. (Dans le texte)
  12. Gougoux F, Lepore F, Lassonde M, et al. Pitch discrimination in the early blind. Nature 2004; 430 : 309. (Dans le texte)
  13. Kujala T, Alho K, Paavilainen P, et al. Neural plasticity in processing of sound location by the early blind: an event-related potential study. Electroencephalog Clin Neurophysiol 1992; 84 : 469–72. (Dans le texte)
  14. Kujala T, Huotilainen M, Sinkkonen J. Visual cortex activation in blind humans during sound discrimination. Neurosci Lett 1995; 183 : 143–6. (Dans le texte)
  15. Leclerc C, Segalowitz SJ, Desjardins J, et al. EEG coherence in early blind humans during sound localization. Neurosci Lett 2005; 376 : 154–9. (Dans le texte)
  16. Voss P, Gougoux F, Lassonde M, et al. A positron emission tomography study during auditory localization by late-onset blind individuals. NeuroReport 2006; 17 : 383–8. (Dans le texte)
  17. Collignon O, Lassonde M, Lepore F, et al. Functional cerebral reorganization for auditory spatial processing and auditory substitution of vision in early blind subjects. Cerebr Cortex 2007 online. (Dans le texte)
  18. Fortin M, Voss P, Rainville C, et al. Impact of vision on the development of topographical orientation abilities. NeuroReport 2006; 17 : 443–6. (Dans le texte)
  19. Bavelier D, Brozinsky C, Tomann A, et al. Impact of early deafness and early exposure to sign language on the cerebral organization for motion processing. J Neurosci 2001; 21 : 8931–42. (Dans le texte)
  20. Finney EM, Fine I, Dobkins KR. Visual stimuli activate auditory cortex in the deaf. Nat Neurosci 2001; 4 :1171–3.
  21. Finney EM, Clementz BA, Hickok G, Dobkins KR. Visual stimuli activate auditory cortex in deaf subjects: evidence from MEG. NeuroReport 2003; 14 : 1425–7. (Dans le texte)
  22. Ponton CW, Don M, Eggermont JJ, et al. Auditory system plasticity in children after long periods of complete deafness. NeuroReport 1996; 8 : 61–5. (Dans le texte)
  23. Giraud AL, Price CJ, Graham JM, et al. Cross-modal plasticity underpins language recovery after cochlear implantation. Neuron 2001; 30 : 657–63. (Dans le texte)
  24. Doucet ME, Bergeron F, Lassonde M, et al. Cross-modal reorganization and speech perception in cochlear implant users. Brain 2006; 29 : 3376–83. (Dans le texte)
  25. Lee DS, Lee JS, Oh SH, et al. Cross-modal plasticity and cochlear implants. Nature 2001; 409 : 149–50. (Dans le texte)

Liste des figures

thumbnail Figure 1.

Tâche de localisation monaurale. Présentation des résultats pour personnes voyantes(A), un sujet représentatif des sujets aveugles présentant un biais positionnel(B) et un sujet aveugle représentatif de ceux qui ne présentent pas de biais positionnel(C). La ligne pointillée indique la localisation des sources sonores alors que les points indiquent la localisation perçue de cette même source (adaptée de [5]).

Dans le texte
thumbnail Figure 2.

Distribution des composantes N1 (portion gauche de la figure) et P3 (portion droite de la figure) chez les personnes aveugles et voyantes durant une tâche de localisation sonore. Les couleurs rouge-orange correspondent aux régions les plus activées et les couleurs bleu-noir aux régions les moins activées (adaptée de [6]).

Dans le texte
thumbnail Figure 3.

Localisation sonore et tomographie par émission de positons (TEP). A. Activations cérébrales lors de la tâche de localisation monaurale. À gauche les voyants, au centre les sujets aveugles avec biais positionnel et à droite les sujets aveugles sans biais positionnel. On note la présence d’une activation du cortex occipital seulement chez les sujets aveugles ne présentant pas de biais positionnel. Cette activation ne se retrouve pas chez les personnes voyantes et chez les sujets aveugles non-performants qui présentent tous deux un biais positionnel en faveur de l’oreille non obstruée. B. Les données comportementales correspondantes sont présentées pour la même tâche. Comme pour la Figure 1, la ligne pointillée indique la localisation des sources sonores tandis que les points indiquent la localisation perçue de cette même source. SIG = sujets témoins voyants ; EBNP = sujets aveugles précoces non performants ; EBSP = sujets aveugles précoces supra-performants (adaptée de [8]).

Dans le texte

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.