Les techniques d'imagerie cérébrale

 


« La compréhension que nous avons aujourd’hui des fonctions cérébrales supérieures dépend de la capacité de produire une cartographie fine des circuits de neurones,  grâce aux techniques nouvelles anatomiques et d’imagerie. » (Kandel, Schwartz, Jessel, 1991, p. 271)


 

Les techniques d’imagerie cérébrale ont pour but de visualiser les structures du cerveau et du système nerveux (imagerie anatomique). Elles permettent de mettre en relation l’activité de ces structures avec les fonctions, élémentaires et complexes, qu’on peut observer par les méthodes de psychologie expérimentale et de psychologie cognitive (imagerie fonctionnelle).

Pour l’imagerie anatomique et pour l’imagerie fonctionnelle, les neuroscientifiques sont amenés à travailler en lien étroit avec la physique, l’ingénierie, la médecine et la psychologie cognitive.

Quelques dates, quelques découvertes 

L’exploitation des champs électriques

L’exploitation des champs magnétiques

L’imagerie fondée sur l’émission de particules

L’imagerie optique

 

 

 

 


 

Quelques dates, quelques découvertes

Le cerveau nous fascine depuis l'Antiquité. il est impossible de citer tous ceux qui ont contribué à nous permettre de mieux le connaitre. Voici donc quelques étapes particulièrement marquantes... 

  • Hippocrate (env. 460-375 avant J.-C.) considère le cerveau comme l’organe de la pensée, conception reprise et développée par Galien (environ 130-200 après J.-C.).
  • A la Renaissance, Léonard de Vinci (1452-1519) étudie et dessine le système nerveux et le cerveau à partir d’observations directes. André Vésale (1514-1564), fondateur de l’anatomie moderne, représente le cerveau humain de façon précise, en particulier en faisant et étudiant des coupes. Il découvre que les nerfs sont pleins et il fait la distinction entre substance grise et substance blanche dans le cerveau.
  • Au XVIIe siècle, René Descartes (1596-1650)  envisage le système nerveux comme une machine qui se suffit à elle-même. Ses réflexions sur la mémoire et sur la conscience alimentent les neurosciences contemporaines. Thomas Willis (1621-1675) fait une description très complète du cerveau, des nerfs et de la vascularisation cérébrale. Il fait le postulat que les fonctions supérieures sont commandées par le tissu cérébral et non par les ventricules comme on le pensait auparavant.
  • Au XVIIIe siècle, Luigi Galvani (1737-1798) suggère l’existence d’une électricité animale ; produite par le cerveau, cette électricité est distribuée par les nerfs jusqu’aux muscles où elle provoque le mouvement musculaire.
  • À partir du XIXe siècle, les découvertes s’accélèrent et la connaissance du cerveau prend un essor spectaculaire. En 1861, Paul Broca (1824-1880) fait l’autopsie du cerveau d’un malade aphasique et explique la perte de la parole par une lésion dans le cortex frontal de l’hémisphère gauche. Cette découverte est suivie par de nombreuses observations de malades qui permettront de relier chaque fonction du cerveau (motricité, langage, vision, audition, etc.) à une région du cortex. Cette méthode de corrélations anatomo-cliniques est très utilisée par Jean-Martin Charcot (1825-1893) qui décrit de nombreuses maladies neurologiques.
  • En 1890, William James (1842-1910) publie « les principes de la psychologie».
  • Durant la première moitié du XXe siècle, nait la biologie des cellules nerveuses. Ramón y Cajal (1852-1934), père de la neurobiologie actuelle, établit les fondements de l’étude moderne du système nerveux. Il visualise la cellule nerveuse et démontre que les cellules nerveuses, composées d’un corps cellulaire, d’un axone et de dendrites, sont des entités uniques formant des réseaux discontinus (comme le montrent ses magnifiques dessins). Il reçoit le prix Nobel de médecine en 1906. En 1936, le Prix Nobel récompense Otto Loewi (1873-1961) et Henri Dale (1875-1961) pour leurs découvertes de la nature chimique de la neurotransmission.
  • La seconde moitié du XXe siècle est marquée par le développement d’une multitude de technologies, dont certaines (électroencéphalographie puis imagerie cérébrale) peuvent explorer le cerveau « vivant ». Les neurosciences abordent le décryptage du fonctionnement cérébral, du cerveau entier à l’échelle moléculaire, chez le sujet normal et dans diverses maladies du système nerveux. L’étude des fonctions cognitives prend un nouvel essor grâce aux méthodes de la psychologie expérimentale couplées à la linguistique, à la philosophie, à l’intelligence artificielle... La jonction de ces « sciences cognitives» avec les neurosciences a donné naissance aux neurosciences cognitives qui étudient les bases neurales des fonctions mentales. Notre connaissance du monde mental de l’adulte et de l’enfant en a été bouleversée.
  • Des technologies de plus en plus performantes continuent de se développer, mais pour autant, le cerveau, organe aux propriétés exceptionnelles, garde encore une grande part de mystère.

 


L’exploitation des champs électriques

EEG

Parmi les premières techniques modernes à avoir permis de percer le mystère du cerveau en fonctionnement, nous trouvons l’électroencéphalogramme ou EEG, mis au point à la fin des années 1920. Cette technique repose sur la nature électrique du signal nerveux (la transmission du signal à l'intérieur du neurone). Cette technique, n’a pas cessé de se perfectionner, et continue à être largement utilisée aujourd’hui, notamment grâce à ses atouts : la résolution temporelle du signal et la portabilité de l’appareil. L’EEG permet en effet d’enregistrer l’activité électrique de régions relativement grandes du cerveau à la milliseconde près et à l’aide d’électrodes qui peuvent être placées aussi bien sur le scalp d’un bébé que d’un adulte, dans un environnement suffisamment naturel, de manière hautement non invasive. Cependant, l’activité électrique représentant la sommation des signaux électriques issus d’un grand nombre de neurones, l’EEG ne permet pas une localisation précise.


L’exploitation des champs magnétiques

MEG

Une autre technique se base sur l’exploitation des champs électriques produits par l’activité neuronale, mais avec des caractères assez différents. Il s’agit de la magnétoencéphalographie (MEG), qui repose sur le fait qu’un champ électrique produit naturellement un champ magnétique qui lui est perpendiculaire. La MEG, qui se perfectionne au cours des années 1980, permet donc d’enregistrer les champs magnétiques produits par les courants électriques de groupes de neurones qui déchargent de manière synchrone. Mais, puisque ces champs sont très faibles, il faut mettre à point des machines à la fois très sensibles capables de filtrer les signaux magnétiques environnants. Le résultat est que la MEG (le système d’électrodes, ressemblant à un EEG, qu’on place sur le scalp) est insérée dans une chambre blindée et a une taille d’autant plus grande que les aimants permettant d’amplifier le signal sont massifs. La MEG n’est pas une technologie « portable » ! Elle a par contre, comme l'EEG, une résolution fine au niveau temporel (à la milliseconde près), alors que la résolution spatiale est de l’ordre de quelques dizaines de millimètres.

IRMf

L’imagerie par résonance magnétique fonctionnelle (IRMf) permet de déterminer, avec une excellente résolution spatiale (une fraction de millimètre), les zones du cerveau qui s’activent lors d’une tâche (langage, mémoire, vision, lecture, calcul, etc.). Sa résolution temporelle, par contre, n'est que de l’ordre de la seconde.  Elle est fondée d’une part sur le fait que les zones cérébrales qui sont actives consomment plus d’oxygène, et d’autre part, sur le fait que les propriétés magnétiques de l’hémoglobine du sang varient en fonction de la présence d’oxygène. Or, un afflux de sang oxygéné se produit dans les zones cérébrales où l’activité neuronale est intense. Le résultat de l’IRMf, présenté sous la forme d’une image construite par des calculateurs, montre les zones cérébrales au niveau desquelles le débit sanguin a changé entre la situation de contrôle et l’exécution de la tâche. On en déduit que ces zones, qui sont reportées en couleurs sur l’anatomie cérébrale sous-jacente, ont participé à la tâche.
 
IRMf de diffusion
 
L’imagerie par résonance magnétique de diffusion est fondée sur les variations du coefficient de diffusion de l’eau le long des faisceaux de fibres nerveuses. Elle produit, avec une haute résolution, des images de ces faisceaux câblant les différentes parties du cerveau. 
 

L’imagerie fondée sur l’émission de particules

PET

La PET – la tomographie (une forme de radiographie en couches successives) à émission de positron -  se base en effet sur l’émission de particules (des photons gamma, produits par l’annihilation d’un positon lorsqu’il rencontre un électron) et leur captation par un détecteur. Si on injecte de l’oxygène radioactif dans le sang, on peut suivre son parcours jusqu’au cerveau et noter la plus grande concentration d’oxygène, donc de sang, donc d’activation cérébrale, car c’est ici qu’on aura la plus grande émission de photons gamma. 


L’imagerie optique

NIRS

Dernière née des technologies d’imagerie cérébrale, l’imagerie optique qui exploite la gamme des ondes lumineuses infra-rouges (700-900 nm). L’imagerie optique, dont une technologie diffuse s’appelle NIRS : Near Infrared Spectroscopy, se base sur 2 principes : 1. La lumière qui pénètre le crâne (la lumière est capable de traverser d’importantes épaisseurs de tissu biologique, mais reste confinée au cortex) est absorbée par différentes molécules, qui absorbent la lumière de manière différente. Si on illumine une région du crâne avec une lumière infrarouge, un signal lumineux peut donc être détecté à la surface du crâne qui dépend de la lumière non réfléchie parce que absorbée. 2. Ceci permet de mesurer in vivo les changements de concentrations de certains chromophores (comme l’oxyhémoglobine, la déoxyhémoglobine ou la cytochrome c-oxydase) et de quantifier l’activité métabolique cérébrale. On peut alors inférer que la région illuminée est fortement irriguée, et en déduire la présence d’une activation neuronale plus importante. 

En pratique, les techniques d’imagerie (IRMf, TEP, NIRS) ne se fondent pas sur une mesure directe de la transmission du signal dans le cerveau, mais sur des mesures indirectes et sur un phénomène qui n’est pas encore complètement expliqué (mais qui représente un fait observé) : le couplage neurovasculaire, l’augmentation de débit sanguin dans les zones actives du cerveau. Ce couplage permet des locations du signal souvent fines en termes de spatialité, mais pas de temporalité, à cause du délai de l’afflux sanguin au niveau de l’ensemble de neurones activés. L’imagerie optique a aussi une résolution spatiale relativement moins précise que d'autres techniques, mais a l’avantage d’une grande portabilité. 


 

Approfondissement. Les images de l’imagerie cérébrale ne sont pas des polaroids du cerveau, mais des images « expertes »

(Texte extrait de E. Pasquinelli : Mon cerveau, Ce héros, Ed. Le Pommier 2015)

La technologie d’imagerie fonctionnelle par IRM comprend plusieurs étapes. En premier lieu, la machine perturbe le champ magnétique dans lequel baignent les protons du cerveau. Les protons en question réagissent à cette perturbation en changeant d’alignement dans le champ magnétique, puis reprennent leur place. Ces orientations et réorientations produisent un signal. La deuxième étape dans la production d’une image du cerveau consiste donc à détecter et à enregistrer ce signal, puis à l’utiliser pour identifier les protons qui ont bougé. Attention : le champ magnétique n’est pas le seul perturbateur pour les protons. L’oxygène aussi les « dérange ». Lorsque des molécules d’hémoglobine (contenues dans les globules rouges du sang) arrivent dans le cerveau, celles-ci sont riches en oxygène. L’oxygène est fixé au fer de l’hémoglobine. La molécule d’hémoglobine riche en oxygène ne s’aimante pas – le fer est « occupé » par l’oxygène. Elle ne dérange donc pas les protons qui se trouvent autour d’elle à son arrivée dans le cerveau. Au contraire, la molécule d’hémoglobine qui a perdu son oxygène perturbe le champ magnétique des protons avoisinants. Ces protons « dérangés » émettent un signal détectable.  On arrive à la troisième étape de la production de l’image : la mesure du signal est traduite en données analysées par un ordinateur. On en déduit quelles régions du cerveau ont reçu du sang oxygéné – ce sont celles qui transmettent moins de signal, car elles n’ont pas été dérangées. Prémisse : le cerveau qui s’active est gourmand en oxygène, il en brûle, il lui en faut donc encore. Une fois qu’une région du cerveau a accompli une tâche, du sang oxygéné arrive pour la nourrir, ce qui fait qu’elle émet moins de signal par rapport à celles voisines. Voilà comment on arrive à déduire (élémentaire mon cher Watson) qu’elle vient de s’activer. Cependant, ce signal est faible et tout seul il ne suffit pas à nous convaincre qu’une région est réellement plus active que d’autres, les plus proches notamment. C’est ici qu’intervient le neuropsychologue : il a la tâche, difficile, d’imaginer deux conditions identiques en tout (pour le cerveau) sauf pour un détail. Par exemple : dans une condition, le participant va devoir ne rien faire ; dans une autre, ne rien faire sauf regarder un visage projeté sur un écran. Ce changement permet d’obtenir deux séries d’enregistrements et d’opérer une soustraction entre les deux ; les régions les plus actives sont du coup mises en évidence. Mais, encore une fois, ceci ne suffit pas à garantir que le signal lu par la machine est réellement le produit et le résultat d’une activation cérébrale spécifique. La machine fait du « bruit ». Quand elle enregistre un signal et le localise à un certain endroit, elle décrète qu’un certain voxel (un pixel en trois dimensions, une coordonnée dans l’espace qui représente 1 unité d’activation pour la machine), est activé. Mais cette activation peut être due à une activité spontanée du cerveau, sans lien avec le fait que le cerveau soit en train d’accomplir une certaine tâche. Ou à une activité spontanée de la machine elle-même. Pour éviter des « faux positifs »  - des activations qui sont enregistrées mais qui ne correspondent pas à une activité réelle du cerveau en relation avec une tâche spécifique – on moyenne : on prend des données au préalable du cerveau en état d’activité et de repos. Puis, grâce à des outils statistiques, on élimine le « bruit ». C’est exactement cette étape qui manque dans l’étude avec le saumon. Par conséquent, la machine mesure un signal, qui est dû à une quelque instabilité de la machine elle-même. Le signal n’étant pas éliminé par voie statistique, il apparaît dans les résultats de l’étude. Au final : on a l’impression que le cerveau saumon réagit à l’image projetée sur l’écran, chose impossible car le saumon est mort. Cette étude permet bien, comme les meilleurs prix IgNobel, de faire rire (vous imaginez l’odeur de la pièce d’IRM ? Qu’a-t-on fait du saumon, après l’IRM ?) et puis penser : à combien d’étapes et de contrôles il faut apporter, par une variété de moyens (ceux de la physique, de la neuropsychologie, des statistiques), pour obtenir une image des régions en surplus d’activité pendant une tâche donnée.

Or, sans cette information, les neuroimages peuvent en effet nous apparaître comme des polaroids du cerveau, et nous pouvons être amenés à penser qu’il suffit de regarder pour voir, que les neurosciences ouvrent une fenêtre pour regarder dans le cerveau. Ce qui est vrai, d’un côté, mais simpliste de l’autre, car dans cette ouverture il existe une marge importante d’erreur. Des considérations analogues s’appliquent à tout résultat de recherche scientifique sur le cerveau et ses fonctions. Les résultats scientifiques reposent sur des équilibres difficiles et fragiles. 


 

 


Janvier 2016

Elena Pasquinelli, membre associé de l'institut Jean Nicod, Département d'études cognitives, ENS Paris, membre  de la Fondation La main à la pâte et Anne Bernard-Delorme, membre de la Fondation La main à la pâte
 

 

 

 revenir à la page du Dossier Un regard sur le cerveau

 

 

Partenaires du projet