Interstices


  De la recherche

Du chaos dans les neurones

Si, dans le cerveau, le hasard et le chaos jouent un grand rôle à l’échelle microscopique, un ordre statistique se manifeste à l’échelle des réseaux de neurones.

Au cours de l’histoire, le cerveau a été comparé à un moteur, à une horloge, un automate, un ordinateur, une « machine » inactive en l’absence d’informations à traiter, et s’enclenchant à l’arrivée d’une information, etc. En réalité, il est surtout constitué de neurones communiquant notamment au moyen d’impulsions électriques. L’évolution dans le temps de ces impulsions forme un code complexe, support du traitement de l’information.

Du chaos dans les neurones
Image : Delphine Bailly.
Dans le cerveau, le hasard se manifeste à tous les niveaux. Ainsi, deux canaux ioniques du même type présents sur une même synapse, peuvent laisser passer ou non les ions qu’ils contrôlent (a). De même, deux vésicules synaptiques transportant les mêmes molécules, des neurotransmetteurs, et paraissant dans des états identiques ne réagissent pas nécessairement de la même façon au même instant : l’une peut libérer son contenu dans la synapse, l’autre non (b). De même, deux neurones du même type et recevant les mêmes stimulus, n’émettent pas toujours les mêmes trains d’impulsions électriques (c). En outre, un troisième neurone, toujours du même type, peut voir certaines de ses synapses s’affaiblir, tandis que les synapses de deux autres neurones se renforcent (d). Ainsi, diverses sources de hasard expliquent pourquoi les décharges neuronales semblent aléatoires (e). Pourtant, dans le cerveau, si le hasard règne à l’échelle microscopique, le fonctionnement devient plus déterministe à grande échelle.
 

La neurobiologie dispose d’outils pour enregistrer la dynamique de cette activité électrique, à diverses échelles spatiales et temporelles. Petit à petit, on a découvert que, quelle que soit l’échelle à laquelle on l’observe, l’activité cérébrale évolue dans le temps et selon sa localisation dans le cerveau. Qui plus est, les dynamiques spatiales et temporelles des activités électriques enregistrées sont très irrégulières, et le cerveau est capable de passer d’un type d’activité électrique à un autre, très différent. Ces dynamiques complexes et leurs changements seraient associés au traitement de l’information par le cerveau.

Longtemps, on a pensé que l’activité cérébrale était nulle en l’absence de stimulus externe. Or il n’en est rien, puisqu’elle persiste même en l’absence d’« entrée » sensorielle. Imaginons que l’on jette un caillou dans une mare, puis un autre et encore un autre, etc. Les ondes circulaires créées par chaque caillou interagissent avec les précédentes. Il en résulte un motif spatial et temporel dépendant des interactions préexistantes et des nouvelles.

De même, lorsqu’une information nouvelle arrive dans le cerveau, elle modifie la dynamique de fond préexistante, et c’est sans doute cette interaction d’un stimulus et de cette dynamique qui permet au cerveau de répondre au stimulus de façon adaptée et reproductible. Cette conception est fondée sur des dynamiques spatio-temporelles complexes, dont nous allons discuter l’origine et la façon dont elles peuvent être utilisées par le cerveau pour traiter l’information. Nous examinerons d’abord quelques sources possibles de hasard : hasard au niveau des molécules, des cellules, des réseaux. Et pourtant, de ce désordre, naît un ordre à grande échelle, ou du moins un fonctionnement dynamique cohérent et reproductible.

Aléas à tous les niveaux

Quelles sont les causes possibles des dynamiques complexes observées expérimentalement ? À l’échelle moléculaire, les neurones émettent des impulsions électriques grâce à des protéines insérées dans leur membrane externe – des canaux ioniques –, qui peuvent être ouvertes, et laisser passer des ions, ou fermées, et empêcher ce passage.

Or l’état des canaux fluctue de façon aléatoire dans le temps, la probabilité d’ouverture et de fermeture dépendant notamment du potentiel de membrane, c’est-à-dire de la différence de potentiel de part et d’autre de la membrane (ou schématiquement de la différence des concentrations ioniques). Cette propriété explique l’émission d’impulsions électriques par les neurones. Notons que la forme des impulsions produites par ce mécanisme aléatoire est néanmoins remarquablement constante.

Comme c’est le cas pour tous les types de cellules, le comportement des neurones résulte des réactions biochimiques et des régulations génétiques intracellulaires. Or les dynamiques temporelles de ces réactions ou voies de régulation ont une composante aléatoire, ce qui a aussi des conséquences importantes sur le comportement électrique des neurones.

La transmission des impulsions électriques entre neurones est assurée par les neurotransmetteurs présents dans les zones de contact entre deux neurones, les synapses. Or la quantité de neurotransmetteurs libérés à chaque événement de transmission est très variable, de sorte que l’impulsion émise par un neurone en réponse à un autre a elle aussi une importante composante aléatoire. À l’échelle du neurone, la diversité des types de neurones et de leurs réponses à un même stimulus est considérable. D’une part, le nombre de sous-types de neurones dans le cortex est grand (sans doute des dizaines), et ils ont des comportements différents. D’autre part, des études expérimentales ont montré que la réponse d’un neurone à certains stimulus peut être très variable. Enfin, des études théoriques indiquent que le comportement électrique d’un neurone, même isolé des autres, peut présenter une dynamique chaotique.

Et ce n’est pas tout ! Non seulement les populations de neurones sont nombreuses, mais chaque neurone est connecté à d’innombrables neurones. Une cellule pyramidale du cortex, par exemple, est connectée à environ 10 000 autres neurones et reçoit de l’ordre de 70 000 impulsions électriques élémentaires plus ou moins indépendantes chaque seconde. Ce bombardement a un aspect aléatoire et engendre un « bruit synaptique », une activité de fond intense et irrégulière qui influe sur la façon dont les neurones réagissent à un stimulus.

Enfin, le réseau des connexions entre neurones a lui-même une structure partiellement aléatoire, qui engendre dans certains cas des comportements chaotiques. De surcroît, les connexions entre neurones sont dynamiques : l’influence d’un neurone sur un autre varie dans le temps. Ce phénomène, dit de plasticité synaptique, est en grande partie responsable des changements de comportements dynamiques des réseaux de neurones cérébraux (nous y reviendrons).

Distinguer le bruit du chaos

Ainsi, le fonctionnement du cerveau, de l’échelle moléculaire à l’échelle des réseaux de neurones, constitués de millions de cellules, est soumis à de multiples sources de complexité dynamique se manifestant sous forme de bruit ou de chaos. En quoi le bruit se distingue-t-il du chaos ? D’un point de vue expérimental, le bruit est une composante aléatoire qui se superpose à la partie déterministe d’un signal. Mathématiquement, le bruit est souvent représenté par une suite de variables aléatoires indépendantes. Et dans un système bruité, la connaissance des conditions initiales ne permet pas de connaître l’évolution future du système.

Dans un système chaotique déterministe, la connaissance des conditions initiales autorise en théorie à déterminer l’évolution du système à long terme. En revanche, pour que l’on puisse prédire cette évolution, il faudrait connaître l’état initial avec une précision infinie... Ce qui n’est évidemment pas possible. Or la plus petite erreur sur l’état initial engendre, à long terme, un comportement imprévisible. Ainsi, les systèmes chaotiques sont soumis à l’aléa résultant de la connaissance imparfaite des conditions initiales. Dès lors, pour savoir si un signal représente une dynamique chaotique, on doit l’analyser au moyen d’algorithmes de traitement adaptés.

En outre, on sait montrer mathématiquement qu’un système est chaotique en extrapolant son évolution temporelle sur des temps infinis. Le système est chaotique s’il évolue vers un état caractérisé par ce que l’on nomme un attracteur étrange. Un attracteur est une région de l’espace des phases vers laquelle convergent toutes les trajectoires des points associés au système étudié (l’espace des phases permet de représenter les variables indépendantes d’un système en fonction du temps). Il existe des attracteurs dits étranges : dans l’espace des phases, à proximité d’un attracteur étrange, deux trajectoires initialement très proches s’écartent rapidement.

En revanche, les systèmes chaotiques présentent, comme les systèmes bruités, une grande régularité statistique. Ainsi, les moyennes réalisées au fil du temps des quantités mesurables ne sont pas sensibles aux conditions initiales et évoluent de façon très régulière. C’est, par exemple, le cas d’un gaz, dont le comportement est décrit par des grandeurs telles que pression, volume, température, qui sont déterministes et constantes à l’équilibre, bien que la dynamique des molécules qui constituent ce gaz soit aléatoire. Cette régularité statistique est une clé d’un fonctionnement efficace du cerveau.

Comment mettre en évidence le chaos cérébral ?

Lors d’une expérience in vivo, aucun système ne peut être maintenu indéfiniment (ni même quelques instants) dans le même état. Dès lors, comment montre-t-on que le cerveau a, aux différentes échelles évoquées, un comportement chaotique ? Les études expérimentales portant sur des neurones isolés (voire sur une partie seulement d’un neurone) révèlent, dans certains cas, une dynamique chaotique. Qui plus est, John Guckenheimer et Ricardo Oliva, de l’Université Cornell, par exemple, ont montré que les équations les plus précises dont on dispose aujourd’hui pour décrire l’activité d’un neurone isolé (les équations de Hodgkin-Huxley) ont parfois un comportement chaotique.

Par ailleurs, les mathématiciens travaillent aussi sur des réseaux de neurones formels. Ce sont des modèles inspirés du fonctionnement des neurones, où chaque élément est relié à des éléments qui le précèdent (l’équivalent des neurones présynaptiques) et à un élément qui le suit (le neurone post-synaptique), la force de la connexion synaptique pouvant varier. On a mis en évidence du chaos dans de tels réseaux.

De très nombreuses études ont tenté de caractériser la dynamique des réseaux de neurones in vivo à une échelle plus globale, en particulier dans le signal fourni par les enregistrements d’électroencéphalographie. Au début des années 1980, l’étude des électroencéphalogrammes d’êtres humains durant l’éveil ou le sommeil peu profond a révélé la présence de chaos déterministe. De même, Walter Freeman, à l’Université de Berkeley, a proposé une hypothèse pour expliquer la dynamique des mécanismes de reconnaissance des odeurs dans le bulbe olfactif. Dans son modèle, la reconnaissance d’une odeur particulière se matérialise par un changement drastique : on passe brusquement d’un attracteur étrange à un autre attracteur de caractéristiques différentes et spécifiques de l’odeur (voir Le rôle de la plasticité).

Enfin, on a montré, in vitro, que des neurones isolés de calamar géant ou des petits réseaux isolés de cochon d’inde ou de certains crustacés présentent une dynamique chaotique. Les preuves de chaos dans les dynamiques enregistrées in vivo sont rares, car le système évolue sans cesse au gré des informations internes et externes qu’il reçoit. Pourtant, Henri Korn et Philippe Faure, de l’Institut Pasteur, à Paris, en ont confirmé l’existence en étudiant l’activité synaptique de neurones de poissons.

Les signaux d'électroencéphalographie semblent de prime abord totalement aléatoires. Pourtant, en traitant ces signaux et en éliminant le bruit, les mathématiciens font apparaître un ordre.
 

Toutefois, les enregistrements étudiés présentent une part importante de bruit et sont de courte durée. Dans ces conditions, il est difficile d’être certain que les activités enregistrées indiquent vraiment l’existence d’un chaos déterministe. Par ailleurs, les traitements mathématiques que l’on fait subir à ces signaux sont ajustés, avec, à nouveau, un risque de voir du chaos là où il n’est pas. Les indications de dynamique chaotique dans les électroencéphalogrammes doivent donc être considérées avec beaucoup de prudence. Néanmoins, des études récentes, notamment celles d’Alain Destexhe et Sami El Boustani, du Laboratoire Unité de neurosciences intégratives et computationnelles, UNIC, à Gif-sur-Yvette, ont confirmé la présence d’un chaos déterministe de faible dimension durant le sommeil.

Si l’on admet que l’activité cérébrale est chaotique et que ce type de hasard règne en maître, comment concilier chaos et traitement pertinent des informations par le cerveau ? Autrement dit, comment un système sensible aux conditions initiales peut-il traiter de l’information de façon fiable et reproductible ?

Supposons qu’on présente un objet à un sujet à deux instants successifs en lui demandant de le nommer à chaque fois. L’image de cet objet est traitée par la rétine, puis par le cortex visuel, puis par les centres de la parole. Le sujet nomme deux fois le même objet bien que l’état interne de son système de traitement soit différent aux deux instants. Or on sait que dans un système chaotique, par essence sensible aux conditions initiales, deux états différents évoluent différemment, ce qui doit rendre très variable – donc non reproductible – l’activité neuronale. Comment une telle variabilité peut-elle être compatible avec la reproductibilité de la réponse ?

Chaos local, mais ordre statistique global

Il faut d’abord noter que les neurones ne traitent pas à proprement parler d’« information ». Il serait plus exact de dire qu’ils reçoivent des impulsions électriques issues d’autres neurones auxquels ils sont connectés, que ces signaux les activent ou les inhibent, et que la conjonction de ces influences produit (ou non) une réponse neuronale. Si réponse il y a, elle se manifeste par une suite d’impulsions électriques qui, à son tour, agit sur d’autres neurones, etc. Ce traitement est en fait une chaîne causale d’actions et de réactions qui implique, par exemple, des neurones de la rétine, puis du cortex visuel, puis d’autres aires cérébrales, avec, à chaque étape, des rétroactions importantes.

Par ailleurs, on constate effectivement que les signaux enregistrés lors d’expériences identiques réalisées dans des conditions identiques diffèrent. Par exemple, les trains d’impulsions émis par les cellules ganglionnaires de la rétine ne sont pas identiques, même si l’image présentée est identique. Cette variabilité est due en partie à tous les mécanismes générateurs de bruit ou de chaos, aux différentes échelles déjà évoquées. Mais, surtout, la rétine ne code pas l’information comme le ferait un ordinateur : elle n’émet pas une suite précise de potentiels d’action où chaque image serait associée à une suite particulière. Dès lors, quel système de traitement serait susceptible de concilier variabilité des trains d’impulsions électriques et fiabilité de la réponse ?

Si les réponses prises une à une sont peu reproductibles, on constate que les trains d’impulsions présentent une régularité statistique, c’est-à-dire, par exemple, que la probabilité qu’un neurone décharge, ou que deux neurones déchargent en même temps, est relativement constante d’un essai à l’autre. Cette régularité statistique serait une clé des propriétés de reproductibilité et de fiabilité des réseaux de neurones. Cela signifie que l’émission de deux trains d’impulsions ayant les mêmes caractéristiques statistiques aboutit à des réponses similaires dans la chaîne de traitement.

Par exemple, si un groupe de neurones reçoit un nombre croissant d’impulsions provenant de neurones situés en amont, les neurones adoptent un état d’excitation qui leur permet, à un instant donné, d’émettre de façon synchrone des signaux vers un groupe de neurones situés en aval, etc. La reproductibilité des réponses ne nécessite pas la reproductibilité stricte des trains d’impulsions, mais est compatible avec une dynamique chaotique qui combine variabilité au niveau de chaque neurone, et régularité statistique du groupe.

S’il est difficile de valider la présence de chaos dans le cerveau et de le rendre compatible avec son fonctionnement, il est possible de tester diverses hypothèses sur des modèles mathématiques s’inspirant de la dynamique neuronale, et qui tentent de répondre à la question : comment un système chaotique peut-il traiter de l’information, par exemple produire des réponses adéquates à des signaux particuliers ?

Plusieurs équipes ont tenté d’utiliser des modèles mathématiques de réseaux de neurones chaotiques pour répondre à cette question. Nous avons ainsi proposé un modèle de réseaux de neurones chaotiques capable d’apprendre et de reconnaître des stimulus en utilisant la plasticité synaptique. Dans ce modèle, le système passe d’un état très désordonné en l’absence de stimulus à un état régulier (dont l’identification est simple et rapide) en présence d’un stimulus mémorisé. Le processus de plasticité conduit le réseau de neurones dynamique près d’un point de bifurcation, c’est-à-dire de changement brutal de comportement. Cette bifurcation se produit si l’on présente le stimulus appris ou un stimulus proche, mais pas si l’on présente un stimulus très différent.

Images : Hugues Berry et Bruno Cessac.
On peut représenter un réseau de neurones par son activité moyenne (sa fréquence de décharge moyenne) à un instant t (en abscisse) en fonction de son activité à l’instant (t+1) (en ordonnée). Dans cette représentation, un système périodique régulier donne (selon que la fréquence est rationnelle ou non) soit une courbe fermée, soit quelques points. Un système chaotique donne un nuage de points, où l’on peut discerner une structure (dans les cas de chaos de faible dimension). L’activité d’un réseau synaptique aléatoire sans plasticité synaptique change peu en l’absence (ci-dessus à gauche) ou en présence (à droite) d’un signal d’entrée.
 
En revanche, quand le réseau présente une plasticité synaptique, à la frontière du chaos, l’activité diffère radicalement en l’absence (à gauche) ou en présence (à droite) d’un signal d’entrée.
 
Dans cette animation on voit un exemple des effets induits par la plasticité hebbienne sur un réseau de neurones chaotiques. On a représenté l'attracteur de la dynamique au cours des époques successives d'apprentissage. On voit l'attracteur se structurer progressivement alors que la complexité de la dynamique se réduit. On passe ainsi d'un attracteur chaotique à une dynamique quasi périodique, puis périodique, pour finir par un régime stable où les neurones tirent à une fréquence constante.
 

Une soupe chaotique de neurones

D’autres types de structures de réseaux de neurones sont actuellement utilisés ; certains incluent une « soupe de neurones », constituée d’un grand nombre d’unités connectées de façon aléatoire et recevant les signaux d’entrée, et d’une couche d’unités qui traduit l’état interne de la soupe de neurones. Seule l’activité de la couche de traitement est contrainte, c’est-à-dire paramétrée par l’expérimentateur, alors que la soupe, dont la dynamique dépend du choix (aléatoire) des poids synaptiques et des stimulus qui peuvent être chaotiques, évolue librement.

Rappelons que dans un réseau de neurones, les poids synaptiques reflètent la force des synapses : certaines synapses sont dites renforcées, impliquant une connexion forte entre deux neurones – leur poids est alors élevé. Au contraire, quand une synapse est lâche, son poids synaptique est faible. La force des synapses évolue au fil du temps, certaines se renforçant, d’autres s’affaiblissant : c’est la plasticité synaptique. En imposant une règle de plasticité synaptique sur les connexions reliant la soupe de neurones et la couche de sortie, il est possible d’utiliser ces réseaux pour réaliser des tâches telles que la reconnaissance d’objets ou de signaux. D’après certaines équipes, ces structures seraient surtout pertinentes lorsque la dynamique de la soupe interne est à la frontière du chaos.

Abordons une autre propriété des réseaux de neurones chaotiques. On peut utiliser la grande régularité statistique des systèmes chaotiques pour transmettre des signaux identifiables. Des chercheurs, tel David Ruelle, un des pionniers de l’étude du chaos, ont généralisé à des systèmes chaotiques ce que l’on nomme en physique la théorie de la réponse linéaire. En appliquant cette théorie à un réseau de neurones chaotiques, l’un d’entre nous (B. Cessac) a ainsi montré en collaboration avec Jacques-Alexandre Sépulchre, de l’Institut non linéaire de Nice, qu’on peut transmettre un signal caché dans le bruit de fond chaotique. Ce signal ne peut être récupéré que par certains neurones du réseau. Cet exemple montre qu’on peut transmettre et extraire de l’information dans un réseau de neurones chaotiques. En revanche, nous ignorons si ce mécanisme est à l’œuvre dans les réseaux de neurones réels.

La dynamique cérébrale a lieu sur plusieurs échelles de temps et d’espace. Pour accéder à l’activité cérébrale à ces différentes échelles, il est nécessaire d’utiliser diverses techniques d’imagerie mesurant des grandeurs distinctes. La dynamique observée peut être très différente selon les échelles d’espace. Or ce n’est pas parce que la dynamique mesurée à une échelle donnée est irrégulière (chaotique) qu’elle est nécessairement irrégulière à une échelle supérieure. La raison en est un effet de moyenne. Si l’on mesure, par exemple, le champ électrique engendré par l’activité neuronale à l’échelle du millimètre, on enregistre en fait l’activité électrique cumulée de plusieurs milliers de neurones. Le champ mesuré est donc un champ moyen reflétant l’activité cumulée de cette population neuronale. Or, même si l’activité des neurones isolés est chaotique, la dynamique du champ moyen peut être régulière : le chaos au niveau neuronal n’implique pas le chaos à grande échelle.

Les leçons de la plasticité synaptique

Ainsi, le comportement dynamique du cerveau résulte d’une dynamique interne riche, complexe et à plusieurs échelles, et des stimulations dont la dynamique spatiale et temporelle est elle aussi complexe. À cela s’ajoute la plasticité synaptique, qui représente en quelque sorte une troisième dimension de la complexité de la dynamique du cerveau se combinant à la dynamique interne et aux entrées ; elle est responsable d’énormes modifications de cette dynamique. En outre, on pense aujourd’hui que cette plasticité (et les modifications de comportement qu’elle déclenche) est le support principal de l’apprentissage dans les systèmes neuronaux, leur conférant les capacités de reconnaissance, de généralisation et d’adaptation.

On distingue deux principaux types de plasticité synaptique. La plasticité dite à court terme s’exprime sur des durées comprises entre la milliseconde et quelques secondes. On regroupe sous ce terme les modifications du poids de la synapse dues principalement à la façon dont la machinerie de fabrication, libération et recyclage des neurotransmetteurs interagit avec la fréquence des impulsions émises par les neurones. Quant à la plasticité dite à long terme, elle s’exprime sur des durées de l’ordre de quelques heures à plusieurs jours, voire semaines. Elle implique plutôt des modifications de l’activité ou du nombre de protéines (c’est-à-dire de récepteurs des neurotransmetteurs) participant au fonctionnement de la synapse, voire du nombre de synapses actives entre deux neurones.

Il est difficile d’avoir une vue générique de l’effet de la plasticité synaptique sur la dynamique complexe des réseaux de neurones du cerveau et les fonctions qu’ils assument. En particulier, si cet effet est bien compris dans certains cas particuliers, nous n’avons toujours pas de théorie générique pour décrire ces effets sur la dynamique des réseaux.

Malgré de nombreux travaux de simulation, on ne dispose pas encore de théorie mathématique expliquant comment la plasticité synaptique modifie les régimes dynamiques complexes observés dans le cerveau. Notre propre travail est un pas dans cette direction. Au-delà des questions biologiques, le fait que des modèles mathématiques de réseaux de neurones puissent être chaotiques conduit à des applications surprenantes et ouvre de nouvelles perspectives. Il reste à développer les méthodes mathématiques et numériques adaptées pour mettre en relation ces perspectives théoriques avec des données biologiques !

Pour en savoir plus.

Une première version de ce document est parue dans la revue Pour la Science n°385, en novembre 2009.