Approfondir

Le cerveau est-il un bon modèle de réseau de neurones ?

Oui, vous avez bien lu la question que nous posons. Provocatrice ? Réfléchissez-y. Qu'est-ce qu'un modèle, et un « bon » modèle ? Où est le modèle, où est la référence ? Lorsqu'on étudie le cerveau, il peut se produire des dérives... Essayons d'y voir plus clair, en posant les « bonnes » questions.

 

1. Question de point de vue

Au juste, que savons-nous du fonctionnement du cerveau ?

Traiter et interpréter les informations qui proviennent du monde extérieur, via les organes sensoriels, et produire, en réponse, un comportement adapté : c'est le rôle du cerveau de tous les animaux. Et pour l’espèce humaine, c'est aussi : développer des langages évolués, produire des théorèmes mathématiques, créer des œuvres d’art... Toutes ces capacités étonnantes du cerveau, force est de constater qu’on est encore bien loin de les comprendre ou de les expliquer.

Les données issues de l'imagerie contribuent à l'étude de l'activité cérébrale.
© INRIA / Photo Jim Wallace

Et pourtant, la structure du cerveau et du système nerveux en général est de mieux en mieux connue. L’acquisition de données anatomiques est continue depuis des générations, résultant par exemple d’observations d’effets post-traumatiques. De nouveaux protocoles expérimentaux et de nouvelles techniques d’imagerie sont élaborés ; les moyens de traitement informatique sont en expansion. La médecine, la biologie, la neurophysiologie se développent.

Tout cela révèle toujours plus la structure en savoir plus hautement complexe, différenciée et hiérarchisée du cerveau. On sait maintenant ce qui se produit dans les différentes régions du cerveau. Où précisément, par exemple, le cerveau a une activité qui correspond à la détection des contours d'une image en savoir plus. Cette régularité de structure a permis en particulier de mettre en évidence son aspect multi-échelles, de l'échelle des neurones à celle des réseaux de neurones, par exemple les colonnes corticales, elles-mêmes organisées en réseaux...

Et de cette structure, on déduit un modèle du cerveau ?

Pas si vite ! Dans les neurosciences collaborent un grand nombre de communautés, des neurophysiologistes, des biologistes, des médecins aux roboticiens, aux informaticiens, en passant par les mathématiciens et les physiciens. Et selon que l’on est biologiste, neurophysiologiste, psychologue, mathématicien ou physicien, il y a différentes façons de comprendre et d’expliquer. Les approches, les questions, et la notion même de modèle diffèrent selon les communautés. En ce sens, il n’existe pas de « bon » modèle universellement reconnu.

Nous adoptons donc ici le point de vue - subjectif et limité - d'un physicien intéressé par l’élaboration et l'analyse de modèles mathématiques de réseaux neuronaux. Ce qui n'est pas, et de loin, vous l'aurez compris, la seule façon d'étudier le cerveau.

Qu'est-ce qu'un modèle mathématique, et un « bon » modèle mathématique ?

De ce point de vue, un modèle est un jeu d’équations visant à décrire un ensemble de phénomènes, et si possible à prédire des comportements que l’on n’a pas encore observés. Une observation préalable des phénomènes réels est nécessaire avant de dégager des caractéristiques générales permettant d’établir ces équations. Suit un processus d’abstraction qui élimine en général un certain nombre de « détails » issus de ces observations pour ne garder que les éléments jugés « essentiels ». Un modèle est donc une approximation et une abstraction de la réalité. Un « bon » modèle décrit et prédit un maximum de phénomènes avec un minimum d’équations, ou une complexité minimale dans ces équations. (La situation idéale, qui porte bien son nom d’ailleurs, étant lorsqu’on peut résoudre ces équations. Notons cependant que cette résolution n’est pas forcément nécessaire pour décrire de manière satisfaisante le comportement du système d’équations.)

Envisage-t-on vraiment de mettre le cerveau en équation ?

Revenons à notre titre quelque peu provocateur. Il y a là une pointe d'humour mais aussi une mise en garde. De fait, un « bon » modèle est avant tout destiné à poser de manière précise un ensemble (limité) de questions et (éventuellement) à y répondre. Les modèles sont issus de simplifications parfois drastiques de la réalité. Néanmoins, ils nous permettent bien souvent de comprendre et d’appréhender différemment cette réalité. Certaines fois, ils nous la rendent tout simplement intelligible. Si le modèle est très performant, à la fois explicatif et prédictif, il devient une référence et la réalité est interprétée à travers son filtre. On peut alors être conduit à estimer que les « détails » que l’on a négligés dans la construction du modèle sont effectivement non pertinents, bien qu’ils soient souvent issus d’observations. Cette démarche est féconde lorsqu’elle permet de passer d’une série d’observations à une théorie ou un modèle fédérateurs. Mais elle peut également devenir trop réductrice, évacuer des détails essentiels, en oubliant qu’une théorie ou un modèle sont valides dans un certain cadre, en vertu de certaines limites. Dans le cas du cerveau, ce type de dérive peut se produire assez facilement, et il n’est pas inutile de rappeler où sont les modèles et où la référence.

L’analyse mathématique que l’on peut produire de ce qu’on appelle actuellement réseaux de neurones, représente le travail de nombreuses équipes de recherche depuis des décennies. Mais elle est loin d'une hypothétique équation du cerveau, dont l'éventuelle découverte un jour futur et l'existence même suscitent bien des interrogations. Jusqu’où les méthodes actuelles permettent-elles donc d’aller dans l’analyse mathématique de modèles de réseaux de neurones, et à quelle distance ces modèles de réseaux de neurones se situent-ils d’un « bon modèle » du cerveau ?

Insistons sur le fait que l'approche par les réseaux de neurones n'est qu'une façon d'aborder le fonctionnement du cerveau. Elle est d'une certaine façon associée à la démarche dite réductionniste que nous développons plus loin. Actuellement, on peut considérer que l’analyse mathématique de la dynamique neuronale se concentre sur trois aspects : l'étude de la dynamique de neurones isolés, ensuite l'étude de la dynamique de réseaux de neurones, sans tenir compte de la reconfiguration des connexions entre neurones au cours du temps, et enfin, en tenant compte de cette évolution au cours du temps. Dans ces trois directions, l’état de l’art de l'analyse mathématique débouche sur des questions de recherche qui demeurent ouvertes.

Mais on utilise ces réseaux de neurones pour programmer des ordinateurs !

Attention, parlons-nous bien de la même chose ? En étudiant des modèles de neurones et de réseaux de neurones, nous cherchons avant tout à faire progresser la compréhension du cerveau. Souvent simplifiés à l'extrême, des modèles de réseaux de neurones, dits formels, servent effectivement à programmer des ordinateurs. Les chercheurs qui les utilisent n'ont pas la prétention de reproduire avec exactitude le comportement de neurones réels, ils tirent parti de certaines de leurs caractéristiques. C'est pourquoi on qualifie cette branche de l'intelligence artificielle de bio-inspirée. Ainsi, des collègues de Nancy ont programmé un petit robot renifleur, qui détecte les fumées par leur odeur. Mais ceci est une autre histoire, qu'ils vous raconteront eux-mêmes bientôt.

Revenons donc à nos neurones...

 

2. Question d'échelle

Il y a une cinquantaine d'années, à Cambridge, en Angleterre, deux scientifiques très « british », Alan Hodgkin et Andrew Huxley, ont révolutionné le cours de l'histoire de l'exploration du fonctionnement du cerveau. Ils sont allés observer - en détail - un bout de neurone. Celui qui permet au calamar de propulser de l'eau pour avancer. Pourquoi ce neurone ? Parce qu'il est géant ! Un millimètre de diamètre, alors que les neurones de notre cerveau humain ne sont larges que de 4 à 100 micromètres. Ils ont pu alors y insérer une électrode et effectuer des mesures de l'influx nerveux. À partir de ces observations, ils ont commencé à comprendre le lien entre le fonctionnement du neurone et les phénomènes électriques et chimiques qui l'engendrent. Et ils ont écrit ce qu'ils avaient compris sous forme d'équations. Le modèle de neurone qu'ils ont ainsi constitué, connu sous le nom de modèle de Hodgkin-Huxley, leur a valu le prix Nobel, et reste encore aujourd'hui la référence en termes de modèle de neurone.

Neurones du cortex somatosensoriel d'un macaque.
Source : brainmaps.org document externe au site

Depuis le début du 20e siècle, on sait que les neurones sont impliqués dans le système nerveux des différentes espèces animales, depuis des organismes élémentaires comme les vers de terre jusqu'aux espèces les plus évoluées. Ils sont en quelque sorte les « atomes » du cerveau : tout comme les atomes sont semblables dans toute la matière, les neurones des différentes espèces ont un fonctionnement comparable. Cela s'explique par la stabilité du système nerveux au cours de l'évolution en savoir plus. Observer et modéliser le comportement d'un neurone d'une espèce permet donc d'étudier les neurones en général.

Et l'étude d'un seul neurone, que peut-elle nous apprendre sur le cerveau dans son ensemble ?

Décomposer l'objet que l'on souhaite étudier en parties élémentaires dont on va chercher à comprendre le comportement, en négligeant dans un premier temps les interactions entre les différentes parties : cette démarche scientifique, qu'on appelle l'approche réductionniste, a maintes fois fait ses preuves en physique. Et elle est pertinente aussi, jusqu'à un certain point, dans le cas du cerveau, en raison de la structure multi-échelles de celui-ci. Même si - là encore tout comme les atomes, qui ne sont pas aussi indivisibles que leur nom l'indique - les neurones ne sont pas les plus petits constituants du cerveau.

Que se passe-t-il dans un neurone ?

Représentation schématique d'un neurone.
Chaque neurone envoie des informations le long de son axone et en reçoit le long de ses dendrites.
Source : d'après Wikimédia document externe au site

Par quels mécanismes les neurones reçoivent-ils l'influx nerveux, le transmettent-ils et surtout le transforment-ils ? Un neurone est une cellule électriquement active ; son activité se manifeste par l'émission de variations de son potentiel de membrane, on dit alors que le neurone décharge.

Les variations de potentiel émises sont appelées potentiels d'action document externe au site. Dans leur modèle, Alan Hodgkin et Andrew Huxley en ont décrit l'émission et la propagation, en les reliant aux mécanismes chimiques de la cellule. L'émission dépend de l'activité conjointe d'un grand nombre de protéines de la membrane (qui à cette époque ne s'appelaient pas encore des canaux ioniques). Ces protéines, perméables aux ions sodium ou potassium, agissent comme des portes qui s'ouvrent et se ferment, faisant varier la concentration d'ions positifs à l'intérieur et à l'extérieur du neurone, donc la valeur du potentiel de membrane.

Mécanismes chimiques liés à l'activité électrique du neurone.
L'activité du neurone est contrôlée par différentes espèces d'ions, principalement sodium Na+ et potassium K+. Lorsque le neurone est au repos, la concentration en ions sodium est environ dix fois plus importante dans le milieu extérieur qu'à l'intérieur du neurone. Les ions sodium essaient donc d'entrer dans le neurone. C'est l'inverse pour les ions potassium.

Alan Hodgkin et Andrew Huxley ont décrit l'activité électrique des neurones (émission et propagation de potentiels d'action) par des équations phénoménologiques en savoir plus qui répondent aux lois de la physique classique (loi d'Ohm par exemple). Cependant, ces équations correspondent à une moyenne mésoscopique sur des phénomènes microscopiques, l'ouverture et la fermeture de « portes » dans des canaux ioniques, pour lesquels la physique classique peut ne plus être suffisante (puisqu'à cette échelle, des phénomènes quantiques apparaissent). Mais nous n'avons pas besoin d'en tenir compte ici. Nous nous focaliserons, comme Alan Hodgkin et Andrew Huxley, au niveau d'un petit morceau de membrane de neurone, mais suffisamment grand pour négliger les effets quantiques.

Forme d'un potentiel d'action.

Les potentiels d'action sont émis à des instants précis, par exemple lorsque le neurone est soumis à une excitation électrique suffisamment importante. La forme d'un potentiel d'action est caractéristique, une montée rapide suivie d'une descente puis d'un rebond négatif. Elle ne dépend pas de l'intensité de l'excitation émise. Les potentiels d'action se propagent le long de l'axone vers les boutons synaptiques qui assurent la communication avec d'autres neurones. Leur propagation est un mécanisme actif et non-linéaire qui permet au neurone de sélectionner une vitesse de propagation stable dépendant uniquement des caractéristiques physiques du neurone. Le modèle de Hodgkin-Huxley permet de retrouver cette vitesse de propagation avec une étonnante précision.

Et ce n'est pas tout. Outre l'émission simple d'un potentiel d'action, un grand nombre de comportements observés dans les neurones réels sont correctement décrits par le modèle de Hodgkin-Huxley, comme les modes de décharge par bouffées intermittentes ou à des fréquences variables... Un chercheur, Eugene Izhikevich, s'est amusé à faire une liste des comportements observés dans la réalité qu'un « bon » modèle de neurone doit être capable de reproduire, par exemple, la réponse à un stimulus. Eh bien, le modèle de Hodgkin-Huxley est celui qui en reproduit le plus grand nombre. C'est peut-être même un des cas, rares, où la théorie serait en avance sur l'expérimentation biologique, car certains des comportements chaotiques prédits par ce modèle n'ont pas (pas encore ?) pu être observés.

Alors, est-ce un modèle parfait ?

Malheureusement non, car ce qui fait sa qualité est aussi son principal défaut. Sa complexité est telle que son analyse mathématique n'est pas finie, elle résiste encore aux chercheurs, depuis plus de cinquante ans. Sa mise en œuvre sur ordinateur est coûteuse en termes de temps de calcul et nécessite des schémas d'intégration élaborés.

De fait, de nombreux modèles produits depuis cette époque ne cherchent pas à compléter le modèle de Hodgkin-Huxley, mais au contraire à le simplifier, tout en conservant le maximum de pertinence biologique.

Que retenir d'essentiel ?

Le modèle de Hodgkin-Huxley met en évidence une propriété fondamentale des neurones : ce que les neurones échangent entre eux, ce sont des impulsions. En effet, l'observation biologique et l'étude du modèle montrent que la forme des potentiels d'action importe peu, que leur amplitude étant toujours la même n'a pas d'influence variable. Que reste-t-il alors ? Un neurone qui à un moment précis tire une impulsion. C'est donc le temps qui est déterminant pour décrire le mode de décharge des neurones.

Certains neurones peuvent décharger bien au-delà de cent fois par seconde, ainsi que par bouffées. La fréquence de décharge des impulsions sert parfois à coder une quantité. Par exemple, dans la rétine, une image avec un fort contraste conduira les neurones à décharger à un rythme rapide. Mais la fréquence de décharge ne donne pas tout ! Nous ne sommes qu'au début de l'exploration des codes neuronaux basés sur les impulsions.

Voici un modèle de neurone. Cette applet calcule les valeurs du potentiel de membrane pour la plupart des modes de décharge des neurones.

 

Choisissez un mode et regardez comment le neurone se comporte.
Vous pouvez aussi ajuster vous-même l'intensité du courant de 0 à 100 : vous obtiendrez soit des comportements plausibles, soit des régimes imaginaires inexistants dans la nature.
Si l'applet ne s'affiche pas correctement : Vérifiez votre configuration technique definition

 

3. Question de connexion

Un neurone isolé, c'est bien joli, mais ça n'existe pas !

Les modèles de neurones isolés, issus du modèle de Hodgkin-Huxley, nous ont conduits à souligner que les neurones échangent des impulsions entre eux. C'est donc leur fonctionnement en réseau qu'il convient d'étudier maintenant. Pour appréhender comment ils transforment des stimuli en trains d'impulsions, puis ces trains d'impulsions en d'autres trains d'impulsions, et enfin ces trains d'impulsions en commandes musculaires.

L'approche réductionniste montre ici ses limites. Si le modèle de Hodgkin-Huxley est trop complexe pour un neurone, quel espoir avons-nous d'analyser le comportement des milliers de neurones qui composent une colonne corticale, sans parler des 100 milliards de neurones qu'on estime être le nombre moyen de neurones du cerveau humain ?

À ce stade-là, une démarche simplificatrice s'impose. Cette démarche est à la fois pragmatique et extraordinairement féconde si les simplifications sont bien faites. On peut constituer un réseau de neurones formels au comportement individuel rudimentaire et obtenir un comportement collectif étonnamment complexe et riche. Le système acquiert de ce comportement collectif des caractéristiques nouvelles qui ne se réduisent pas à la superposition du comportement des unités le constituant. A contrario, il n'hérite pas forcément de toutes les propriétés de ces éléments. Le phénomène ainsi mis en évidence, qui s'oppose d'une certaine façon au principe réductionniste, s'appelle l'émergence.

Regardons de plus près un réseau de neurones simplifiés, au comportement individuel le plus simple possible, et observons comment la transcription d'observations biologiques élémentaires dans un modèle dont presque toute la complexité biologique a été éliminée fait apparaître un comportement émergent.

Une caricature de neurone... qui sera bien utile !

Pour chaque neurone, on considère son potentiel de membrane. Celui-ci vaut zéro lorsque le neurone est au repos. S'il passe un seuil d'excitabilité S, de valeur fixe, il tire une impulsion, puis revient à zéro. On définit également une variable binaire qui vaut 1 lorsqu'un potentiel d'action est émis, et 0 dans le cas contraire, c'est la loi du « tout ou rien ».

 

Lorsqu'on applique un courant au neurone, soit le potentiel dépasse le seuil, le neurone tire une impulsion, et le potentiel revient à zéro, soit le potentiel ne dépasse pas le seuil, il se met alors à décroître lentement, par un phénomène de fuite. On modélise ce phénomène par un coefficient k compris entre 0 et 1.

Pour étudier numériquement la dynamique du neurone, on considère le temps comme discret, avec un pas de temps de l'ordre de la période réfractaire, c'est à dire l'intervalle de temps pendant lequel le neurone ne peut pas décharger plus d'une fois. La justification du choix de ce pas de temps nécessiterait des explications qui dépassent le cadre de ce document.

En l'absence de courant, la dynamique d'un tel neurone est triviale. Elle l'est aussi si le courant appliqué est constant. Dans ce cas, si le courant appliqué est suffisant, le neurone va décharger périodiquement. On montre facilement que le courant doit être supérieur à (1-k) S pour que le neurone décharge, et que la période de décharge dépend du paramètre k, du seuil S ainsi que de l'intensité du courant appliqué. Mais si le potentiel est nul au départ et que le courant appliqué est égal à (1-k) S, alors le temps qui s'écoule avant la première décharge est infini ! Un tel système est donc impossible à observer.

Il est utile de préciser l'influence du coefficient k. En effet, ce terme permet de contrôler combien de temps un neurone va garder la mémoire de ses états précédents. Si k=0, alors le potentiel à l'instant t+1 ne dépend pas du tout du potentiel à l'instant t. A contrario, si k=1, alors l'état du neurone dépend de tout le passé. En pratique, la valeur de k qui correspond aux valeurs biologiques est de l'ordre de 0,9 à 0,95.

Ce qui rend la dynamique de chaque neurone intéressante à étudier, et engendre la dynamique du réseau, c'est qu'en pratique le courant appliqué n'est pas constant. En effet, l'évolution du potentiel de chaque neurone dépend de l'influence des neurones qui lui sont connectés. Chaque neurone qui tire connecté au neurone que nous étudions lui ajoute une petite portion de potentiel, dont la valeur est positive si son influence est excitatrice, ou négative si elle est inhibitrice. Chaque neurone peut également en déchargeant provoquer son auto-excitation.

Le potentiel du neurone i à l'instant t+1, noté Vi(t+1), est donc la somme de plusieurs termes :

  • le potentiel de i à l'instant t, noté Vi(t), multiplié par k et (1-Zi(t)),
    la variable binaire Zi(t) étant égale à 1 si le neurone a déchargé, ramenant donc le potentiel à 0, et égale à 0 dans le cas contraire, le potentiel étant alors réduit en fonction du coefficient k compris entre 0 et 1 qui exprime le phénomène de fuite ;
  • un courant extérieur, noté Ii(t), qui correspond à une excitation électrique du neurone i à l'instant t due par exemple à un stimulus ;
  • et enfin, des coefficients notés Wij, qui modélisent les liens synaptiques, les potentiels d'action provenant des neurones j connectés à i qui ont déchargé à l'instant t.

On l'exprime par l'équation suivante :
Vi(t+1)= k (1-Zi(t)) Vi(t) + Ii(t) + Wi1Z1(t) +Wi2Z2(t)... + WinZn(t)

Quelles variables faut-il étudier ?

Les informations échangées par les neurones, sous forme de trains d'impulsions, sont représentées par la variable binaire Z. Son tracé successif représente ce qu'on appelle le codage neuronal. Mais comprendre ce codage est loin d'être trivial. Par exemple, il est complexe d'identifier un stimulus à partir de l'observation des impulsions. Décrypter le codage neuronal dans les neurones réels est sans doute un des défis les plus importants du 21e siècle.

Et qu'en est-il du potentiel V ? Certes, la variable Z se déduit immédiatement de V, mais l'inverse n'est pas vrai. Ne faut-il pas alors également observer ce potentiel ? Heureusement, l'étude théorique de ce modèle donne une réponse qui simplifie le problème. En effet, elle montre qu'au niveau du réseau dans son ensemble, au bout d'un temps suffisamment long, il est inutile de s'intéresser au potentiel V de chaque neurone, car il devient entièrement dépendant des variables Z des autres neurones. La dynamique du réseau est alors entièrement caractérisée par les événements binaires qui se produisent.

Ce résultat peut être démontré rigoureusement dans le cas de notre petit modèle. Cependant, il n'y a pas de résultat analogue pour des réseaux de neurones où la modélisation des neurones est plus élaborée. Il se peut donc qu'une telle propriété n'existe pas. Cette remarque nous amène simplement à nous demander quelle est la « bonne façon » de modéliser un neurone : par son potentiel de membrane ou par l'émission d'événements binaires (les impulsions) ? Là encore, cela dépend des questions que l'on se pose.

Quelle est la dynamique de ce réseau ?

La réponse n'est pas immédiate, même avec deux neurones en savoir plus. Cependant, à ce stade-là, les mathématiques et en particulier la théorie des systèmes dynamiques permettent de décrire cette dynamique pour un nombre de neurones arbitrairement grand, lorsqu'un temps suffisamment long s'est écoulé. On peut ainsi montrer un certain nombre de résultats remarquables.

Trois types de régimes.
Sur ces figures on indique en abscisse le temps, en ordonnée 50 neurones numérotés de 1 à 50. Le coefficient k est choisi égal à 0,9. Les synapses sont des variables aléatoires gaussiennes, indépendantes, identiquement distribuées, de moyenne nulle et de variance σ2 / N avec ici σ = 2,05 et N = 50. Lorsqu'un neurone tire, la variable Z prend la valeur 1, cette impulsion est représentée par un petit carré noir. Trois types de régimes sont ainsi mis en évidence. À gauche, tous les neurones cessent de décharger au bout d'un certain temps, qui peut être plus ou moins long. Même en partant d'une situation où tous les neurones déchargeaient, on aboutit à la « mort » neurale. Au centre, on s'est placé dans une situation où le système est sensible à une petite excitation extérieure. On entretient ainsi une activité permanente, mais apparemment très désordonnée, où on n'arrive pas à détecter une régularité. Enfin, à droite, on observe un régime périodique, où l'activité est beaucoup plus régulière et où on distingue une reproduction périodique des motifs. Ce régime est atteint pour des valeurs combinées des paramètres k et σ qu'on peut déterminer mathématiquement si le nombre de neurones tend vers l'infini.

Si le courant reçu par les neurones est insuffisant, alors les neurones cessent de décharger au bout d'un certain temps, et il ne se passe plus rien. Si au contraire le courant reçu est trop fort, les neurones déchargent de façon périodique, ils ont une activité synchronisée qui se répète sur une période de temps suffisamment longue. Entre ces deux régimes, on constate un cas intermédiaire, où l'évolution des neurones apparaît « chaotique », et pour nous imprédictible. Cela se passe lorsque le courant reçu par certains neurones est proche du seuil de déclenchement. Dans ce cas-là, une toute petite variation du potentiel de membrane peut induire de grands bouleversements. Un neurone décharge, en entraînant d'autres à sa suite...

En changeant un paramètre, par exemple l'intensité du courant extérieur appliqué à un neurone, on peut faire apparaître un comportement collectif complexe. On observe ainsi la réponse dynamique du réseau de neurones à un stimulus. Cette réponse peut correspondre à un changement drastique de comportement.

Précisons bien que ce comportement émergent n'est pas miraculeux, il ne s'agit pas de génération spontanée. Il résulte en fait du couplage d'un grand nombre de neurones et de la dynamique non-linéaire de chacun d'entre eux. Et la théorie nous apprend que ce type de régime n'est probablement pas aussi chaotique qu'il n'y paraît, il s'agirait plutôt d'un régime périodique dont la période serait trop longue pour que nous soyons capables de l'observer.

Ce type de modèle très simplifié de réseau de neurones, où les modèles de neurones sont réduits à un comportement de type tout ou rien, et où les synapses ont une structure déterminée n'évoluant pas dans le temps, permet cependant d'obtenir des résultats mathématiques importants, en combinant des méthodes de mathématiques appliquées, de physique théorique et de simulation numérique.

Et le poids du passé ?

Jusqu'à présent, nous avons négligé un facteur essentiel : le fait que la force des connexions entre les neurones évolue dans le temps. Nous avons supposé que les liens synaptiques étaient des variables indépendantes, sans corrélation entre elles. Cela revient à partir d'une situation dans laquelle on ne dispose d'aucune information préalable sur la structure du réseau et sur son passé. Or c'est en grande partie à cause de ce choix que la dynamique observée semble chaotique.

En réalité, les synapses ne sont pas figées dans le temps, elles changent d'intensité en fonction de l'activité neuronale. On appelle ce phénomène la plasticité synaptique. En raison de cette plasticité, les réseaux de neurones ont la capacité d'apprendre, ils adaptent leur structure à certains stimuli de manière à produire une réaction rapide, viable et reproductible. Dans le cerveau, cette plasticité est ainsi impliquée dans tous les changements d'état, par exemple du sommeil à l'éveil, dans l'apprentissage, dans la mémoire, etc. Sans entrer dans le détail de sa mise en œuvre biologique, le rôle principal de la plasticité synaptique est de créer des corrélations entre les activités neuronales qui dépendent à la fois de l'histoire du réseau et des stimuli auxquels il a été soumis.

Différents types de mécanismes entrent en jeu, mais ils se résument à quelques principes en savoir plus faciles à énoncer. Une règle, proposée par Donald Hebb en 1949, montre que des neurones qui déchargent ensemble se connectent. Un mécanisme complémentaire ajoute que des neurones qui ne sont pas synchronisés se déconnectent.

En conséquence, modifions les coefficients Wij de notre modèle. À chaque instant, on augmente un peu le coefficient Wij si j a tiré avant i, sinon on le diminue. La dynamique d'évolution de ces coefficients entraîne des corrélations entre eux, ainsi qu'une mémoire de l'activité passée puisque la modification de ces coefficients fait intervenir les instants de décharge des neurones connectés par des synapses. L'imposition d'un stimulus modifie l'activité du réseau, et la plasticité va imprimer cette modification dans la structure même du réseau synaptique.

Il en découle qu'après une phase d'adaptation, le tracé des événements est beaucoup moins complexe. Le système a besoin de beaucoup moins d'information pour coder son activité, puisqu'il l'a contrainte à être adaptée au stimulus. En quelque sorte, tout se passe comme s'il connaissait déjà en partie le stimulus qui va l'activer.

Effet de la plasticité synaptique.
À gauche, tracé des événements sans stimulus, à droite avec stimulus. On constate qu'après une période d'apprentissage, le tracé devient beaucoup moins complexe.

Pour expérimenter ces mécanismes, nous vous proposons une applet qui simule l'activité d'un tel réseau, comprenant 600 neurones. La dynamique complexe représentée ici varie en fonction de différents paramètres :

  • la variabilité de l'entrée, c'est-à-dire l'amplitude du stimulus qui active de l'extérieur le réseau de neurones
  • la variabilité des connexions, c'est-à-dire l'amplitude des interactions internes au réseau de neurones
  • la plasticité synaptique, c'est-à-dire le fait que ce réseau s'adapte aux stimulus externes et tient compte de son activité passée, ou non.

Si vous jouez sur la variabilité des connexions ou de l'entrée, vous observerez plusieurs formes d'activités : plus ou moins régulières, plus ou moins pédiodiques. Par exemple, une forte variabilité de l'entrée introduit une dynamique bien irrégulière, mais si la variabilité des connexions est augmentée aussi, alors cette irrégularité a tendance à se stabiliser. Si, ensuite, la plasticité synaptique est introduite, tout change, l'activité du réseau va se stabiliser dans un mode périodique qui sera peu sensible aux variations des paramètres.

 

Si l'applet ne s'affiche pas correctement : Vérifiez votre configuration technique definition

 

L'étude des effets de la plasticité synaptique sur la dynamique neuronale reste un problème difficile, qui nécessite de prendre en compte une interaction complexe entre la dynamique des neurones, qui agit sur la structure du réseau synaptique, et la dynamique des synapses, qui modifie le comportement des neurones. Cet aspect, trop peu étudié, semble pourtant le plus important, que l'on cherche à comprendre les capacités d'adaptation, la mémoire, la généralisation des réseaux de neurones biologiques ou que l'on cherche à créer des systèmes inspirés de la biologie, en robotique, en vision artificielle, ou pour de nouvelles architectures d'ordinateurs. À partir des méthodes de la théorie des systèmes dynamiques et de la physique statistique, il est nécessaire d'inventer de nouveaux outils d'analyse.

Pour conclure... et esquisser une réponse

Du point de vue de l'analyse mathématique, le cerveau humain, abordé selon l'optique des réseaux de neurones, n'est pas un « bon modèle », car il est beaucoup trop complexe. Néanmoins, l'analyse mathématique, en développant sans cesse de nouvelles méthodes, est utile pour intégrer dans des systèmes artificiels les nouvelles connaissances acquises sur le cerveau et sa structure. Elle sert aussi à étudier le système nerveux, moins élaboré, d'organismes aussi simples que des vers de terre. On connaît par exemple entièrement le réseau neuronal d'un ver comme Caenorhabditis elegans. L'analyse mathématique d'un tel réseau, afin d'associer des comportements du ver, comme la reptation ou la recherche de nourriture, à des comportements dynamiques de son réseau de neurones, est peut-être une tâche accessible avec les méthodes mathématiques et numériques actuelles. En ce sens, le système nerveux de C. elegans est un « bon modèle » de réseau de neurones !

 

Une version étendue document externe au site de ce document, à destination des étudiants, est téléchargeable en PDF.

Niveau de lecture

Aidez-nous à évaluer le niveau de lecture de ce document.

Il vous semble :

Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (qui ne sera pas publié).