tag:theconversation.com,2011:/global/topics/neurones-41032/articles
neurones – The Conversation
2024-02-15T14:09:15Z
tag:theconversation.com,2011:article/221156
2024-02-15T14:09:15Z
2024-02-15T14:09:15Z
Un petit ver pour décrypter les mystères de notre cerveau
<figure><img src="https://images.theconversation.com/files/575901/original/file-20240215-18-nwzm0a.jpeg?ixlib=rb-1.1.0&rect=0%2C0%2C3075%2C2020&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Avec ses 302 neurones (ici rendus fluorescents en vert), Caenorhabditis elegans constitue un modèle particulièrement simple mais éclairant pour comprendre les mécanismes neurobiologiques.</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Varbuss.jpg">Heiti Paves/Wikimedia Commons</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>La compréhension des mécanismes cérébraux qui sous-tendent notre interaction au monde est l’un des grands objectifs de la communauté scientifique actuelle. Mais celle-ci se heurte naturellement à la complexité du cerveau humain, poussant de nombreux chercheurs à faire un pas de côté en étudiant d’abord ces mécanismes sur des organismes plus simples. Comme l’affirmait Claude Bernard dans son <em>Introduction à l’étude de la médecine expérimentale</em> (1865) :</p>
<blockquote>
<p>« Le choix heureux d’un animal […] suffit souvent pour résoudre les questions générales les plus élevées. »</p>
</blockquote>
<p>Et il est des organismes qui se révèlent particulièrement intéressants de ce point de vue : le ver <em>Caenorhabditis elegans</em> (<em>C. elegans</em>). Étudier et modéliser son système nerveux constitue en effet une fenêtre sur le système nerveux des vertébrés, et à terme de l’être humain.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Schéma du ver C. elegans" src="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=197&fit=crop&dpr=1 600w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=197&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=197&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=247&fit=crop&dpr=1 754w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=247&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=247&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">D’environ 1 mm de longueur, le ver C. elegans est un des organismes pluricellulaires les plus simples, en faisant un animal modèle privilégié en biologie.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Caenorhabditis_elegans_(C._elegans)_clip_art.png">MA Hanson/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>C. elegans : un ver déjà nobélisé</h2>
<p><em>C. elegans</em> est un nématode devenu star des laboratoires depuis son introduction dans les années 1970 par l’éminent biologiste Sydney Brenner, pionnier de la biologie moléculaire. Ce petit ver, d’une taille de 1,3 mm pour un diamètre de 0,08 mm, vit dans des sols humides, de fines pellicules d’eau, ou encore dans les végétaux en décomposition et se nourrit de micro-organismes. Il n’existe pas de femelle de cette espèce, et la forme hermaphrodite prédomine largement sur le sexe mâle.</p>
<p>Sydney Brenner, visionnaire, voyait en <em>C. elegans</em> un organisme idéal pour l’étude d’importants et divers processus biologiques ayant lieu dans l’ensemble des organismes vivants, même les plus complexes comme l’être humain. L’attribution de deux prix Nobel de médecine ou physiologie (2002 et 2006) et un prix Nobel de chimie (2008) pour des travaux menés sur le ver lui donneront raison. Cependant, aucun de ces prix n’a été obtenu pour des études sur son système nerveux, pourtant très riche, combinant simplicité et complexité.</p>
<h2>Un ver petit, mais costaud</h2>
<p>La simplicité apparente de son système nerveux a également rapidement fait de lui un organisme idéal pour l’étude des mécanismes physiologiques liés à la génération de comportement. En effet, son système nerveux se compose précisément de 302 neurones, et environ 7000 connexions synaptiques pour sa version hermaphrodite. En comparaison, l’être humain possède environ 100 milliards de neurones, pour une estimation de 10 000 connexions par neurone. Le connectome de <em>C. elegans</em> – l’ensemble des connexions qui s’établissent entre tous les neurones – a été complètement décrit en 1986, et maintes fois actualisé depuis. C’est actuellement le seul organisme au monde pour lequel nous avons de telles informations, complètes et précises.</p>
<p>Pendant ses trois jours de vie, son système nerveux lui permet de se déplacer, manger, dormir, déféquer, se reproduire, etc. Mais il lui permet également la génération d’une grande variété de comportements et de capacités plus riches et complexes : la chimiotaxie (comportement d’attraction ou de répulsion vis-à-vis de substances chimiques), l’apprentissage, le développement de stratégies pour fuir ses prédateurs, ou encore des capacités sociales. Autant de comportements rendus possibles par un cerveau si simple… Simple, mais peut-être qu’en apparence.</p>
<p>En effet, l’étude des composantes microscopiques de son système nerveux révèle une machinerie bien plus complexe et étendue que ce qu’on imaginait initialement. En particulier, on observe de grandes similarités, à différentes échelles, dans le fonctionnement de son cerveau et celui de vertébrés plus complexes dont nous, humains, faisons partie. Cette dernière propriété en fait une petite fenêtre idéale sur l’étude du système nerveux des vertébrés. Si les outils classiques de la biologie permettent l’exploration de ces caractéristiques, la modélisation et les simulations informatiques peuvent aussi jouer un rôle crucial dans leur compréhension.</p>
<h2>Un défi de modélisation pas aussi simple qu’il n’y paraît</h2>
<p>La modélisation à laquelle nous nous intéressons consiste à construire des équations pour reproduire le comportement des neurones du ver. La modélisation consiste toujours en un jeu de compromis entre réalisme et simplicité. Le modèle se doit d’être réaliste vis-à-vis du phénomène, ou d’un ensemble de ses caractéristiques jugées pertinentes, que nous essayons de décrire. Cette correspondance du modèle à la réalité dépend notamment de l’échelle à laquelle on se place. Plus l’échelle est fine, et plus cela nécessite des données précises, parfois techniquement difficiles à obtenir. Mais il se doit aussi d’être assez simple pour permettre son étude et sa simulation informatique afin de pouvoir dégager des prédictions, sans quoi le modèle serait inutile.</p>
<p>Dans le cas qui nous intéresse, l’idée est de construire des modèles fidèles à la physiologie des neurones. Les neurones étant des cellules, le milieu intracellulaire est séparé du milieu extracellulaire par une membrane imperméable. Imperméable ? Pas tout à fait. En effet, de petits canaux situés tout le long du neurone permettent à certaines particules chargées (des ions) de circuler entre l’intérieur et l’extérieur du neurone. C’est le mouvement de ces ions qui est à l’origine de l’activité électrique d’un neurone. Traduire cette activité en langage mathématique passe donc par la description des déplacements de ces ions de part et d’autre de la membrane.</p>
<p>Dans le cas des neurones de <em>C. elegans</em>, l’une des difficultés vient du manque de connaissance des ions impliqués, les particules chargées qui circulent entre l’intérieur et l’extérieur du neurone et responsables du signal électrique. Ce problème vient en grande partie de la petite taille des neurones et de la difficulté à disséquer un ver d’un millimètre de long sans le tuer. Sans informations précises sur les composantes responsables du comportement d’un neurone, la tâche de modélisation de son comportement en devient ainsi immédiatement plus ardue. Une façon d’outrepasser ces difficultés est de développer des algorithmes informatiques et des méthodologies mathématiques permettant de déterminer hypothétiquement certains ions impliqués, rendant ainsi possible la construction du modèle. Ces développements ont fait l’objet d’une <a href="https://theses.hal.science/tel-03580037v1/document">thèse</a> au laboratoire de mathématiques appliquées du Havre (LMAH).</p>
<p>Construire des modèles de ce type nécessite de passer par différentes étapes, depuis les laboratoires de <a href="https://theconversation.com/fr/topics/neurosciences-20430">neurophysiologie</a> jusqu’à ceux de mathématiques qui peuvent demander des mesures spécifiques. Il faut donc concevoir les manipulations sur les vers permettant de déterminer un minimum de paramètres nécessaires pour la construction des modèles. Ainsi, un travail de modélisation de ce type nécessite fondamentalement un travail interdisciplinaire dans lequel sont impliqués des chercheurs de différentes disciplines (neurophysiologie, mathématiques, informatique). Comme l’écrit si bien Alexandre Grothendieck, considéré comme l’un des plus grands mathématiciens du XX<sup>e</sup> siècle, dans son journal intime <em>Récoltes et Semailles</em>,</p>
<blockquote>
<p>« C’est dans la mesure où se conjuguent les points de vue complémentaires d’une même réalité, où se multiplient nos “yeux”, que le regard pénètre plus avant dans la connaissance des choses. »</p>
</blockquote>
<h2>Aujourd’hui, où en est-on ?</h2>
<p>Malgré les difficultés à disséquer les neurones de ce petit ver, il nous a été possible de recueillir certaines données précises sur le fonctionnement de ses neurones grâce à des mesures réalisées par des neurophysiologistes de l’université Rockefeller.</p>
<p>Une partie des neurones du ver <em>C. elegans</em> est maintenant <a href="https://hal.science/hal-03351604/document">modélisée assez précisément</a>. Cette étape de modélisation des neurones est nécessaire pour avancer dans la compréhension du fonctionnement du système nerveux. Elle n’est cependant pas suffisante, car c’est finalement l’interaction entre ses différents neurones et l’environnement qui détermine les comportements macroscopiques du ver et auquel s’intéresse la communauté scientifique.</p>
<p>Ainsi, d’autres chercheurs travaillent sur la modélisation du comportement du ver, mais sans tenir compte des éléments biologiques à l’échelle des neurones. Il reste donc à construire un modèle intégrant ces différentes échelles : partir des comportements des neurones à l’échelle microscopique pour reproduire les comportements observables du ver à l’échelle macroscopique.</p><img src="https://counter.theconversation.com/content/221156/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
C. elegans a beau être minuscule, c’est une star des laboratoires. En modélisant son système nerveux, les scientifiques veulent en apprendre plus sur les mécanismes qui fondent nos comportements.
Nathalie Corson, Maîtresse de conférences en mathématiques appliquées, Université Le Havre Normandie
Loïs Naudin, post doctorant en neurosciences computationnelles, Sorbonne Université
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/220083
2024-01-22T15:39:07Z
2024-01-22T15:39:07Z
Chats, mouches, humains : comment la vision a évolué en de multiples facettes
<figure><img src="https://images.theconversation.com/files/570563/original/file-20240122-17-qye3iz.jpg?ixlib=rb-1.1.0&rect=17%2C0%2C5973%2C3988&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La variété des modes de vision dans le règne animal est incroyable. </span> <span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/photo-en-gros-plan-dune-personne-t809JJ6r9KA">Marina Vitale/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Grâce à nos yeux, l’organe sensible de la vision, nous pouvons aisément et instantanément explorer le monde visible qui nous entoure. C’est littéralement incroyable : la vision opère sans effort malgré la complexité des processus qui sont mis en œuvre. Mais en fait, comment fonctionnent nos yeux ? Quelles leçons pouvons-nous tirer de leur diversité dans le règne animal ? Est-il possible de remonter aux origines de leur évolution pour comprendre comment les yeux ont émergé au cours de l’évolution du vivant ?</p>
<h2>L’œil humain : un chef-d’œuvre de la nature</h2>
<p>L’œil humain suscite un émerveillement immédiat quand on considère son fonctionnement ingénieux. Vu de l’extérieur et de face, l’œil dévoile le globe oculaire, protégé par les paupières, et en son centre se trouve la pupille, autour de laquelle l’iris coloré peut se dilater ou se contracter selon des facteurs comme la luminosité ambiante ou notre attention. Une coupe anatomique transversale permet de suivre le parcours de la lumière : celle-ci atteint d’abord une surface bombée, la cornée, puis le cristallin, une lentille qui concentre les rayons lumineux sur le fond de l’œil, sur lequel réside le composant sensible de l’œil, la rétine.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=148&fit=crop&dpr=1 600w, https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=148&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=148&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=187&fit=crop&dpr=1 754w, https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=187&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/568221/original/file-20240108-17-78s0cj.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=187&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Anatomie de l’œil humain. La vue de face montre la partie antérieure du globe oculaire, avec d’avant en arrière les paupières qui protègent et lubrifient la surface oculaire, la sclère (partie blanche) et la cornée (partie transparente), puis l’iris (partie colorée) dont la contraction permet de modifier la taille de la pupille (partie noire). La vue en coupe permet d’illustrer le passage de la lumière à travers la cornée et sa focalisation sur la rétine grâce au cristallin. Cette surface contient des neurones sensibles à la lumière ainsi que plusieurs couches de traitement qui permettent de transmettre cette information au cerveau par l’intermédiaire du nerf optique sous forme d’une activité neurale.</span>
<span class="attribution"><span class="source">Source</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>La rétine est un concentré de technologie. D’abord, il s’y trouve environ 100 millions de cellules sensibles, les photorécepteurs, qui transforment l’énergie lumineuse portée par les photons en réactions électrochimiques. Ces réactions génèrent une activité neuronale qui traverse différentes couches de traitement pour converger vers quelque 1,5 million de neurones de sortie, dites cellules ganglionnaires. Ces sorties s’unissent enfin pour former le nerf optique, reliant ainsi chaque rétine au reste du cerveau. De fait, la rétine est la seule portion du cerveau que nous pouvons directement observer !</p>
<p>Mais nos yeux ne se résument pas simplement à ça. Une complexité incroyable réside autour des yeux pour permettre de verser une larme ou d’accomplir un clignement. Notamment, grâce à la forme sphérique du globe oculaire, celui-ci peut réaliser des mouvements variés, soit rapides et saccadiques, soit lents et continus. Couplé au fait que les photorécepteurs sont particulièrement concentrés autour de l’axe de l’œil, notre regard permet alors de diriger cet axe vers des points d’intérêt, ou de stabiliser l’image d’un objet en mouvement. Cette capacité de bouger les yeux décuple ainsi les capacités de notre vision !</p>
<p>En élargissant le champ de notre curiosité au-delà de l’espèce humaine, nous réalisons la variété observée dans le règne animal, démontrant que les animaux exploitent des mécanismes tout aussi ingénieux.</p>
<h2>La pupille, prunelle de nos yeux</h2>
<p>Commençons notre exploration par la partie la plus apparente : la pupille. Son rôle est de moduler le passage de la lumière en faisant varier la taille de son ouverture. Intéressons-nous d’abord à la pupille du chat domestique : si dans l’obscurité sa forme est parfaitement ronde, elle se contracte graduellement quand la luminosité augmente pour former cette fente caractéristique en forme de biseau vertical. Les humains présentent un mécanisme de contraction similaire, mais il est uniforme dans toutes les directions, maintenant ainsi une forme ronde.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=148&fit=crop&dpr=1 600w, https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=148&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=148&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=187&fit=crop&dpr=1 754w, https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=187&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/569374/original/file-20240115-29-e34bgr.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=187&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Pupilles chez différentes espèces : Humain, chat, chèvre, seiche. La pupille peut se contracter par l’action des muscles de l’iris et moduler la quantité de lumière. Contractée, sa forme peut être ronde (humain), en forme de fente verticale (chat) ou horizontale (chèvre). Contractée, la pupille de la seiche montre une forme caractéristique en « w ».</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>De manière plus étonnante, les pupilles des moutons ou chèvres se contractent selon un axe parallèle à l’horizon qui est stabilisé quand ces animaux bougent leur tête pour brouter. Ces espèces sont des proies, et comme cette forme leur permet d’étendre leur champ de vision, cette adaptation améliore leurs chances de survie. En revanche, chez les chats la forme de fente verticale favorise la perception de la profondeur des objets proches. En effet, la subtile différence entre les images captées par chaque œil leur permet de percevoir la profondeur et une acuité supérieure améliore la précision de cette estimation. Cet avantage évolutif s’avère particulièrement utile pour ces prédateurs lors d’une attaque à l’affût.</p>
<p>D’autres animaux présentent des pupilles aux formes encore plus remarquables. Un exemple est la seiche, dont la pupille, une fois contractée, arbore une forme ondulée ressemblant à la lettre manuscrite « w ». Cette pupille unique dans le règne animal a longtemps suscité une énigme. Il s’avère d’autre part que ces animaux modifient la couleur de leur peau pour communiquer ou se camoufler. Ce comportement constitue un paradoxe, car un tel comportement nécessite nécessairement la perception de la couleur ou de la texture de l’objet à imiter, alors qu’il a été montré que cette espèce ne possède <a href="https://doi.org/10.1073/pnas.1524578113">pas de photorécepteurs sensibles à différentes couleurs</a>. <a href="https://doi.org/10.1073/pnas.1524578113">Une hypothèse fascinante</a> a émergé qui relie ces deux mystères. Elle suggère que la forme de la pupille puisse jouer un rôle dans la perception des couleurs. À l’instar d’un arc-en-ciel décomposant les couleurs en bandes distinctes, ce type de système optique réfléchit les différentes couleurs suivant des angles légèrement distincts. La pupille singulière de la seiche pourrait ainsi produire de subtiles différences pour chaque couleur, permettant au cerveau d’extraire les informations utiles pour les discerner, et ceci sans nécessiter de photorécepteurs spécifiques. Cette hypothèse illustre l’ingéniosité des stratégies qui peuvent émerger par le biais de la sélection naturelle, où des millions de générations et des milliards d’individus ont favorisé ces traits pour la survie de l’espèce.</p>
<h2>D’autres facettes des yeux : La vision panoramique des mouches</h2>
<p>Les yeux des humains, des chats et des moutons présentent une grande variabilité dans leurs formes, mais partagent également de nombreux traits communs. Il semble donc qu’ils aient évolué selon des trajectoires distinctes et indépendantes, tout en ayant probablement un ancêtre commun.</p>
<p>Mais si l’on remonte encore plus loin dans les branches de « l’arbre du vivant », on découvre une autre « branche » radicalement différente dans laquelle les yeux sont composés de multiples éléments oculaires allongés et juxtaposés.</p>
<p>L’exemple le plus frappant de cette configuration est celui de la mouche. Les yeux d’une mouche commune comportent environ dix mille facettes organisées suivant une grille hexagonale, chacune des facettes comprenant une lentille et une poignée de photorécepteurs. Cette structure permet à la mouche d’avoir un champ de vision panoramique et lui permet d’exécuter des manœuvres impressionnantes, avec des accélérations dignes des meilleurs avions de chasse. Plus surprenant encore, ce système pèse moins d’un gramme et consomme très peu d’énergie. Comprendre ce mécanisme pourrait être extrêmement précieux pour guider la conception de futurs robots volants.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1458217977036394497"}"></div></p>
<p>En remontant encore plus dans l’arbre de l’évolution, on peut identifier une forme encore plus élémentaire chez certains micro-organismes dotés <a href="https://doi.org/10.1098/rstb.2009.0072">d’un mécanisme phototactique</a>, c’est-à-dire un mouvement guidé par la lumière. Ce mécanisme repose sur une association simple entre un capteur photosensible dirigé selon l’axe principal de l’organisme et des cils agissant comme des moteurs pour déplacer celui-ci. Selon que l’organisme cherche à se diriger vers une source de lumière (potentiellement une source de nourriture) ou à l’éviter, un lien direct entre les cellules sensibles et motrices permet de mettre en place ce comportement fondamental d’orientation. Ce comportement est notamment observé dans des algues utilisant la photosynthèse pour accumuler de l’énergie, l’attraction vers la lumière leur permettant d’optimiser l’efficacité de cette production.</p>
<p><a href="https://global.oup.com/ukhe/product/eyes-to-see-9780198747710">Des études récentes</a> convergent sur le fait que les yeux ont été « inventés » à plusieurs reprises, souvent avec des formes étonnantes. Considérons par exemple le système visuel unique de la <a href="https://theconversation.com/cette-coquille-saint-jacques-vous-regarde-167727">coquille Saint-Jacques</a> et ses nombreux yeux indépendants d’un bleu iridescent (plus de 200), permettant à ce mollusque d’explorer son environnement lumineux immédiat. Ainsi, certaines morphologies sont si distinctes qu’elles semblent ne pas partager d’ancêtre commun. Cette hypothèse semble difficile à accepter, car nous avons tendance à placer l’espèce humaine à une place unique au sommet de la hiérarchie du vivant. Cependant, les yeux évoluent dans des niches écologiques spécifiques, et à la lumière des pressions exercées par la sélection naturelle, il n’y a pas de nécessité à ce qu’il existe un ancêtre commun pour tous les types de yeux dans le règne vivant. Ces « inventions » ne sont que les reflets des nombreuses facettes des processus émergeant dans l’évolution des espèces.</p>
<p>Les différentes anatomies oculaires révèlent aussi que chaque système visuel est adapté à un ensemble bien spécifique de comportements et d’environnements. Bien que certaines de ces « inventions » puissent sembler aussi complexes que les machines créées par les mains d’un horloger, en mettant en lumière la diversité des solutions émergeant de façon spontanée dans les processus évolutifs du vivant, nous pouvons en conclure que les yeux ont plutôt évolué indépendamment à plusieurs reprises sans avoir besoin de recourir à l’existence d’un dessein intelligent.</p><img src="https://counter.theconversation.com/content/220083/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Laurent Perrinet a reçu des financements de l'Agence nationale de la recherche (ANR) à travers le projet “AgileNeuRobot” N° ANR-20-CE23-0021. Ce travail a bénéficié d’une aide du gouvernement français au titre de France 2030, dans le cadre de l’Initiative d’Excellence d’Aix-Marseille Université – A*MIDEX, projet numero AMX-21-RID-025, "Polychronies".</span></em></p>
Nos yeux n’ont pas besoin de mode d’emploi pour fonctionner. Mais quels processus sont à l’œuvre ? Et que pouvons-nous apprendre des yeux d’autres espèces vivantes ?
Laurent Perrinet, Chercheur CNRS en Neurosciences computationnelles, Aix-Marseille Université (AMU)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/219917
2023-12-14T19:10:18Z
2023-12-14T19:10:18Z
Pourquoi notre cerveau est-il devenu aussi énergivore ?
<p>C’est l’un des grands paradoxes de l’évolution. L’humain a démontré que le fait d’avoir un <a href="https://theconversation.com/why-do-humans-have-such-large-brains-our-study-suggests-ecology-was-the-driving-force-96873">gros cerveau</a> est la clé de son succès dans l’évolution, et pourtant ce type de cerveau est extrêmement rare chez les autres animaux. La plupart d’entre eux se débrouillent avec de petits cerveaux et ne semblent pas avoir besoin de plus de neurones.</p>
<p>Pourquoi ? La réponse sur laquelle la plupart des biologistes se sont accordés est de dire que les gros cerveaux sont coûteux en termes d’énergie nécessaire à leur fonctionnement. Et, compte tenu du mode de fonctionnement de la sélection naturelle, les avantages <a href="https://pubmed.ncbi.nlm.nih.gov/9234964/">ne dépasseraient tout simplement pas les coûts</a>.</p>
<p>Mais s’agit-il seulement d’une question de taille ? La façon dont nos cerveaux sont organisés affecte-t-elle leur coût énergétique ? Une nouvelle étude, <a href="http://www.science.org/doi/10.1126/sciadv.adi7632">publiée dans Science Advances</a>, apporte des réponses intéressantes.</p>
<p>Tous nos organes ont des coûts énergétiques de fonctionnement, mais <a href="https://www.jstor.org/stable/2744104">certains sont peu élevés et d’autres très chers</a>. Les os, par exemple,demandent assez peu d’énergie. Bien qu’ils représentent environ 15 % de notre poids, ils n’utilisent que 5 % de notre métabolisme. Les cerveaux sont à l’autre extrémité du spectre, et avec environ 2 % du poids du corps humain typique, leur fonctionnement utilise environ 20 % de notre consommation d’énergie totale. Et ce, sans aucune réflexion particulièrement intense – cela se produit même lorsque nous dormons.</p>
<p>Pour la plupart des animaux, les avantages qu’apporterait un cerveau si énergivore n’en vaudraient tout simplement pas la peine. Mais pour une raison encore inconnue – peut-être la plus grande énigme de l’évolution humaine – les humains ont trouvé des moyens de surmonter les coûts d’un cerveau plus gros et d’en récolter les bénéfices.</p>
<p>Il est certain que les humains doivent supporter les coûts les plus élevés de leur cerveau, mais ces derniers sont-ils différents en raison de la nature particulière de notre cognition ? Le fait de penser, de parler, d’être conscient de soi ou de faire des additions coûte-t-il plus cher que les activités quotidiennes typiques des animaux ?</p>
<p>Il n’est pas facile de répondre à cette question, mais l’équipe à l’origine de cette nouvelle étude, dirigée par Valentin Riedl de l’université technique de Munich, en Allemagne, a relevé le défi.</p>
<p>Les auteurs disposaient d’un certain nombre d’éléments connus pour commencer. La structure de base des neurones est à peu près la même dans tout le cerveau et chez toutes les espèces. La densité neuronale est également la même chez l’homme et les autres primates, de sorte qu’il est peu probable que les neurones soient le moteur de l’intelligence. Si c’était le cas, certains animaux dotés d’un gros cerveau, comme les orques et les éléphants, seraient probablement plus « intelligents » que les humains.</p>
<figure class="align-center ">
<img alt="Elephant and woman in village Surin Thailand." src="https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/565485/original/file-20231213-19-jr94u6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les éléphants ont de plus gros cerveaux que les humains.</span>
<span class="attribution"><span class="source">venusvi/Shutterstock</span></span>
</figcaption>
</figure>
<p>Ils savaient également qu’au cours de l’évolution humaine, le néocortex – la plus grande partie de la couche externe du cerveau, connue sous le nom de cortex cérébral – s’est développé plus rapidement que les autres parties. Cette région, qui comprend le cortex préfrontal, est responsable des tâches impliquant l’attention, la pensée, la planification, la perception et la mémoire épisodique, toutes nécessaires aux fonctions cognitives supérieures.</p>
<p>Ces deux observations ont amené les chercheurs à se demander si les coûts énergétiques de fonctionnement varient d’une région à l’autre du cerveau.</p>
<p>L’équipe a scanné le cerveau de 30 personnes à l’aide d’une technique permettant de mesurer simultanément le métabolisme du glucose (une mesure de la consommation d’énergie) et la quantité d’échanges entre neurones dans le cortex. Ils ont ensuite pu examiner la corrélation entre ces deux éléments et voir si les différentes parties du cerveau utilisaient des niveaux d’énergie différents.</p>
<h2>Des résultats surprenants</h2>
<p>Les neurobiologistes ne manqueront pas d’analyser et d’explorer les moindres détails de ces résultats, mais d’un point de vue évolutif, ils donnent déjà matière à réflexion. Les chercheurs ont constaté que la différence de consommation d’énergie entre les différentes zones du cerveau est importante. Toutes les parties du cerveau ne sont pas égales, énergétiquement parlant.</p>
<p>Les parties du cerveau humain qui se sont le plus développées ont des coûts plus élevés que prévu. Le néocortex demande environ 67 % d’énergie en plus que les réseaux qui contrôlent nos mouvements.</p>
<p>Cela signifie qu’au cours de l’évolution humaine, non seulement les coûts métaboliques de nos cerveaux ont augmenté au fur et à mesure qu’ils grossissaient, mais qu’ils l’ont fait à un rythme accéléré, le néocortex se développant plus rapidement que le reste du cerveau.</p>
<p>Pourquoi en est-il ainsi ? Un neurone est un neurone, après tout. Le néocortex est directement lié aux fonctions cognitives supérieures.</p>
<p>Les signaux envoyés à travers cette zone sont médiés par des substances chimiques cérébrales telles que la sérotonine, la dopamine et la noradrénaline (neuromodulateurs), qui créent des circuits dans le cerveau pour aider à maintenir un niveau général d’excitation (au sens neurologique du terme, c’est-à-dire d’éveil). Ces circuits, qui régulent certaines zones du cerveau plus que d’autres, contrôlent et modifient la capacité des neurones à communiquer entre eux.</p>
<p>En d’autres termes, ils maintiennent le cerveau actif pour le stockage de la mémoire et la réflexion – un niveau d’activité cognitive généralement plus élevé. Il n’est peut-être pas surprenant que le niveau d’activité plus élevé impliqué dans notre cognition avancée s’accompagne d’un coût énergétique plus élevé.</p>
<p>En fin de compte, il semble que le cerveau humain ait évolué vers des niveaux de cognition aussi avancés non seulement parce que nous avons de gros cerveaux, ni seulement parce que certaines zones de notre cerveau se sont développées de manière disproportionnée, mais aussi parce que la connectivité s’est améliorée.</p>
<p>De nombreux animaux dotés d’un gros cerveau, comme les éléphants et les orques, sont très intelligents. Mais il semble qu’il soit possible d’avoir un gros cerveau sans développer les « bons » circuits pour une cognition de niveau humain.</p>
<p>Ces résultats nous aident à comprendre pourquoi les gros cerveaux sont si rares. Un cerveau de grande taille peut permettre l’évolution d’une cognition plus complexe. Cependant, il ne s’agit pas simplement d’augmenter la taille des cerveaux et l’énergie au même rythme, mais d’assumer des coûts supplémentaires.</p>
<p>Cela ne répond pas vraiment à la question ultime : comment l’homme est-il parvenu à franchir le plafond de l’énergie cérébrale ? Comme souvent dans l’évolution, la réponse se trouve dans l’écologie, la source ultime d’énergie. La croissance et le maintien d’un cerveau de grande taille – quelles que soient les activités sociales, culturelles, technologiques ou autres auxquelles il est destiné – nécessitent un <a href="https://royalsocietypublishing.org/doi/10.1098/rstb.1991.0111">régime alimentaire fiable et de qualité</a>.</p>
<p>Pour en savoir plus, nous devons explorer le dernier million d’années, la période où le cerveau de nos ancêtres s’est réellement développé, afin d’étudier cette interface entre la dépense énergétique et la cognition.</p><img src="https://counter.theconversation.com/content/219917/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Le cerveau humain utilise 20 % de l'énergie que nous consommons, un chiffre élevé qui n’existe chez aucune autre espèce.
Robert Foley, Emeritus Professor of Human Evolution, University of Cambridge
Marta Mirazon Lahr, Professor of Human Evolutionary Biology & Director of the Duckworth Collection, University of Cambridge
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/219049
2023-12-06T17:35:02Z
2023-12-06T17:35:02Z
Interface cerveau-machine : utiliser nos muscles pour faire parler nos neurones
<figure><img src="https://images.theconversation.com/files/563979/original/file-20231206-25-8i4mg0.jpg?ixlib=rb-1.1.0&rect=3%2C572%2C2153%2C1526&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Via une interface, notre cerveau pourrait contrôler un bras robotique.</span> <span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/deux-mains-tendant-la-main-vers-un-objet-volant-dans-le-ciel-X9Cemmq4YjM">Cash Macanaya/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Un patient paralysé qui remarche en contrôlant un <a href="https://www.sciencedirect.com/science/article/pii/S1474442219303217">exosquelette robotique</a> par la <a href="https://www.youtube.com/watch?v=sKuSZDZPmT4">force de sa pensée</a>. Ce n’est pas de la science-fiction, c’est ce que l’on appelle une interface cerveau-machine ; c’est-à-dire un système qui établit une connexion entre le cerveau et un système automatisé sans nécessiter le moindre mouvement de la part de l’utilisateur.</p>
<p>Le principe consiste à enregistrer les signaux électriques du cerveau puis à les décoder, c’est-à-dire à les associer à des mouvements. Ainsi, en détectant les intentions de mouvement, ces interfaces permettent à des patients de communiquer ou de contrôler des prothèses robotiques. Cependant, mesurer l’activité électrique du cerveau n’est pas facile. On peut utiliser des électrodes posées à la surface du crâne et ainsi obtenir un électroencéphalogramme (EEG). Seulement ces signaux sont souvent difficiles à décoder. Une alternative consiste à implanter des électrodes directement au contact des aires motrices du cerveau, ce qui nécessite une intervention chirurgicale.</p>
<p>Bien que les bénéfices attendus surpassent les risques encourus par la chirurgie, des solutions complémentaires sont actuellement à l’étude. Et de manière surprenante, ces solutions s’intéressent à un organe bien différent du cerveau : le muscle. Ces approches ont l’avantage d’être non invasives et pourraient avoir des applications dans la compréhension des mécanismes cérébraux impliqués dans la production du mouvement ou de manière plus pratique à permettre le contrôle de prothèse chez des personnes en situation de handicap ou qui ont subi une amputation.</p>
<h2>Et si le muscle remplaçait le cerveau</h2>
<p>Notre cerveau contrôle la plupart de nos mouvements en envoyant à nos muscles des messages nerveux sous forme d’impulsions électriques. Ces messages nerveux transitent notamment <em>via</em> des neurones dits <em>moteurs</em> – ou motoneurones spinaux – qui relient la moelle épinière aux fibres musculaires. Chaque motoneurone est connecté à plusieurs fibres musculaires (jusqu’à plusieurs milliers) et lorsqu’une impulsion électrique se propage le long d’un motoneurone, il conduit nécessairement à la formation d’une impulsion électrique sur chacune des fibres musculaires innervées. Ainsi, en plus de recevoir l’information sur la commande nerveuse du mouvement, le muscle agit comme un amplificateur de cette commande puisque chaque impulsion électrique est démultipliée par le nombre de fibres musculaires sur lesquelles elle se propage.</p>
<p>Depuis bientôt deux décennies, nous sommes capables de décoder l’activité électrique d’un muscle en utilisant une technique appelée électromyographie (EMG) haute densité, qui consiste à placer des dizaines, voire des centaines d’électrodes à la surface de la peau.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=258&fit=crop&dpr=1 600w, https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=258&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=258&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=325&fit=crop&dpr=1 754w, https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=325&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/563982/original/file-20231206-19-jsyemj.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=325&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Schéma du principe de l’électromyographie (EMG) haute densité.</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Combinés à l’utilisation d’algorithmes d’intelligence artificielle, les signaux recueillis peuvent être décomposés afin d’isoler l’activité de plusieurs motoneurones, fournissant une information sur la commande émise par le cerveau et transitant par la moelle épinière. Ainsi, le motoneurone spinal est le seul neurone du corps humain dont l’activité électrique peut être mesurée de manière non invasive, c’est-à-dire sans franchir la barrière de la peau. De telles informations n’avaient été obtenues jusqu’alors qu’avec des électrodes implantées dans des muscles ou des nerfs.</p>
<p>En utilisant cette approche non invasive, une <a href="https://journals.physiology.org/doi/full/10.1152/jn.00220.2021">étude</a> a récemment démontré qu’il est possible de décoder l’intention de mouvement d’un patient tétraplégique pour lui permettre de contrôler une main virtuelle. Malgré la lésion de la moelle épinière de ce patient qui altère fortement la transmission de l’information du cerveau vers les muscles de la main, ces chercheurs ont été capables de mesurer l’activité résiduelle de quelques motoneurones encore actifs. Bien qu’en nombre bien trop faible pour permettre un mouvement, ces motoneurones véhiculent toujours une commande nerveuse émanant principalement du cerveau, et donc une intention de mouvement. Ainsi, lorsque le patient essayait de fléchir son majeur, l’activité de quelques motoneurones était détectée par des électrodes posées sur son avant-bras, puis utilisée pour piloter une main virtuelle qui reproduisait une flexion du majeur. À terme, il devrait être envisageable de piloter des gants robotiques avec cette approche afin de retrouver en partie la fonction des mains.</p>
<h2>Vers une meilleure compréhension de la production du mouvement</h2>
<p>Au-delà de permettre le développement d’interfaces cerveau-machine innovantes, la capacité à décoder l’activité de motoneurones permet de changer radicalement l’échelle à laquelle nous étudions le mouvement. L’approche classique considère que le mouvement est contrôlé à l’échelle du muscle. Par exemple, lorsque l’on souhaite réaliser une extension de la jambe, le cerveau spécifierait l’activité des muscles produisant cette action, notamment les quatre muscles qui composent le quadriceps (c.-à-d., les muscles situés sur le devant de la cuisse). Cette vision est remise en cause par les résultats d’une <a href="https://physoc.onlinelibrary.wiley.com/doi/full/10.1113/JP283040">étude</a> de notre équipe, impliquant des chercheurs de l’université Côte d’Azur et des chercheurs de l’Imperial College London.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=266&fit=crop&dpr=1 600w, https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=266&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=266&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=335&fit=crop&dpr=1 754w, https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=335&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/563983/original/file-20231206-17-lvxgt0.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=335&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Deux motoneurones innervant des muscles différents peuvent recevoir la même commande.</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Cette étude démontre que les commandes nerveuses sont distribuées à des groupes de motoneurones, et que ces groupes sont partiellement découplés des muscles. Ainsi, des motoneurones innervant deux muscles différents peuvent recevoir la même commande s’ils contribuent au même mouvement alors que deux motoneurones innervant le même muscle peuvent recevoir des commandes différentes s’ils contribuent à des actions différentes. En d’autres termes, notre cerveau spécifierait une commande pour des groupes de motoneurones, sans nécessairement se soucier des muscles. Cette organisation permettrait de simplifier le contrôle du mouvement (en transmettant la même commande à plusieurs motoneurones) tout en restant capable de réaliser un large répertoire de mouvements (en permettant notamment à certains muscles d’assurer plusieurs fonctions). Au delà de mieux décrire la production du mouvement, cette nouvelle <a href="https://physoc.onlinelibrary.wiley.com/doi/full/10.1113/JP283698">théorie</a> permet d’envisager l’augmentation des capacités humaines.</p>
<h2>De la récupération à l’augmentation du mouvement, il n’y a qu’un bras</h2>
<p>Bien que la capacité de décoder les intentions de mouvement offre des perspectives de restauration du mouvement pour de nombreux patients, elle permet également d’envisager l’augmentation du corps humain. Bien qu’effrayante et captivante à la fois, l’idée d’augmenter les capacités du corps humain avec des membres supplémentaires est au centre de <a href="https://www.nature.com/articles/s41467-022-28725-7">plusieurs programmes de recherche</a>.</p>
<p>Imaginez-vous en train d’écrire un mail tout en préparant un café grâce à un troisième bras. Bien que nous n’en soyons pas encore là, des chercheurs ont montré que nous sommes capables d’apprendre à utiliser un <a href="https://www.science.org/doi/10.1126/scirobotics.abd7935">troisième pouce</a> (robotique) en le contrôlant avec nos gros orteils. Mais attention, pour parler d’augmentation, il ne faut pas que l’utilisation d’un nouveau membre impacte les capacités de mouvement existantes. Par exemple, ce troisième pouce étant contrôlé par les mouvements des gros orteils, il est impossible de l’utiliser en marchant, et sans doute assez difficile de l’utiliser en étant debout.</p>
<p>Il est donc nécessaire de créer une nouvelle commande pour ce nouveau membre. C’est ici que la capacité d’identifier l’activité des motoneurones prend tout son sens. En effet, on pourrait imaginer qu’un individu puisse dissocier l’activité de motoneurones d’un même muscle du bras, de manière spontanée ou après avoir été entraîné à le faire. Ainsi, ces motoneurones transmettraient deux commandes différentes au lieu d’une seule : l’une pour le mouvement du bras et l’autre pour commander ce nouveau membre robotique.</p>
<p>En outre, des <a href="https://iopscience.iop.org/article/10.1088/1741-2552/abcdbf">études</a> récentes suggèrent que ces motoneurones transmettent bien plus d’information que nécessaire pour contrôler le mouvement ; ainsi des recherches en cours visent à exploiter ces informations non utilisées par nos muscles pour créer de nouvelles possibilités de commande.</p>
<p>Irons-nous jusqu’à nous représenter ce nouveau bras comme partie intégrante de notre corps ? Ou devrons-nous admettre que notre cerveau ne peut contrôler que deux bras et deux jambes ?</p><img src="https://counter.theconversation.com/content/219049/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Pour les personnes paralysées, il serait très utile de pouvoir contrôler des bras ou des jambes robotisés, c’est le principe des interfaces cerveau-machine.
François Hug, Professeur en sciences du mouvement humain, Directeur adjoint du Laboratoire Motricité Humaine Expertise Sport Santé (LAMHESS), Université Côte d’Azur
Simon Avrillon, Post-doctorant en neuroscience, Imperial College London
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/205531
2023-10-05T13:26:38Z
2023-10-05T13:26:38Z
La Banque de cerveaux Douglas-Bell Canada : une mine d’or pour la recherche sur les maladies du cerveau
<figure><img src="https://images.theconversation.com/files/552342/original/file-20231005-26-rmh9lm.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C4000%2C1508&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les méthodes expérimentales à notre disposition aujourd’hui permettent ni plus ni moins de « déconstruire » le cerveau en ses composantes élémentaires afin d’en comprendre les fonctions et les dysfonctions.</span> <span class="attribution"><span class="source">Shutterstock</span></span></figcaption></figure><p>Le cerveau fascine les humains depuis toujours. </p>
<p>Mais nos connaissances scientifiques sur ces quelques 1,3 kg de substance fragile enchâssée dans la boîte crânienne ont longtemps été fragmentaires. Or, les percées techniques fulgurantes des dernières années ont inauguré en quelque sorte l’âge d’or des neurosciences moléculaires. </p>
<p>Ces percées ont aussi été permises grâce aux banques de cerveaux, qui conservent des cerveaux humains dans les meilleures conditions pour la recherche scientifique. Nous avons ici à Montréal l’une des plus importantes au monde, la Banque de cerveaux Douglas-Bell Canada (BCDBC), qui a été <a href="https://douglasbrainbank.ca/fr/a-propos">fondée en 1980 à l’Hôpital Douglas</a>. </p>
<p>La BCDBC, qui reçoit plusieurs cerveaux chaque mois, a récolté à ce jour plus de 3 600 spécimens. Son équipe traite chaque année des dizaines de requêtes de tissus provenant de scientifiques du Québec, du Canada, et de l’étranger, préparant ainsi environ 2 000 échantillons pour la recherche. </p>
<p>Ces efforts ont permis, au cours des 40 dernières années, un nombre considérable de découvertes sur différentes maladies neurologiques et psychiatriques. </p>
<p>Professeur titulaire au Département de psychiatrie de l’Université McGill, chercheur au Centre de recherche Douglas et directeur de la BCDBC depuis 2007, je travaille en étroite collaboration avec le <a href="https://douglas.research.mcgill.ca/fr/gustavo-turecki-2/">Dr Gustavo Turecki</a>, codirecteur de la BCDBC et responsable du volet consacré aux maladies psychiatriques et au suicide.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&rect=14%2C2%2C1535%2C1231&q=45&auto=format&w=1000&fit=clip"><img alt="hémisphère cérébral" src="https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&rect=14%2C2%2C1535%2C1231&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=475&fit=crop&dpr=1 600w, https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=475&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=475&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=596&fit=crop&dpr=1 754w, https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=596&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/552153/original/file-20231004-17-mdh992.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=596&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La Banque de cerveaux Douglas-Bell Canada, qui reçoit plusieurs cerveaux à chaque mois, a récolté à ce jour plus de 3 600 spécimens.</span>
<span class="attribution"><span class="source">(Naguib Mechawar)</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Une petite histoire de la recherche sur le cerveau humain</h2>
<p>Ce n’est que vers la seconde moitié du XIX<sup>e</sup> siècle que les scientifiques commencent à identifier les éléments microscopiques qui composent le cerveau.</p>
<p>À cette époque, on le conserve pour la première fois dans le formol, une solution qui préserve les tissus biologiques afin de pouvoir les manipuler plus facilement et de les garder à long terme. </p>
<p>Parallèlement, on développe des instruments de précision et des protocoles permettant d’examiner les caractéristiques microscopiques du tissu nerveux. </p>
<p>Jusqu’au milieu du XX<sup>e</sup> siècle, on se contente surtout de conserver des cerveaux de patients, prélevés à l’autopsie, dans le but d’identifier de possibles changements macroscopiques ou microscopiques en lien avec leurs symptômes neurologiques ou psychiatriques. </p>
<p>C’est notamment ce que fait le neurologue allemand Alois Alzheimer, qui analyse le cerveau d’une de ses patientes atteintes de démence. En 1906, il décrit alors, pour la première fois, les lésions microscopiques qui caractérisent la maladie portant aujourd’hui son nom. </p>
<p>Ainsi, jusqu’à la fin des années 1970, de nombreuses collections de spécimens de cerveaux conservés dans le formol se bâtissent dans des milieux hospitaliers, un peu à la façon des anciens cabinets de curiosités. </p>
<p>Vers la fin du XX<sup>e</sup> siècle, les approches expérimentales permettant l’analyse à haute résolution de cellules et de molécules au sein de tissus biologiques se multiplient. </p>
<p>Il devient alors nécessaire de recueillir et de conserver des cerveaux humains, obtenus grâce au consentement de la personne ou de sa famille, dans des conditions compatibles avec les techniques scientifiques modernes.</p>
<p>On se met à congeler l’un des hémisphères cérébraux afin, notamment, de pouvoir en mesurer les différentes composantes moléculaires. L’autre hémisphère est fixé dans le formol pour des études anatomiques macroscopiques et microscopiques.</p>
<p>C’est dans ce contexte que fut créée la Banque de cerveaux Douglas-Bell Canada.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Les locaux de la BCDBC" src="https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=399&fit=crop&dpr=1 600w, https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=399&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=399&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=501&fit=crop&dpr=1 754w, https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=501&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/552154/original/file-20231004-25-z5k7jp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=501&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">À Montréal se trouve l’une des plus importantes banques de cerveaux au monde, la Banque de cerveaux Douglas-Bell Canada, qui fut fondée en 1980 à l’Hôpital Douglas.</span>
<span class="attribution"><span class="source">(Naguib Mechawar)</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>De nouvelles approches expérimentales qui portent fruit</h2>
<p>Des chercheurs de pointe de nombreuses universités à travers le monde bénéficient des échantillons de la BCDBC pour faire progresser leurs recherches. Cela inclut, il va sans dire, plusieurs équipes québécoises.</p>
<p>C’est ainsi que le <a href="https://douglas.research.mcgill.ca/fr/judes-poirier-2/">Dr Judes Poirier</a>, du Centre de recherche Douglas, affilié à l’Université McGill, et son équipe ont découvert que le gène APOE4 constitue un <a href="https://doi.org/10.1016/0140-6736(93)91705-Q">facteur de risque de la maladie d’Alzheimer</a>. Plus récemment, l’équipe du <a href="https://crhmr.ciusss-estmtl.gouv.qc.ca/fr/chercheur/gilbert-bernier">Dr Gilbert Bernier</a>, professeur au Département de neurosciences de l’Université de Montréal, a découvert que les lésions caractéristiques de cette maladie sont associées à une <a href="https://doi.org/10.1038/s41598-018-37444-3">expression anormale du gène BMI1</a>.</p>
<p>Du côté des maladies psychiatriques, et plus particulièrement de la dépression, des progrès importants ont été réalisés tout récemment par le <a href="https://douglas.research.mcgill.ca/fr/groupe-mcgill-detudes-sur-le-suicide/">Groupe McGill d’Études sur le Suicide</a>. </p>
<p>Ainsi, en utilisant des méthodes de pointe permettant d’isoler et d’analyser les cellules du cerveau humain, l’équipe du Dr. Turecki est parvenue à identifier précisément les types de cellules dont la fonction est affectée chez des hommes <a href="https://doi.org/10.1038/s41593-020-0621-y">ayant souffert de dépression majeure</a>, puis de découvrir que les types cellulaires en cause dans cette maladie diffèrent <a href="https://doi.org/10.1038/s41467-023-38530-5">entre les hommes et les femmes</a>. </p>
<p>Ces approches expérimentales donnent lieu à des ensembles de données gigantesques pouvant être interrogés dans le cadre d’études subséquentes. C’est le cas, par exemple, de travaux menés dans mon laboratoire et ayant identifié des signes de changements persistants dans la neuroplasticité au sein du cortex préfrontal de personnes ayant un historique de <a href="https://doi.org/10.1038/s41380-021-01372-y">maltraitance infantile</a>. En effet, les études citées ci-dessus nous ont permis de découvrir au moins un des types cellulaires impliqués dans ce phénomène. </p>
<p>En somme, les méthodes expérimentales à notre disposition aujourd’hui permettent ni plus ni moins de « déconstruire » le cerveau en ses composantes élémentaires afin d’en comprendre les fonctions et les dysfonctions.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Hémisphères cérébraux conservés dans le formol" src="https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=401&fit=crop&dpr=1 600w, https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=401&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=401&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=504&fit=crop&dpr=1 754w, https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=504&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/552155/original/file-20231004-27-62uc6y.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=504&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Des chercheurs de pointe de nombreuses universités à travers le monde bénéficient des échantillons de la BCDBC pour faire progresser leurs recherches.</span>
<span class="attribution"><span class="source">(Naguib Mechawar)</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Identifier, prévenir, dépister et traiter</h2>
<p>C’est grâce au travail acharné et au dévouement de toute l’équipe de la BCDBC, ainsi qu’au soutien indéfectible de tous ses partenaires, de mécènes (souvent anonymes) et d’organismes subventionnaires, et particulièrement le FRQS et son <a href="https://reseausuicide.qc.ca/fr/">Réseau québécois sur le suicide, les troubles de l’humeur et les troubles associés</a>, que cette ressource inestimable a non seulement réussi à survivre, mais à se développer et à se hisser au rang des plus importantes banques de cerveaux au monde. </p>
<p>Il est permis de croire que la BCDBC aura dans les années à venir un rôle important à jouer dans l’identification de plus en plus précise des causes biologiques des maladies du cerveau, et donc de nouvelles cibles en vue de meilleures approches de prévention, de dépistage et de traitement.</p><img src="https://counter.theconversation.com/content/205531/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Naguib Mechawar a reçu des financements des IRSC, du CRSNG, de HBHL (Apogée) et du FRQS (ERA-NET NEURON et RQSHA). </span></em></p>
À Montréal se trouve l’une des plus importantes banques de cerveaux au monde, la Banque de cerveaux Douglas-Bell Canada. Elle permet des découvertes sur différentes maladies neurologiques et psychiatriques.
Naguib Mechawar, Neurobiologiste, Institut Douglas; Professeur titulaire, Département de psychiatrie, McGill University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/213943
2023-09-22T13:53:46Z
2023-09-22T13:53:46Z
Jamais-vu : ce que les recherches nous disent sur l’opposé du déjà-vu
<figure><img src="https://images.theconversation.com/files/549125/original/file-20230914-26-8pawc1.jpg?ixlib=rb-1.1.0&rect=457%2C46%2C5763%2C4100&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le « jamais-vu » survient lorsque quelque chose qu’on sait être familier semble tout à coup irréel ou nouveau. La principale explication scientifique du phénomène est la « satiation », qui consiste en une surcharge d’une représentation jusqu’à ce qu’elle en perde toute signification.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>Notre esprit a un rapport particulier avec la répétition. Prenons l’expérience du déjà-vu, lorsque nous croyons à tort avoir vécu une situation dans le passé, ce qui nous laisse une sensation troublante de retour en arrière. Nous avons découvert que le déjà-vu propose en réalité une vue sur le fonctionnement de notre mémoire.</p>
<p>Nos recherches ont montré que le phénomène se produit lorsque la partie du cerveau qui détecte la familiarité se désynchronise de la réalité. Le déjà-vu constitue un signal qui nous avertit d’une bizarrerie : il s’agit d’une sorte de <a href="https://www.newscientist.com/article/2101089-mystery-of-deja-%20vu-explained-its-how-we-check-our-memories">« confrontation avec la réalité »</a> effectuée par le système de la mémoire.</p>
<p>La répétition peut avoir toutefois des effets encore plus troublants et inhabituels. Le contraire du déjà-vu est le « jamais-vu », lorsque quelque chose qu’on sait être familier semble tout à coup irréel ou nouveau. Dans le cadre de <a href="https://www.tandfonline.com/doi/abs/10.1080/09658211.2020.1727519">nos récentes recherches</a>, pour lesquelles nous venons de remporter le <a href="https://improbable.com/ig/winners/#ig2023">prix Ig Nobel de littérature</a>, nous avons étudié le mécanisme à l’origine de ce phénomène.</p>
<h2>Une expérience inhabituelle et troublante</h2>
<p>Le jamais-vu consiste, par exemple, à voir un visage connu et à le <a href="https://link.springer.com/referenceworkentry/10.1007/978-0-387-79948-3_1167">trouver soudain bizarre ou étranger</a>. Les musiciens peuvent avoir ce sentiment lorsqu’ils se perdent dans un passage de musique qu’ils connaissent très bien. On ressent aussi cet effet lorsqu’on arrive dans un endroit familier et qu’on s’y sent désorienté ou qu’on porte dessus un regard nouveau.</p>
<p>Il s’agit d’une expérience encore <a href="https://psycnet.apa.org/buy/2003-00782-006">plus rare que le déjà-vu</a> et peut-être encore plus inhabituelle et troublante. Lorsqu’on demande aux gens de la décrire dans des questionnaires sur des expériences de la vie quotidienne, on obtient des réponses telles que « Pendant un examen, j’écris correctement un mot comme “appétit”, mais je lis et relis le mot parce que je n’arrive pas à être sûr qu’il est bien écrit. »</p>
<p>Au quotidien, cela peut être provoqué par une répétition ou le fait de fixer son regard sur quelque chose, mais ce n’est pas toujours le cas. Akira, un membre de notre équipe, a déjà eu cette sensation en conduisant sur l’autoroute, ce qui l’a obligé à s’arrêter sur l’accotement pour que son sentiment de ne pas savoir quoi faire avec les pédales et le volant puisse se « réinitialiser ». Par chance, cela ne se produit pas souvent.</p>
<h2>Une expérience toute simple</h2>
<p>Nous ne savons pas grand-chose du jamais-vu. Mais nous avons présumé qu’il serait assez facile de l’induire en laboratoire. Quand on demande à quelqu’un de répéter quelque chose de nombreuses fois, cela perd souvent de son sens et devient déroutant.</p>
<p>C’est sur cette base que nous avons mené nos recherches sur le jamais-vu. Dans une première expérience, 94 étudiants de premier cycle ont eu comme tâche d’écrire plusieurs fois le même mot. Ils l’ont fait avec douze mots différents qui allaient du plus banal, comme « door » (porte), à d’autres moins courants, comme « sword » (un terme pour pelouse qui n’est pas usuel).</p>
<p>Nous avons dit aux participants qu’ils devaient recopier le mot le plus rapidement possible et qu’ils étaient autorisés à s’arrêter. Nous leur avons donné quelques raisons pour lesquelles ils pouvaient prendre une pause, comme le fait de se sentir bizarre, de s’ennuyer ou d’avoir la main endolorie. La raison la plus souvent invoquée était de sentir que les choses devenaient étranges, et environ 70 % des participants se sont arrêtés au moins une fois parce qu’ils ressentaient quelque chose qui s’apparentait au « jamais-vu ». Cela se produisait généralement au bout d’une minute (33 répétitions) – et surtout pour des mots familiers.</p>
<p>Lors d’une deuxième expérience, nous n’avons utilisé que le mot « the » (le ou la), estimant qu’il s’agissait du mot le plus courant de la langue anglaise. Cette fois, 55 % des personnes ont cessé d’écrire pour des raisons qui répondaient à notre définition du jamais-vu (après 27 répétitions en moyenne).</p>
<p>Voici comment les participants ont décrit leur expérience : « Ils perdent leur sens à mesure qu’on les regarde », « J’ai l’impression de perdre le contrôle de ma main » et, notre favori, « Cela ne semble pas normal, c’est presque comme s’il ne s’agissait pas d’un mot mais que quelqu’un m’avait trompé en me faisant croire que c’en était un ».</p>
<figure class="align-center ">
<img alt="Image of paper with the word « the » over and over" src="https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/548389/original/file-20230914-9125-llzb2a.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Essayez d’écrire 33 fois le mot « the ».</span>
<span class="attribution"><span class="source">Christopher Moulin</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<h2>Une « perte du pouvoir associatif »</h2>
<p>Il nous a fallu environ 15 ans pour rédiger et publier nos résultats. En 2003, nous avons travaillé à partir de la présomption que les gens se sentaient bizarres en écrivant un mot de nombreuses fois de suite. Chris, un membre de notre équipe, avait remarqué que les phrases qu’on lui avait demandé d’écrire à plusieurs reprises en guise de punition à l’école secondaire lui donnaient une sensation étrange, comme si elles n’étaient pas réelles.</p>
<p>Cela a pris 15 ans parce que nous n’étions pas si futés et que notre idée n’était pas aussi novatrice que nous le croyions. En 1907, <a href="https://nospensees.fr/margaret-floy-washburn-la-premiere-femme-docteure-en-psychologie/">Margaret Floy Washburn</a>, une pionnière de la psychologie restée dans l’ombre, a publié une <a href="https://www.jstor.org/stable/1412411">expérience</a> menée avec un de ses étudiants qui montrait la « perte du pouvoir associatif » de mots que l’on fixait pendant trois minutes. Les mots devenaient étranges, perdaient leur sens et se fragmentaient au fil du temps.</p>
<p>Nous avions réinventé la roue. Ces méthodes et investigations introspectives n’avaient tout simplement plus la cote en psychologie.</p>
<h2>Et si on approfondissait un peu</h2>
<p>Notre unique contribution est d’avancer que les transformations et les pertes de sens liées à la répétition s’accompagnent d’un sentiment particulier : le jamais-vu. Il nous signale que quelque chose est devenu trop automatique, trop aisé, trop répétitif. Il nous permet d’émerger de notre fonctionnement actuel, et le sentiment d’étrangeté constitue une confrontation avec la réalité.</p>
<p>Il est logique que cela se produise. Nos systèmes cognitifs doivent rester flexibles, ce qui nous permet d’orienter notre attention là où c’est nécessaire plutôt que de nous égarer trop longtemps dans des tâches répétitives.</p>
<p>Nous n’en sommes qu’au début de notre compréhension du jamais-vu. La principale explication scientifique est la « satiation », qui consiste en une surcharge d’une représentation jusqu’à ce qu’elle en perde toute signification. Parmi les idées du même genre, citons <a href="https://psycnet.apa.org/record/1969-00199-001">« l’effet de transformation verbale »</a>, où la répétition d’un mot active des mots « voisins », de sorte que si des gens commencent par écouter en boucle le mot « tress », ils finissent par entendre « dress », « stress » ou « florist ».</p>
<p>Ce phénomène semble lié à la recherche sur les troubles obsessionnels compulsifs (TOC), où on s’est intéressé à <a href="https://pubmed.ncbi.nlm.nih.gov/19342006/">ce qui se passe</a> lorsque quelqu’un fixe de façon compulsive des objets, tels que des brûleurs de cuisinière allumés. Comme pour l’écriture répétitive, cela engendre une transformation de la réalité, ce qui peut nous aider à comprendre et à traiter les TOC. Si le fait de vérifier à plusieurs reprises si la porte est bien fermée à clé finit par faire perdre toute signification à la tâche, cela rend difficile de savoir si la porte est fermée ou pas, et un cercle vicieux s’enclenche.</p>
<p>Pour conclure, nous sommes flattés d’avoir reçu le prix Ig Nobel de littérature. Les lauréats de ces prix contribuent à des travaux scientifiques qui « vous font rire pour ensuite vous faire réfléchir ». Nous espérons que notre travail sur le jamais-vu inspirera d’autres recherches et permettra d’approfondir le sujet dans un proche avenir.</p><img src="https://counter.theconversation.com/content/213943/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Christopher Moulin reçoit actuellement un financement de l'Agence nationale de recherche française pour examiner la conscience de la mémoire chez les personnes âgées en bonne santé (projet AGEFOK). Il a été membre senior de l'Institut universitaire de France (IUF) entre 2016 et 2021. Il remercie l'IUF pour son soutien dans ses recherches sur le déjà vu et le jamais vu.</span></em></p><p class="fine-print"><em><span>Akira O'Connor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Vous est-il déjà arrivé de regarder un visage familier et de le trouver soudainement inhabituel ou inconnu ? Il s’agit peut-être d’un cas de « jamais vu ».
Akira O'Connor, Senior Lecturer in Psychology, University of St Andrews
Christopher Moulin, Professor of cognitive neuropsychology, Université Grenoble Alpes (UGA)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/208543
2023-07-09T15:28:28Z
2023-07-09T15:28:28Z
L’IA pourrait-elle avoir des crises d’épilepsie ?
<figure><img src="https://images.theconversation.com/files/534394/original/file-20230627-19-bpm2lk.jpg?ixlib=rb-1.1.0&rect=0%2C11%2C2576%2C1837&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les neurones artificiels peuvent-ils servir de modèle pour comprendre les vrais neurones ?</span> <span class="attribution"><span class="source">GDJ/Pixabay</span></span></figcaption></figure><p>Depuis quelques années, intelligence artificielle (IA, ou AI en anglais), apprentissage machine (<em>machine learning</em>), « réseaux de neurones artificiels » (<em>artificial neural network</em>) et <a href="https://theconversation.com/y-a-t-il-de-lintelligence-dans-lintelligence-artificielle-157447">« apprentissage profond » (<em>deep learning</em>, ou DL)</a> sont de plus en plus présents dans nos quotidiens. Ces termes recouvrent des méthodes, des techniques, des processus qui nous permettent de faire effectuer à des machines des tâches dites complexes comme reconnaître des images, conduire une voiture, ou mener une conversation avec un humain.</p>
<p>Des tâches au cours desquelles il serait facile a priori de comparer intelligence artificielle et « naturelle » – humaine.</p>
<p>Or, à force de rapprochement, nous avons tendance à considérer certains de ces outils, les réseaux de neurones artificiels en particulier, comme des modèles de notre propre cerveau – et les capacités du <em>deep learning</em> comme des modèles de ses fonctions… Mais est-ce que, parce qu’une machine est capable de réaliser des tâches similaires à celles effectuées par notre cerveau, elle peut en être un modèle ?</p>
<p>Prenons une analogie pour une tâche simple : trier des pièces de monnaie. Il existe des machines purement mécaniques qui en sont parfaitement capables. Nous sommes, nous, humains, tout aussi capables de trier des pièces de monnaie… Va-t-on apprendre quelque chose de nous sur notre capacité à trier des pièces en observant de telles machines ?</p>
<p>La question se pose à un autre niveau avec l’IA. Les <a href="https://theconversation.com/dans-le-cerveau-cache-de-lintelligence-artificielle-151887">réseaux de neurones artificiels</a> sont, comme leur nom l’indique, inspirés par des connaissances acquises en neurosciences. Et ils partagent quelques caractéristiques avec nos cellules nerveuses. Notre question est donc plutôt : jusqu’où peut aller la comparaison ?</p>
<p>Quelles sont les limites de ces « modèles » ? Sont-ils suffisamment proches pour être utilisable en neurologie ou en santé mentale ?</p>
<h2>Ce qu’est un neurone artificiel</h2>
<p>Le modèle de neurone (ou « nœud » en apprentissage automatique) utilisé dans le <em>deep learning</em> n’a rien de physique : il s’agit d’un ensemble d’étapes mathématiques effectuées dans un ordinateur. Un nœud reçoit des données, externes ou provenant de nœuds précédents, qui sont pondérées (multipliées) par leur « poids synaptique », une valeur quantifiant l’importance accordée à chaque donnée.</p>
<p>De façon similaire, dans notre cerveau, un neurone reçoit des données par ses « synapses », ses points de contact avec les neurones voisins. Selon son « poids », chaque synapse aura plus ou moins d’effet sur le neurone en question. Toutes les entrées que ce dernier reçoit sont ainsi pondérées, et il va s’activer, ou non, en fonction du résultat global.</p>
<p>Il y a un mécanisme similaire dans les réseaux de neurones artificiels. La valeur obtenue en sortie d’un nœud peut être utilisée comme valeur d’entrée pour le nœud suivant. Au cours de leur apprentissage, certains neurones vont peu à peu se spécialiser dans certains types d’entrées quand d’autres seront plus sensibles à d’autres. Cette description suffit à reproduire un aspect « fonctionnel » du traitement des informations entrantes par un neurone. Ce modèle de neurone dit « formel » <a href="https://doi.org/10.1007/BF02478259">a été décrit pour la première fois en 1943</a>.</p>
<p>Une fois constituées en réseau pour une application particulière, les règles d’apprentissage d’un modèle déterminent l’évolution des poids synaptiques. <a href="https://ieeexplore.ieee.org/abstract/document/9383028">Plusieurs méthodes permettent de conduire l’apprentissage</a> pour une tâche donnée, comme la rétropropagation de l’erreur (méthode historique datant des années 1980) ou le calcul évolutionnaire (qui repose sur les mêmes principes que l’évolution biologique par mutation/sélection).</p>
<p>Ces modèles sont capables « d’apprendre », de résoudre des problèmes ou d’effectuer des tâches dont nous sommes capables, parfois même mieux que nous en termes de rapidité – pour des tâches simples comme complexes (reconnaissance de formes, visages, prédiction de conformation de protéines ou <a href="https://theconversation.com/comment-fonctionne-chatgpt-decrypter-son-nom-pour-comprendre-les-modeles-de-langage-206788">interprétation du langage et de textes avec ChatGPT, etc.</a>).</p>
<h2>Du modèle de neurone au modèle du cerveau ?</h2>
<p>Si ces modèles partagent certains modes de fonctionnement avec notre cerveau, en partagent-ils aussi d’autres aspects, notamment pathologiques ?</p>
<p>L’<a href="https://link.springer.com/article/10.1007/s12559-023-10113-y">épilepsie, très étudiée, est un exemple intéressant</a> sur lequel nous nous sommes penchés dans une étude récente.</p>
<p>Physiquement, elle affecte l’activité du cerveau qui, durant les crises, est à son paroxysme de façon incontrôlée : les neurones sont proches de leur activité maximale et de manière assez synchronisée. Si ces crises envahissent tout le cerveau (crise généralisée), celui-ci devient incapable de traiter de l’information. La personne touchée est inconsciente durant la crise, ne répond plus aux stimuli extérieurs, et n’aura pas de souvenir de l’événement.</p>
<figure class="align-center ">
<img alt="EEG montrant une crise d’épilepsie avec des ondes très chaotiques" src="https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=389&fit=crop&dpr=1 600w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=389&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=389&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=488&fit=crop&dpr=1 754w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=488&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=488&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’épilepsie, une activité anormalement intense et synchronisée du cerveau, se caractérise par la décharge simultanée de nombreux neurones (au centre). Ce qui pourrait paraître facile à modéliser dans des réseaux de neurones artificiels.</span>
<span class="attribution"><span class="source">Bromfield EB, Cavazos JE, Sirven JI</span>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Il serait tentant de penser que, dans les réseaux de neurones artificiels, en apprentissage profond, un état équivalent à une telle crise correspondrait à avoir tous les nœuds à un niveau d’activation poussé à leur maximum en même temps. Une telle implémentation physique pourrait-elle représenter l’épilepsie, correspondant au fait que le système électrique sature ?</p>
<p>Ce n’est pas si simple.</p>
<p>Si l’on veut pousser loin la comparaison entre ces deux systèmes complètement différents (crises cérébrales et « crises numériques »), il faut rappeler leurs spécificités réciproques :</p>
<ul>
<li><p>Dans le cerveau, les crises sont un phénomène dynamique et peuvent se propager et la communication synaptique peut ne plus être en mesure de fonctionner. Dans un réseau artificiel, un tel phénomène n’est pas concevable.</p></li>
<li><p>Dans un réseau, un tel niveau d’activation n’est qu’un état possible parmi d’autres et il ne présente aucun aspect « pathologique ». Cette suractivation générale n’est pas problématique, car il ne s’agit que de valeurs numériques et elle n’affecte pas le fonctionnement de l’ordinateur : il y a toujours échange d’informations – il y a juste un risque d’erreur possiblement accru pour une tâche donnée. Le modèle ne peut pas avoir de « convulsions » comme un humain, il ne peut pas être dépassé par un flot d’informations.</p></li>
</ul>
<p>Ces deux éléments semblent ainsi empêcher toute comparaison entre un réseau de neurones et un cerveau biologique. Les réseaux de neurones artificiels utilisés dans l’intelligence artificielle sont capables de reproduire des fonctions du cerveau (capacité à réaliser une tâche particulière), mais pas l’activité (électrophysiologique) sous-jacente à ces fonctions.</p>
<p>La différenciation entre normale et pathologique dans les crises d’épilepsie humaines n’est donc pas transposable à la question du normal et du pathologique dans les réseaux de neurones artificiels implémentés dans ces algorithmes.</p>
<p>Il existe cependant des modèles de la dynamique de crise <a href="https://www.sciencedirect.com/science/article/pii/S0969996123001456">basés sur d’autres types d’approches</a>, notamment des systèmes dynamiques. Ils sont cette fois construits dans le but d’étudier l’activité cérébrale associée à ces crises.</p>
<h2>« Être » ou « faire » : c’est l’un ou l’autre</h2>
<p>On distingue donc différents niveaux de description selon les types de modèles considérés… Certains reproduisent une fonction ou une activité ; d’autres sont capables d’expliquer la dynamique des crises, mais ils ne sont généralement pas adaptés pour réaliser des tâches spécifiques comme ceux utilisés dans l’IA. C’est l’un… ou l’autre ! (Pour le moment.)</p>
<p>Les modèles peuvent soit essayer d’être au plus proche du phénomène considéré (par exemple l’apprentissage, la mémoire ou les crises d’épilepsie) sans se préoccuper des mécanismes biophysiques permettant son émergence… Ou, au contraire, ils peuvent être conçus pour essayer de fournir une description de la physiologie la plus détaillée possible à l’échelle considérée (ions, molécules, cellules, etc.).</p>
<p>Suivant les objectifs que l’on a (enseigner, expliquer, découvrir de nouveaux aspects, comprendre, prédire ou autre), on choisira ou construira un type de modèle adapté. Pour cela, il est intéressant d’étudier plus profondément ce que nous apporte chaque modèle en termes de connaissance ou d’application.</p>
<p>Mais, pour l’heure, il n’existe pas de modèle capable de reproduire l’ensemble des aspects du cerveau… à part le cerveau lui-même.</p><img src="https://counter.theconversation.com/content/208543/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
L’IA permet-elle de modéliser certaines pathologies neurologiques ? La question peut se poser pour l’épilepsie, où le cerveau a une activité excessive… Quelles sont les limites aux comparaisons ?
Damien Depannemaecker, Chercheur post-doctorat, Institut de Neuroscience des Systèmes, INSERM, Aix-Marseille Université (AMU)
Léo Pio-Lopez, Postoctoral researcher in AI and ALife, Allen Discovery Center, Tufts University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/205538
2023-05-15T18:02:47Z
2023-05-15T18:02:47Z
Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température
<p>Lorsque mon fils de quatre ans semble épuisé et que ses yeux brillent, je pose instinctivement ma main sur son front. Ce simple geste me permet de déterminer en quelques secondes non seulement s’il a de la fièvre, mais aussi, avec une précision surprenante, si elle est forte ou peu importante. Je trouve fascinant que la simple sensation thermique sur main me fournisse des informations aussi précises sur son état de santé.</p>
<p>Nous utilisons constamment les informations thermiques dans notre vie quotidienne. La chaleur brûlante quand on ouvre le four chaud, le plaisir de tenir les mains de nos proches, la fraîcheur d’une glace et le vent glacial un matin d’hiver sont autant de sensations qui nous permettent d’expérimenter pleinement l’environnement qui nous entoure. Cette sensibilité fine à la température est essentielle aux êtres vivants : elle nous aide à explorer l’environnement qui nous entoure, à maintenir l’homéostasie (le processus par lequel le corps se régule et reste dans un état interne stable) et à assurer notre survie, car <a href="https://onlinelibrary.wiley.com/doi/10.1002/cphy.c150040">nos sensations thermiques peuvent déclencher ou en ajuster des comportements spécifiques</a>.</p>
<p>Nous avons <a href="https://www.nature.com/articles/s41586-023-05705-5">récemment montré</a> qu’il existe bien une zone du cerveau qui intègre les informations que notre corps envoie sur la température, le « cortex thermique » – une étude publiée dans <em>Nature</em>. Contrairement à celles dédiées aux autres sens, cette région était restée difficile à identifier jusqu’à présent.</p>
<h2>De Descartes au Nobel : ce que nous savions jusqu’à présent sur la perception de la température</h2>
<p>Notre perception du monde se forme en intégrant des stimuli provenant de nos organes sensoriels. Depuis longtemps, une énigme pour les neuroscientifiques est de comprendre comment ces stimuli sont intégrés par le cerveau, et notamment la perception de la température.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="schéma historique de connexion entre pied et cerveau" src="https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=684&fit=crop&dpr=1 600w, https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=684&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=684&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=860&fit=crop&dpr=1 754w, https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=860&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/525890/original/file-20230512-27-o251am.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=860&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Pour Descartes, il y a une connexion entre la peau et le cerveau.</span>
<span class="attribution"><span class="source">Louis La Forge, d’après les descriptions dans « L’homme », de Descartes</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Au XVII<sup>e</sup> siècle, le philosophe René Descartes a proposé le concept d’une connexion anatomique spécifique entre la peau et le cerveau, suggérant que lorsqu’un pied s’approche <a href="https://fr.wikipedia.org/wiki/L%27Homme_(Descartes)">d’une flamme, un signal spécifique est envoyé au cerveau</a>. Deux siècles plus tard, en 1882, Magnus Blix a démontré que notre peau contient des «points» spécialisés, qui sont sensibles à la température et peuvent être activés sélectivement par le <a href="https://fr.wikipedia.org/wiki/Magnus_Blix">froid ou le chaud</a>. Ces points sont anatomiquement et fonctionnellement distincts de ceux qui sont impliqués dans la perception du toucher.</p>
<p>Des travaux scientifiques récents réalisés au cours des 30 dernières années ont révélé les composants moléculaires de ces « points » sensibles à la température, où des protéines hautement spécialisées réagissent à des changements de la température environnementale, même subtils. Les découvertes dans ce domaine ont notamment permis à <a href="https://www.nobelprize.org/prizes/medicine/2021/julius/facts/">David Julius de recevoir le prix Nobel de physiologie ou de médecine en 2021</a>.</p>
<p>Même si nous comprenons à présent comment notre peau détecte les changements de température, nous ne savons toujours pas exactement comment notre cerveau intègre ces informations pour créer notre expérience de la température (ce que l’on appelle « percept »). Dans le cerveau, la formation d’un percept sensoriel se produit généralement dans sa couche externe repliée, le cortex ; mais tandis que nous savons bien quelles zones du cortex encodent la vision, le toucher, le goût et l’audition, les régions corticales dédiées à la perception de la température restaient jusqu’à présent largement inconnues. L’existence même d’un <a href="https://www.sciencedirect.com/science/article/pii/S0959438818300060?via%3Dihub">« cortex thermique » capable d’encoder à la fois le chaud et le froid a fait l’objet d’un débat</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="schéma du cerveau avec des zones mises en lumière" src="https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=331&fit=crop&dpr=1 600w, https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=331&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=331&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=416&fit=crop&dpr=1 754w, https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=416&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/525924/original/file-20230512-19-4e1v43.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=416&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Les différentes parties du cerveau discutées dans le texte.</span>
<span class="attribution"><span class="source">Mario Carta</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Comment avons-nous découvert qu’une région du cerveau des mammifères est spécialisée dans la détection de la température ?</h2>
<p>Dans <a href="https://www.nature.com/articles/s41586-023-05705-5">notre quête pour comprendre comment le cerveau des mammifères traite les températures non douloureuses</a>, nous nous sommes tournés vers la patte avant de la souris comme système modèle. Ce choix s’explique par le fait que les souris ont une sensibilité à la température similaire à celle de l’homme, car elles et nous sommes <a href="https://www.sciencedirect.com/science/article/pii/S0896627320301860">capable de détecter des changements aussi minimes que 0,5 °C</a>. Les souris présentent en outre des avantages uniques pour la recherche en neurosciences, car elles peuvent être génétiquement modifiées pour exprimer des protéines spécifiques qui nous permettent de visualiser et de manipuler les fonctions cérébrales.</p>
<p>Pour visualiser la façon dont la température est traitée dans le cortex, nous avons utilisé des souris qui exprimaient un <a href="https://fr.wikipedia.org/wiki/GCaMP">indicateur spécifique d’activité dans leurs neurones corticaux</a>. Cette protéine-indicateur modifie son niveau de fluorescence en fonction de l’activité neuronale, ce qui nous permet d’observer les réponses liées à la température. Par exemple, il émet plus ou moins de lumière lorsque le neurone cortical est activé suite à l’arrivée de signaux sensoriels.</p>
<p>En combinant cet indicateur avec des techniques de microscopie avancée, nous avons pu étudier le traitement sensoriel dans les cerveaux intacts et fonctionnels de souris éveillées, et obtenir des informations précieuses sur les mécanismes neuronaux qui sous-tendent la perception de la température.</p>
<p>Nous nous attendions à observer l’encodage des températures chaudes dans une région particulière du cortex, le « cortex somatosensoriel primaire », car des <a href="https://www.nature.com/articles/nn.3828">recherches antérieures</a> ont montré que celui-ci réagit à un bref refroidissement de la peau de la patte avant</p>
<p>Mais en utilisant notre technique d’imagerie à grande échelle, nous avons découvert que le cortex somatosensoriel primaire ne réagissait pas au réchauffement. En cherchant plus loin, nous avons trouvé des neurones réagissant à la fois au refroidissement et au réchauffement dans une région située sur le côté du cerveau.</p>
<p>Cette région, appelée « cortex insulaire postérieur », semble être l’insaisissable « cortex thermique » que les scientifiques recherchaient.</p>
<h2>Les sensations de froid et de chaud ne sont pas codées de la même manière</h2>
<p>Nous avons ensuite utilisé un microscope plus sophistiqué et à plus haute résolution (appelé <a href="https://fr.wikipedia.org/wiki/Microscopie_par_excitation_%C3%A0_deux_photons">microscope à deux photons</a>) pour examiner la réponse thermique des neurones individuels dans cette région du cerveau. Nos résultats révèlent que certains neurones réagissent au refroidissement, d’autres au réchauffement, et enfin qu’il y a aussi de nombreux neurones qui réagissent à la fois au refroidissement et au réchauffement.</p>
<p>Nous avons remarqué que les neurones chauds et froids s’activent de façons très différentes : les froids s’activent plus rapidement et s’éteignent plus tôt que les chauds. Ces résultats suggèrent qu’il pourrait y avoir des voies distinctes pour la perception des températures froides et chaudes.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="schéma et photo de microscopie" src="https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=223&fit=crop&dpr=1 600w, https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=223&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=223&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=280&fit=crop&dpr=1 754w, https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=280&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/525929/original/file-20230512-23-clw0xu.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=280&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">À gauche, les neurones du cortex insulaire postérieur, observés par microscopie à deux photons ; à droite, la réponse neuronale moyenne au froid (bleu) ou à la chaleur (rouge) – les intensités sont normalisées.</span>
<span class="attribution"><a class="source" href="https://www.nature.com/articles/s41586-023-05705-5">Mario Carta, adapté de Vestergaard, Carta, Güney et Poulet, Nature, 2023</a>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Nous avons également observé que les neurones chauds réagissaient à la température absolue, tandis que les neurones froids réagissaient aux changements relatifs de température. Cette observation pourrait suggérer que notre système thermique est adapté pour détecter et prédire quand les températures deviennent dangereusement chaudes pour le corps, ce qui permet d’éviter les brûlures.</p>
<h2>Le cortex thermique médiateur de la perception de la température</h2>
<p>Pour prouver de manière concluante l’implication du cortex insulaire postérieur dans la perception de la température, nous avons eu recours à une approche appelée <a href="https://fr.wikipedia.org/wiki/Optog%C3%A9n%C3%A9tique">« optogénétique »</a>. Nous avons utilisé des souris qui expriment une protéine sensible à la lumière dans le cortex, c’est-à-dire qu’en illuminant des parties spécifiques du cerveau, on peut inhiber leur activité.</p>
<p>Ces souris <a href="https://theconversation.com/ce-qui-se-passe-dans-notre-cerveau-quand-on-a-peur-203588">ont été entraînées</a> à lécher pour obtenir une récompense en eau chaque fois qu’elles ressentaient des températures froides ou chaudes. Nous avons ensuite utilisé de brèves impulsions lumineuses pour activer la protéine photosensible et désactiver temporairement le cortex insulaire postérieur tout en délivrant un stimulus thermique. Dans ce cas, la souris ne léchait plus pour recevoir une récompense en eau après le stimulus thermique. Cependant, lorsque nous avons cessé d’inhiber cette partie du cortex, la souris a de nouveau ressenti la stimulation thermique (et recommencé à lécher).</p>
<p>En conclusion, nous avons découvert une région corticale essentielle à la perception non douloureuse de la température, ce qui confirme l’hypothèse selon laquelle le cortex insulaire postérieur sert de « cortex thermique ». De plus, ces résultats permettent d’explorer les principes qui sous-tendent l’encodage de la température douloureuse et non douloureuse, ainsi que leurs liens avec le comportement et les interactions sociales, où la température peut jouer un rôle essentiel.</p><img src="https://counter.theconversation.com/content/205538/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Mario Carta ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Une nouvelle étude publiée dans Nature explique enfin comment nous percevons la température – et évitons de nous brûler par exemple.
Mario Carta, CRCN-CNRS, neuroscientifique, Université de Bordeaux
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/197930
2023-01-24T19:08:53Z
2023-01-24T19:08:53Z
Comment les neurones créent les souvenirs
<figure><img src="https://images.theconversation.com/files/504631/original/file-20230116-24-i5v4ml.png?ixlib=rb-1.1.0&rect=1%2C1%2C792%2C425&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">En couleurs, les protéines qui reçoivent les messagers chimiques voyageant entre les neurones — elle a été obtenue en associant la microscopie de fluorescence et le suivi de nombreuses molécules individuelles.</span> <span class="attribution"><span class="source">© Benjamin COMPANS /Daniel CHOQUET/IINS/CNRS Photothèque</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Quelle est donc cette guirlande, une décoration de Noël ? Une vue nocturne d’une autoroute prise par un drone ?</p>
<p>Il s’agit en fait d’une partie d’un neurone impliqué dans nos capacités de mémorisation : on voit en gris une dendrite (un des nombreux prolongements d’un neurone) et, en blanc, des synapses (les zones de communication chimique entre neurones). Les trajectoires multicolores reflètent les protéines qui, sur les synapses, accueillent les messagers chimiques en provenance d’autres neurones. On pensait jusqu’à présent que ces protéines, les « récepteurs de neurotransmetteurs », étaient immobiles à la surface des neurones. Mais ces images nous ont permis de faire une découverte fondamentale : les récepteurs bougent à la surface des neurones !</p>
<p>Ici, nous observons un neurone d’une culture de neurones d’hippocampe de rat, une <a href="https://www.neuromedia.ca/lhippocampe-son-role-dans-le-cerveau/">région cérébrale impliquée dans les phénomènes de mémoire et d’apprentissage</a>. Ce type d’image nous permet donc de mieux comprendre comment fonctionne la mémoire.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/notre-cerveau-peut-apprendre-a-tout-age-72207">Notre cerveau peut apprendre à tout âge</a>
</strong>
</em>
</p>
<hr>
<h2>Les synapses, briques élémentaires de fonctionnement du cerveau et de la mémoire</h2>
<p>Les synapses sont formées de deux parties : la partie présynaptique, produisant et relarguant le neurotransmetteur, qui n’est pas visualisée ici ; et la partie post-synaptique contenant les récepteurs de neurotransmetteurs, et qui est visualisée ici.</p>
<p>Elles ont été <a href="https://digibug.ugr.es/handle/10481/69715">découvertes à la fin du XIXᵉ siècle</a>, ce qui a conduit à la <a href="https://fr.wikipedia.org/wiki/Santiago_Ram%C3%B3n_y_Cajal">théorie neuronale</a> postulant que le cerveau est constitué de cellules individuelles – les neurones – qui communiquent entre eux au niveau de ces jonctions synaptiques.</p>
<p>Leur mode de communication, caractérisé par une libération de neurotransmetteur qui active des récepteurs concentrés dans le domaine post-synaptique, a été identifié au cours du XX<sup>e</sup> siècle par l’association des techniques d’électrophysiologie et de microscopie électronique.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Une avancée fondamentale dans notre compréhension du fonctionnement du cerveau a été la <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1350458/">découverte dans les années 1970</a> que l’efficacité de la transmission synaptique était « plastique » : elle n’est pas fixe et peut être modulée par les activités neuronales précédentes. De manière importante, ces changements de la transmission synaptique pouvant être stables dans le temps – de plusieurs heures à plusieurs mois.</p>
<p>Cette découverte a conduit à l’hypothèse que des briques élémentaires de mémoire pourraient être « stockées » dans les synapses sous cette forme.</p>
<blockquote>
<p>« Faisons l’hypothèse qu’une activité persistante et répétée d’une activité avec réverbération (ou trace) tend à induire un changement cellulaire persistant qui augmente sa stabilité. Quand un axone d’une cellule A est assez proche pour exciter une cellule B de manière répétée et persistante, une croissance ou des changements métaboliques prennent place dans l’une ou les deux cellules ce qui entraîne une augmentation de l’efficacité de A comme cellule stimulant B. » <a href="https://fr.wikipedia.org/wiki/Donald_Hebb">Donald Hebb, 1949</a></p>
</blockquote>
<h2>Et pourtant ils bougent !</h2>
<p>Comment les synapses stockent-elles l’information ? Cette question fondamentale pour notre compréhension des bases cellulaires de la mémoire mobilise les neuroscientifiques depuis plus de 50 ans. Jusqu’à la fin du siècle dernier, on pensait que les mécanismes essentiels en étaient une modulation de l’efficacité de libération de transmetteurs ou des propriétés biophysiques des récepteurs.</p>
<p>Maintenant, on pense plutôt que pour que le neurone post-synaptique adapte mieux sa réponse au neurotransmetteur, il est particulièrement intéressant que les protéines réceptrices soient mobiles sur de grandes distances : <a href="https://pubmed.ncbi.nlm.nih.gov/31477899/">plusieurs laboratoires ont mis en évidence</a> au tournant du XXI<sup>e</sup> siècle que la plasticité synaptique était associée à une variation du nombre de récepteurs à la synapse.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/la-symphonie-des-neurones-ou-les-mathematiques-du-cerveau-188942">La symphonie des neurones ou les mathématiques du cerveau</a>
</strong>
</em>
</p>
<hr>
<p>Ceci contrastait avec le dogme de l’époque, qui postulait que les récepteurs de neurotransmetteurs sont solidement ancrés dans les synapses et très stables. Mais différents groupes de recherche, dont le nôtre, ont alors découvert que les récepteurs étaient en perpétuellement en mouvement à la surface du neurone, <a href="https://www.nature.com/articles/nn0301_253">diffusant librement</a> grâce à la <a href="https://pubmed.ncbi.nlm.nih.gov/12050666/">fluidité des membranes</a>. Les récepteurs s’accumulent aux synapses par un phénomène de capture, mais ils s’échangent en permanence entre les différents compartiments du neurone.</p>
<p>De manière fascinante, nous avons <a href="https://www.science.org/doi/10.1126/science.aay4631">également découvert</a> que ce mouvement des récepteurs est fortement modulé par l’activité neuronale, ouvrant la porte à des études liant la mobilité des récepteurs à la mémoire !</p>
<h2>Le contrôle de la mobilité des récepteurs ouvre de nouvelles fenêtres vers le contrôle de l’activité cérébrale</h2>
<p>La formation d’une mémoire est une symphonie jouée par plusieurs zones cérébrales qui se synchronisent pour permettre son encodage, sa consolidation et son rappel (qui permet de réagir de façon adaptée lorsqu’une même situation est rencontrée). De même, la plasticité synaptique est régie par plusieurs phases distinctes permettant une réaction immédiate (secondes), et son maintien à moyen terme (minutes) ou à plus long terme (jours et plus).</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/saura-t-on-un-jour-effacer-les-mauvais-souvenirs-196362">Saura-t-on un jour « effacer » les mauvais souvenirs ?</a>
</strong>
</em>
</p>
<hr>
<p>L’enjeu est désormais de comprendre comment ces deux phénomènes sont liés et le rôle joué par la mobilité des récepteurs. Nous avons récemment développé au laboratoire une nouvelle génération d’outils moléculaires permettant de contrôler efficacement la mobilité des récepteurs au glutamate, un neurotransmetteur majeur au sein du cerveau. En combinant des approches pharmacologiques, électrophysiologiques et comportementales, nous allons explorer le lien fondamental entre plasticité synaptique et mémoire chez la souris, et tenter de comprendre les mécanismes expliquant les désordres cognitifs associés aux maladies neurodégénératives ou neurodéveloppementales.</p><img src="https://counter.theconversation.com/content/197930/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Yann Humeau st membre de la société des neurosciences (société savante). Il a reçu des financements de l'Agence Nationale de la recherche scientifique (ANR) et de la fédération pour la recherche médicale (FRM)</span></em></p><p class="fine-print"><em><span>Daniel Choquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Notre mémoire dépend de mouvements de protéines à la surface de nos synapses.
Daniel Choquet, Directeur de recherche au CNRS, neuroscience et imagerie, Université de Bordeaux
Yann Humeau, Docteur en neurosciences, directeur de recherche au CNRS, Université de Bordeaux
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/196412
2022-12-13T18:59:01Z
2022-12-13T18:59:01Z
Les métaux sont-ils le chaînon manquant pour comprendre la maladie d’Alzheimer ?
<p>Les maladies neurodégénératives sont caractérisées par une détérioration progressive des neurones, entraînant un dysfonctionnement du système nerveux et une perte graduelle des capacités cognitives et/ou motrices. La maladie d’Alzheimer représente la forme la plus courante de ces pathologies.</p>
<p>Bien que cette dernière ait un coût et un impact sociétal majeurs dans nos sociétés vieillissantes, très peu de progrès ont été accomplis au point de vue thérapeutique, malgré des efforts importants en recherche clinique. Ce paradoxe apparent pourrait s’expliquer par une compréhension encore trop partielle de ses mécanismes moléculaires.</p>
<p>Nous essayons d’apporter ici un éclairage original à ce sujet, en nous focalisant sur l’altération de la répartition des « métaux » dans le cerveau, laquelle pourrait favoriser la dégénérescence et la mort des neurones. Par souci de simplification, nous utilisons le terme « métaux » pour désigner les ions métalliques issus du zinc Zn(II), du cuivre Cu(I/II) et du fer Fe(II/III).</p>
<h2>Une origine toujours incomprise</h2>
<p>Dès 1907, les travaux originaux d’Alois Alzheimer avaient mis en évidence l’existence de plaques dites « amyloïdes » (dépôt de protéines agrégées) dans le cerveau d’une <a href="https://doi.org/10.1007/s004060050027">patiente décédée ayant souffert de démences caractéristiques de la maladie qui portera plus tard le nom de ce médecin bavarois</a>. Mais plus d’un siècle plus tard, de nombreux aspects de la maladie demeurent dans l’ombre.</p>
<p>Les plaques amyloïdes résultent de l’<a href="https://doi.org/10.1016/j.cell.2005.02.008">agrégation de protéines nommées Amyloïdes-β (Aβ)</a>, identifiées par George Glenner et Caine Wong (université de Californie) dès 1984, puis de leur accumulation. L’agrégation est le phénomène par lequel ces protéines se regroupent pour former des ensembles très stables. Les protéines Aβ proviennent de la coupure d’une protéine parente, plus longue, appelée « protéine précurseur de l’amyloïde » (APP). Les fonctions de l’APP, tout comme celles de l’Aβ, restent encore largement inconnues et partiellement incomprises.</p>
<p>La théorie dite « amyloïde », selon laquelle la maladie d’Alzheimer est causée par la présence de ces fameuses <a href="https://pubmed.ncbi.nlm.nih.gov/1566067/">plaques amyloïdes dans le cerveau</a>, a été formulée initialement par le généticien John Hardy (University College London) et le neurobiologiste Gerald Higgins (National Institute on Aging) en 1992. Mais la contribution réelle des agrégats de protéines à l’évolution de la maladie reste aujourd’hui encore sujette à débat.</p>
<figure class="align-center ">
<img alt="Plaques amyloïdes dans le cerveau de patients atteints de la maladie d’Alzheimer" src="https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/500432/original/file-20221212-110235-p3m533.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les plaques amyloïdes (ici en fuchsia), constituées de protéines agglutinées entre les cellules cérébrales, peuvent être présentes dans le cerveau des malades atteints d’Alzheimer.</span>
<span class="attribution"><span class="source">Pics56</span>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Une autre théorie est également formulée, mettant cette fois en cause une agrégation intracellulaire anormale de la protéine Tau. Cette dernière, associée aux microtubules (qui participent à la formation du squelette cellulaire) et régulant leur dynamique de formation et déformation, peut entraîner des enchevêtrements fibreux capables de se propager d’un neurone à l’autre et à l’ensemble du cerveau.</p>
<p>Habituellement, Tau reçoit un groupement chimique nommé phosphate, ce qui <a href="https://www.frontiersin.org/articles/10.3389/fnagi.2019.00204/full">régule ses fonctions cellulaires</a>. Or, dans certaines conditions, Tau se trouve chargée de beaucoup trop de phosphates. Cela va favoriser son agrégation et induire une perte fonctionnelle puis, <em>in fine</em>, la mort neuronale.</p>
<p>Ces deux théories, « amyloïde » et « Tau », ont conduit au développement de nombreuses recherches pour le développement de médicaments. <a href="https://doi.org/10.1038/s41392-019-0063-8">Médicaments qui, pour l’heure, restent peu efficaces…</a>. Beaucoup sont en effet basées sur l’utilisation de modèles animaux transgéniques (génétiquement modifiés) ou de protéines synthétiques qui reproduisent imparfaitement la pathologie humaine.</p>
<p>Par ailleurs, on sait aujourd’hui que des plaques amyloïdes peuvent être présentes dans le cerveau de patients ne souffrant pas de démences et, inversement, être absentes (ou peu s’en faut) chez des patients ayant souffert de démences. Bref, il ne semble pas y avoir de corrélation étroite entre la quantité de plaques amyloïdes et la <a href="https://www.embopress.org/doi/full/10.15252/emmm.201606210">sévérité des symptômes de la maladie</a>.</p>
<p>Il parait donc maintenant important et urgent d’envisager la maladie d’Alzheimer non plus à l’aune d’une seule hypothèse, mais de la considérer selon une approche multifactorielle.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<h2>Envisager de nouvelles approches</h2>
<p>Un des premiers arguments en faveur d’une approche multifactorielle provient des études génétiques qui ont permis de mettre en évidence des gènes de susceptibilité à la maladie, autrement dit des gènes dont certains variants peuvent augmenter ou diminuer le risque de développer cette pathologie. Le premier et principal d’entre eux est le variant 4 du gène APOE (APOE4) codant pour l’apolipoprotéine E (impliquée dans le transport des lipides).</p>
<p>Depuis cette découverte, des études complémentaires ont permis d’étendre le nombre de gènes dont des variations sont à considérer. De manière intéressante, beaucoup touchent au métabolisme des lipides, ce qui pourrait représenter un axe de recherche complémentaire aux recherches sur Aβ et Tau.</p>
<p>Parmi les hypothèses complémentaires, on peut également citer les dysfonctions du cycle des neurotransmetteurs, de la cascade mitochondriale mais aussi prendre en compte des pathologies comme le diabète, qui sont associées à une augmentation du risque de développer la maladie.</p>
<p>Comme nous l’avons indiqué en préambule, nos laboratoires travaillent sur une hypothèse complémentaire, encore peu étudiée dans ses aspects thérapeutiques, qui porte sur une altération de la régulation des métaux. Fer, cuivre et zinc sont en effet autant de micronutriments essentiels pour la santé un déséquilibre dans leurs concentrations de notre corps est incompatible avec son bon fonctionnement.</p>
<figure class="align-center ">
<img alt="Un arc cible la multitude de facteurs possiblement impliqués dans la maladie d’Alzheimer (Aβ, Tau, radicaux libres… et les métaux fer, zinc et cuivre)" src="https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=432&fit=crop&dpr=1 600w, https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=432&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=432&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=543&fit=crop&dpr=1 754w, https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=543&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/500426/original/file-20221212-99176-ygz235.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=543&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La maladie d’Alzheimer est multifactorielle. Après les protéines amyloïdes β et Tau, les métaux, dont le cuivre, semblent être une piste de recherche importante et une future cible thérapeutique possible.</span>
<span class="attribution"><span class="source">Christelle Hureau/Cordis</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>L’hypothèse de l’anomalie métallique</h2>
<p>Notre modèle se fonde sur l’observation d’un changement dans la localisation dans le cerveau de certains métaux, principalement le zinc (Zn), le fer (Fe) et le cuivre (Cu), et sur le fait que l’Aβ est capable de s’y lier ce qui en favorise l’agrégation. De plus, le fer ou le cuivre liés à l’Aβ sont aussi capables de favoriser la production de molécules réactives de l’oxygène, principalement des radicaux libres, qui sont toxiques sinon létaux pour les neurones. Ce type de toxicité est aussi connu sous le nom de « stress oxydatif », et est constaté dans les stades précoces de la maladie d’Alzheimer.</p>
<p>Plusieurs études ont révélé des concentrations en métaux différentes (Cu, Zn et Fe) entre personnes saines et patients atteints de la maladie. Au-delà des concentrations globales au niveau du cerveau, <a href="https://doi.org/10.1016/j.ebiom.2022.104403">ce qui compte est la répartition des métaux entre milieu extra et intracellulaire</a>.</p>
<p>Bien que les niveaux cérébraux pour ces trois métaux soient impactés, le cuivre a été choisi comme cible thérapeutique privilégiée car, se retrouvant principalement <a href="https://doi.org/10.1002/anie.201807676">sous forme de nano-particules</a>, il peut participer au stress oxydant, contrairement au fer et au zinc.</p>
<p>À ce jour, deux essais cliniques ont été conduits pour restaurer l’homéostasie des métaux (leur bon équilibre interne), mais ils ont dû être stoppés par manque de spécificité et de pureté des molécules testées pour leur transport.</p>
<p>Pour surmonter ces problèmes, nous avons conçu une <a href="https://doi.org/10.1039/d2sc02593k">nouvelle molécule capable de véhiculer spécifiquement le cuivre</a>. Elle est non seulement capable de se lier très préférentiellement avec ce métal, mais peut aussi l’extraire de l’Aβ. Elle stoppe également la production d’espèces réactives de l’oxygène, et ramène le cuivre à l’intérieur des cellules neuronales, où il est normalement utilisé par diverses protéines et enzymes pour leur bon fonctionnement physiologique.</p>
<h2>Des espoirs pour demain</h2>
<p>Cette molécule, capable de faire naviguer le cuivre de l’extérieur - où il est néfaste - vers l’intérieur de la cellule - où il est nécessaire - représente donc un nouvel outil précieux en recherche fondamentale. Elle devrait permettre de mieux comprendre les implications d’une dérégulation des quantités de cuivre dans la maladie d’Alzheimer. De plus, en repositionnant correctement ce métal, elle présente des applications thérapeutiques potentielles.</p>
<p>Elle pourrait être capable de cibler plusieurs facteurs tels que l’agrégation de Aβ modulée par les métaux, la production d’espèces réactives de l’oxygène par le cuivre lié au Aβ toxiques pour les neurones, et le manque de cuivre intracellulaire qui nuit au bon fonctionnement cellulaire. </p>
<p>Avant d’envisager son utilisation thérapeutique, nous poursuivons nos travaux sur des modèles plus intégrés, comme des coupes d’hippocampe en trois dimensions de cerveaux de souris. Ces modèles permettent de mieux étudier l’impact de la dégénérescence neuronale dans un modèle ayant conservé l’organisation dans l’espace de cette zone cérébrale majeure.</p>
<p>Lorsque l’on cherche à élucider les mécanismes d’une maladie multifactorielle telle que la maladie d’Alzheimer, car il est nécessaire de s’intéresser à plusieurs cibles thérapeutiques (protéines Aβ, Tau, métaux…). Et ce, aux stades les plus précoces de la mise en place de la maladie, afin d’obtenir une amélioration des manifestations cliniques.</p><img src="https://counter.theconversation.com/content/196412/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Nicolas Vitale a reçu des financements de l'Idex et de l'ITI Neurostra de l'Université de Strasbourg.
Nicolas Vitale est directeur de recherche à l'INSERM.</span></em></p><p class="fine-print"><em><span>Christelle Hureau a reçu des financements de l'agence européenne de la recherche (ERC StG 638712 "Alzheimer and zinc: the missing link". </span></em></p><p class="fine-print"><em><span>Michael Okafor a reçu des financements de IdEx et Neurostra. </span></em></p><p class="fine-print"><em><span>Peter Faller est Professeur de Chimie à l'Université de Strasbourg membre senior de l'Institut Universitaire de France et a reçu des financements de programme IdEx PhD de l'Université de Strasbourg . </span></em></p>
Malgré un siècle d’étude, la maladie d’Alzheimer reste mal comprise et sans solution thérapeutique. Une nouvelle piste, étudiant le déséquilibre cellulaire de métaux (tel le cuivre), est prometteuse.
Nicolas Vitale, Directeur de recherche, Inserm
Christelle Hureau, Directrice de recherches CNRS, Centre national de la recherche scientifique (CNRS)
Michael Okafor, Doctorant à l'Institut des Neurosciences Cellulaires et Intégratives et l'Institut de chimie, Université de Strasbourg
Peter Faller, Professeur de chimie, Université de Strasbourg
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/195252
2022-12-05T14:34:19Z
2022-12-05T14:34:19Z
Alzheimer : au cœur de l’interaction entre l’insuline et les vaisseaux sanguins du cerveau
<figure><img src="https://images.theconversation.com/files/498346/original/file-20221130-17-kh4pa6.jpg?ixlib=rb-1.1.0&rect=4%2C0%2C994%2C564&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le diabète de type 2, caractérisé aux stades avancés par une résistance à l’insuline, constitue un facteur de risque important de l’Alzheimer.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>La population vieillit et le nombre de personnes atteintes de <a href="https://fr.wikipedia.org/wiki/Maladie_neurod%C3%A9g%C3%A9n%C3%A9rative">maladies neurodégénératives</a>, comme la <a href="https://alzheimer.ca/fr/au-sujet-des-troubles-neurocognitifs/quest-ce-que-la-maladie-dalzheimer">maladie d’Alzheimer</a>, ne cesse d’augmenter. Environ <a href="https://www.canada.ca/en/public-health/services/publications/diseases-conditions/dementia-highlights-canadian-chronic-disease-surveillance.html">75 000 Canadiens</a> reçoivent un diagnostic d’Alzheimer chaque année et voient leurs capacités cognitives décroître. Un supplice qui s’étend généralement sur plusieurs années, auquel les proches assistent, impuissants.</p>
<p>Les maladies neurodégénératives se caractérisent par des <a href="https://fr.wikipedia.org/wiki/Prot%C3%A9inopathie">protéinopathies</a>, c’est-à-dire des accumulations anormales de protéines dans le cerveau, qui nuisent au fonctionnement des <a href="https://fr.wikipedia.org/wiki/Neurone">neurones</a>. Pour développer des médicaments contre l’Alzheimer, l’approche thérapeutique la plus étudiée consiste à tenter de réduire l’agrégation au niveau des neurones du <a href="https://fr.wikipedia.org/wiki/B%C3%AAta-amylo%C3%AFde">peptide bêta-amyloïde</a> et de la <a href="https://fr.wikipedia.org/wiki/Prot%C3%A9ine_tau">protéine tau</a>.</p>
<p>Cependant, pour atteindre leurs cibles, les médicaments doivent d’abord franchir la <a href="https://fr.wikipedia.org/wiki/Barri%C3%A8re_h%C3%A9mato-enc%C3%A9phalique">barrière hématoencéphalique</a> (BHE), afin de passer du sang au cerveau. En effet, les cellules <a href="https://fr.wikipedia.org/wiki/Endoth%C3%A9lium">endothéliales</a>, soit celles qui tapissent les microvaisseaux sanguins du cerveau, régissent les échanges entre le sang et le cerveau. Elles maintiennent un équilibre qui permet l’accès à des molécules essentielles comme le glucose, mais qui restreint le passage de <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3494002/">la plupart des remèdes pharmaceutiques</a>, dont le nouveau médicament <a href="https://www.nejm.org/doi/full/10.1056/NEJMoa2212948">lecanemab</a>, qui fait couler <a href="https://www.lapresse.ca/actualites/sciences/2022-12-01/avancee-majeure-sur-l-alzheimer.php">beaucoup d'encre</a>.</p>
<p>Lorsque ces cellules endothéliales cérébrales sont malades, l’équilibre est brisé. Le cerveau peine alors à récupérer dans la circulation les substances dont il a besoin, et à y rejeter celles qui pourraient lui nuire.</p>
<p>Le cerveau et les autres organes du corps sont ainsi en communication constante, dans la santé comme dans la maladie.</p>
<p>Experts en maladies neurodégénératives et BHE, nous avons mené une étude sur les dysfonctions du récepteur de l’insuline dans l’Alzheimer.</p>
<h2>Insuline et cerveau</h2>
<p>L’<a href="https://fr.wikipedia.org/wiki/Insuline">insuline</a> est une hormone essentielle à la vie. Elle est surtout connue pour son effet sur la régulation de la <a href="https://fr.wikipedia.org/wiki/Glyc%C3%A9mie">glycémie</a> et demeure incontournable dans le traitement pharmaceutique du <a href="https://fr.wikipedia.org/wiki/Diab%C3%A8te_de_type_1">diabète</a>. Au cours des dernières décennies, des chercheurs ont remarqué des anomalies vasculaires et métaboliques <a href="https://pubmed.ncbi.nlm.nih.gov/30022099/">chez une forte proportion de patients atteints de démence</a>.</p>
<p>En effet, le diabète de type 2, caractérisé aux stades avancés par une <a href="https://fr.wikipedia.org/wiki/R%C3%A9sistance_%C3%A0_l%27insuline">résistance à l’insuline</a>, constitue un facteur de risque important de l’Alzheimer. Certains indices suggèrent que le <a href="https://pubmed.ncbi.nlm.nih.gov/29377010/">cerveau Alzheimer répond moins bien à l’insuline</a>. À l’inverse, des études ont montré que l’insuline pouvait <a href="https://pubmed.ncbi.nlm.nih.gov/32730766/">améliorer la mémoire</a>, ce qui a motivé l’élaboration d’essais cliniques portant sur l’effet de l’insuline sur la maladie d’Alzheimer.</p>
<p>Pourtant, nous ignorons toujours quels types de cellules et quels mécanismes sont impliqués dans l’action – et la perte d’action – de l’insuline au cerveau. La grande majorité de l’insuline est produite par le <a href="https://fr.wikipedia.org/wiki/Pancr%C3%A9as">pancréas</a> et sécrétée dans la circulation sanguine. Par conséquent, pour affecter le cerveau, l’insuline doit d’abord interagir avec la BHE et ses cellules endothéliales cérébrales, qui sont en contact avec le sang et peuvent capter l’insuline grâce à des <a href="https://fr.wikipedia.org/wiki/R%C3%A9cepteur_(biochimie)">récepteurs</a>, protéines spécifiques à leur surface.</p>
<h2>Alzheimer et récepteur de l’insuline</h2>
<p>Afin de mesurer la quantité de ces récepteurs à l’insuline dans le cerveau, <a href="https://doi.org/10.1093/brain/awac309">nous avons effectué des analyses directement dans des tissus humains</a>. Ces échantillons provenaient d’une <a href="https://www.rushu.rush.edu/research/departmental-research/religious-orders-study">cohorte</a> de plus d’un millier de personnes qui ont accepté de faire don de leur cerveau après leur décès. Nous y avons accès grâce à une collaboration avec des chercheurs de l’Université Rush à Chicago.</p>
<p>Nous avons découvert que le <a href="https://en.wikipedia.org/wiki/Insulin_receptor">récepteur qui lie l’insuline</a> est majoritairement localisé au niveau des microvaisseaux, donc au sein même de la BHE. De plus, l’abondance de ce récepteur est diminuée chez les sujets Alzheimer. Cette diminution pourrait engendrer la perte de réponse à l’insuline du cerveau atteint d’Alzheimer.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="schéma" src="https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=795&fit=crop&dpr=1 600w, https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=795&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=795&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=999&fit=crop&dpr=1 754w, https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=999&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/498522/original/file-20221201-6191-q3l6s5.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=999&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le récepteur cérébral de l’insuline est localisé principalement au niveau de la BHE, et sa capacité à répondre à l’insuline du sang est diminuée dans la maladie d’Alzheimer.</span>
<span class="attribution"><span class="source">(Manon Leclerc)</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Dysfonction du récepteur de l’insuline</h2>
<p>Afin de mieux contrôler les variables expérimentales et mesurer la réponse du récepteur à l’insuline, nous avons ensuite testé nos hypothèses chez la souris. La technique de perfusion cérébrale in situ consiste à injecter l’insuline directement dans la carotide (artère située dans le cou) afin qu’elle se rende, directement et en totalité, au cerveau. Nous avons ainsi démontré que l’insuline en circulation active principalement les récepteurs localisés sur les microvaisseaux cérébraux.</p>
<p>Bien qu’il était généralement admis que l’insuline traversait la BHE pour atteindre plus profondément dans le tissu cérébral les cellules comme les neurones, nos résultats montrent que la proportion de l’insuline qui franchit la BHE est faible.</p>
<p>Ces deux observations confirment ainsi que la majorité de l’insuline doit interagir avec les cellules de la BHE avant de pouvoir exercer une action sur le cerveau.</p>
<p>Nous avons ensuite appliqué la même méthode sur des <a href="https://fr.wikipedia.org/wiki/Animal_g%C3%A9n%C3%A9tiquement_modifi%C3%A9">souris transgéniques</a>, génétiquement modifiées dans le but de modéliser la maladie d’Alzheimer. Nous avons constaté que la réponse à l’insuline au niveau de la BHE était dysfonctionnelle, avec une absence d’activation du récepteur de l’insuline dans ces souris malades.</p>
<p>Ainsi, tant chez l’humain que chez le rongeur, le récepteur cérébral de l’insuline est localisé principalement au niveau de la BHE, et sa capacité à répondre à l’insuline du sang est diminuée dans la maladie d’Alzheimer.</p>
<h2>Une percée significative</h2>
<p>En somme, nos résultats suggèrent que l’altération du nombre, de la structure et de la fonction des récepteurs de l’insuline au niveau des cellules endothéliales de la BHE contribuerait à la résistance à l’insuline cérébrale observée dans l’Alzheimer.</p>
<p>Les efforts de recherche en Alzheimer se concentrent présentement sur des médicaments qui, pour atteindre leur cible thérapeutique, les neurones, doivent d’abord traverser la BHE, qui leur restreint considérablement le passage. En ciblant plutôt le dysfonctionnement métabolique du cerveau, nous proposons une alternative de recherche qui présente deux avantages majeurs.</p>
<p>Le premier est de pouvoir utiliser des traitements qui n’ont pas à franchir l’obstacle de la BHE, puisque ce sont les cellules endothéliales elles-mêmes qui deviennent la cible thérapeutique. Le second implique la <a href="https://fr.wikipedia.org/wiki/Repositionnement_des_m%C3%A9dicaments">« réutilisation des médicaments »</a>, qui consiste à profiter du phénoménal arsenal thérapeutique déjà approuvé pour lutter contre le diabète et l’obésité, mais dans un contexte d’Alzheimer.</p>
<p>Rappelons que les quelques médicaments donc nous disposons n’apportent qu’une modeste amélioration des symptômes. Combattre la résistance à l’insuline du cerveau permettrait de briser le cercle vicieux entre neuropathologie (maladie qui touche le cerveau) et diabète, et en théorie ralentir la progression de la maladie.</p>
<h2>Le travail n’est pas terminé</h2>
<p>Du côté de la recherche fondamentale, nous continuerons à étudier les mécanismes en aval des microvaisseaux, afin de comprendre l’action de l’insuline sur les couches profondes du cerveau.</p>
<p>Nous espérons que la recherche clinique emboîtera le pas avec des études chez l’humain visant à repositionner vers l’Alzheimer des médicaments ciblant certaines maladies associées au métabolisme, comme le diabète.</p>
<p>Dans l’immédiat, en attendant des solutions pharmaceutiques, chacun d’entre nous aurait avantage à adopter le cocktail préventif que l’on connaît tous : une alimentation saine combinée à de l’exercice physique et mental fréquent.</p><img src="https://counter.theconversation.com/content/195252/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Frederic CALON a reçu des financements de : Instituts de Recherche en Santé du Canada (IRSC/CIHR) , conseil de recherches en sciences naturelles et en génie du Canada (CRSNG/NSERC), Fonds de la recherche du Québec en santé (FRQ-S), Alzheimer Society Canada.</span></em></p><p class="fine-print"><em><span>Manon Leclerc a reçu des bourses d'études provenant de la Fondation du CHU de Québec et du Fonds de Recherche du Québec - Santé (FRQS).</span></em></p><p class="fine-print"><em><span>Vincent Emond ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
L’altération des récepteurs de l’insuline au niveau des vaisseaux sanguins entre le sang et le cerveau, contribuerait à la résistance à l’insuline observée dans l’Alzheimer.
Frederic Calon, Professeur, Université Laval
Manon Leclerc, PhD student, Université Laval
Vincent Emond, professionnel de recherche, Université Laval
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/192689
2022-11-08T15:03:01Z
2022-11-08T15:03:01Z
Une nouvelle théorie étonnante sur les causes de la maladie d’Alzheimer
<figure><img src="https://images.theconversation.com/files/492204/original/file-20221027-27-fz1v6m.jpg?ixlib=rb-1.1.0&rect=2%2C4%2C995%2C744&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Plaques amyloïdes en jaune.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>En 1906, le psychiatre et neuroanatomiste Alois Alzheimer a rapporté « un processus pathologique grave et particulier dans le cortex cérébral » lors d’une réunion de psychiatres à Tübingen, en Allemagne. Le cas décrit était celui d’une femme de 50 ans qui souffrait de pertes de mémoire, de délires, d’hallucinations, d’agressivité et de confusion – des troubles qui se sont tous aggravés jusqu’à son décès prématuré, survenu cinq ans plus tard.</p>
<p>Lors de l’autopsie, Alzheimer a remarqué la présence de plaques dans le cerveau de la patiente. Ces plaques – des agrégats de protéine amyloïde bêta – sont encore aujourd’hui considérées comme étant responsables de la maladie d’Alzheimer.</p>
<p>Cette théorie comporte toutefois deux lacunes. Premièrement, elle n’explique pas pourquoi de nombreuses personnes (dont certaines sont âgées) présentent des plaques au cerveau sans pour autant souffrir de symptômes neurologiques, tels que la perte de mémoire. Deuxièmement, les essais cliniques de médicaments qui réduisent ces plaques ont été infructueux – sauf pour une <a href="https://theconversation.com/new-alzheimers-drug-slows-cognitive-decline-and-may-be-available-as-early-as-next-year-191627">exception récente</a>, à laquelle nous reviendrons plus loin.</p>
<p>Lorsque la protéine amyloïde bêta s’accumule sous forme de plaques (agrégats insolubles), la forme soluble originale de la protéine, qui remplit des fonctions importantes dans le cerveau, est consumée et perdue. Certaines études ont révélé que la réduction de la quantité d’amyloïde bêta soluble – appelée amyloïde bêta 42 – entraînait une détérioration des résultats cliniques des patients.</p>
<p>Dans une <a href="https://pubmed.ncbi.nlm.nih.gov/36120786/">étude récente</a>, publiée dans le <em>Journal of Alzheimer’s Disease</em>, nous avons cherché à comprendre ce qui était davantage lié à la progression de la maladie d’Alzheimer : la quantité de plaques dans le cerveau ou la quantité d’amyloïde bêta 42 restante.</p>
<p>Pour répondre à cette question, nous avons étudié les données d’un groupe de personnes porteuses d’une mutation génétique héréditaire rare qui fait courir un risque élevé de développer la maladie d’Alzheimer. Les participants provenaient de l’étude de cohorte <a href="https://dian.wustl.edu/about/what-is-diad/">« Dominantly Inherited Alzheimer »</a>.</p>
<p>Nous avons découvert que la diminution de l’amyloïde bêta 42 (la version fonctionnelle de la protéine) était plus néfaste que la présence de plaques (les agrégats insolubles d’amyloïde bêta).</p>
<p>Les participants ont été suivis pendant trois ans en moyenne, et nous avons constaté que ceux qui présentaient des taux élevés d’amyloïde bêta 42 dans leur liquide céphalorachidien (LCR) (qui entoure le cerveau et la moelle épinière) étaient protégés. De plus, leur cognition ne se détériorait pas pendant la durée de l’étude. Ces résultats concordent avec ceux de nombreuses autres études qui ont montré l’importance de l’amyloïde bêta 42 pour la <a href="https://content.iospress.com/download/journal-of-alzheimers-disease/jad220808?id=journal-of-alzheimers-disease/jad220808&supplementaryFilename=jad--1-jad220808-s001.pdf">mémoire et la cognition</a>.</p>
<p>Ils sont également pertinents parce que nous avons étudié des personnes porteuses de la mutation génétique qui augmente les risques de développer la maladie d’Alzheimer, un groupe qui est considéré comme offrant les preuves les plus solides du caractère néfaste des plaques d’amyloïde bêta. Cependant, même dans ce groupe, ceux qui présentaient des taux plus élevés d’amyloïde bêta 42 dans le liquide céphalorachidien ont conservé des fonctions cognitives normales, quelle que soit la quantité de plaques dans leur cerveau.</p>
<p>Il convient aussi de mentionner que dans certaines formes héréditaires rares de la maladie d’Alzheimer – par exemple, chez les porteurs de la mutation Osaka ou de la mutation arctique –, les personnes peuvent développer une démence avec de faibles niveaux d’amyloïde bêta 42 sans qu’on n’ait pu détecter la présence de plaques. Cela laisse penser que ce ne sont pas les plaques qui sont à l’origine de leur démence, mais plutôt le manque d’amyloïde bêta 42.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="homme âgé assis sur un fauteuil regarde par la fenêtre" src="https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/492205/original/file-20221027-41785-6ku4sk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">En 1906, Alois Alzheimer est le premier à avoir décrit la maladie qui porte son nom.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<h2>Lecanemab – une exception</h2>
<p>Comment nos découvertes influenceront-elles la mise au point de médicaments et les essais cliniques pour la maladie d’Alzheimer ? Jusqu’au tout récent essai sur le <a href="https://theconversation.com/new-alzheimers-drug-slows-cognitive-decline-and-may-be-available-as-early-as-next-year-191627">Lecanemab</a>, un anticorps qui réduit les plaques, tous les essais de médicaments pour la maladie d’Alzheimer s’étaient soldés par un échec.</p>
<p>Certains médicaments ont été conçus pour réduire le taux d’amyloïde bêta 42, en partant du principe qu’en réduisant le taux de la protéine normale, les patients présenteront moins d’accumulations de plaques. Malheureusement, ces médicaments ont souvent <a href="https://www.alzforum.org/therapeutics/verubecestat">empiré</a> l’état des patients.</p>
<p>On a récemment observé que le Lecanemab avait un effet léger, mais significatif sur la réduction du déclin cognitif. Des <a href="https://alzres.biomedcentral.com/articles/10.1186/s13195-021-00813-8">études antérieures</a> ont démontré que ce médicament augmentait les niveaux d’amyloïde bêta 42 dans le LCR. Cela rejoint notre hypothèse, à savoir que l’augmentation de la protéine amyloïde normale peut être bénéfique.</p>
<p>Nous en saurons plus après la publication des résultats des essais sur le Lecanemab. Pour l’instant, nous ne disposons que d’un <a href="https://investors.biogen.com/news-releases/news-release-details/lecanemab-confirmatory-phase-3-clarity-ad-study-met-primary">communiqué de presse</a> des producteurs du médicament.</p>
<p>Nous pensons que les futurs essais devront se concentrer sur les niveaux d’amyloïde bêta 42, et sur la question de savoir s’il est bénéfique d’augmenter et de rétablir son taux à des valeurs normales plutôt que de chercher à l’éliminer. On pourrait y parvenir en utilisant des protéines semblables à la protéine amyloïde bêta 42 – appelées « protéines analogues » –, mais qui ont moins tendance à former des agrégats que les protéines naturelles.</p>
<p>Cette approche de remplacement actif des protéines pourrait devenir une nouvelle voie prometteuse de traitement contre la maladie d’Alzheimer et d’autres maladies liées à l’agrégation de protéines, comme la maladie de Parkinson et les maladies du motoneurone.</p><img src="https://counter.theconversation.com/content/192689/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Andrea Sturchio est cofondateur de REGAIN Therapeutics, propriétaire d'un brevet provisoire sur les compositions et méthodes de traitement et/ou de prophylaxie des protéinopathies, qui couvre les analogues de peptides synthétiques solubles non agrégatifs comme traitement de substitution dans les protéinopathies. Affiliations : Karolinska Institutet et l'Université de Cincinnati. L'analyse des données a été effectuée en étant affilié uniquement à l'Université de Cincinnati.</span></em></p><p class="fine-print"><em><span>Kariem Ezzat est cofondateur de REGAIN Therapeutics, propriétaire d'un brevet provisoire sur les compositions et méthodes de traitement et/ou de prophylaxie des protéinopathies, qui couvre les analogues de peptides synthétiques solubles non agrégatifs comme traitement de remplacement dans les protéinopathies. Affiliations : Karolinska Institutet .</span></em></p><p class="fine-print"><em><span>Samir EL Andaloussi est cofondateur de REGAIN Therapeutics, propriétaire d'un brevet provisoire sur les compositions et méthodes pour le traitement et/ou la prophylaxie des protéinopathies, qui couvre les analogues de peptides synthétiques solubles non-agrégants comme traitement de remplacement dans les protéinopathies. Affiliations : Karolinska Institutet .</span></em></p>
L’excès d’amyloïde bêta dans le cerveau a longtemps été considéré comme la cause principale de la maladie d’Alzheimer. De nouvelles recherches semblent suggérer le contraire.
Andrea Sturchio, MD, PhD Student, Clinical Neuroscience, Karolinska Institutet
Kariem Ezzat, Research Scientist, Laboratory Medicine, Karolinska Institutet
Samir EL Andaloussi, Professor, Laboratory Medicine, Karolinska Institutet
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/192519
2022-10-24T17:18:34Z
2022-10-24T17:18:34Z
Comment notre cerveau nous fait aimer une musique (ou pas)
<figure><img src="https://images.theconversation.com/files/491389/original/file-20221024-356-nwfk3e.jpg?ixlib=rb-1.1.0&rect=54%2C0%2C6052%2C4013&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La musique influence notre cerveau dès le plus jeune âge.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/SBIak0pKUIE">Alireza Attari/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>En 2015, Spotify mettait en ligne une <a href="https://www.francetvinfo.fr/culture/musique/spotify-devoile-une-cartographie-des-gouts-musicaux_3320877.html">carte interactive</a> des penchants musicaux en fonction des villes. Dans cette carte, on découvrait les goûts des auditeurs : à New York, The Chainsmokers était en tête, Jeanne Added à Paris ou Nantes, et Jul à Marseille. On sait que les goûts musicaux évoluent au cours du temps et selon les régions, voire entre groupes sociaux. Pourtant, à notre naissance, nos cerveaux sont très similaires. Que se passe-t-il ensuite au niveau cérébral ? Qu’est-ce qui affecte autant nos goûts musicaux ?</p>
<p>Lorsque l’on écoute de la musique, notre cerveau <a href="https://www.jneurosci.org/content/41/35/7449">prédit en permanence ce qui va se passer ensuite</a>. Ces prédictions diffèrent selon notre histoire personnelle. Par ailleurs, écouter une nouvelle musique génère de la plasticité neuronale, c’est-à-dire la capacité du cerveau à créer, défaire ou réorganiser les réseaux de neurones et leurs connexions. Celle-ci permet à notre cerveau de mieux prédire de nouvelles musiques d’un genre similaire.</p>
<p>Or, la façon dont nous prédisons des événements musicaux affecte directement le plaisir et les émotions que nous ressentons, ainsi que certaines capacités cognitives comme la mémoire et l’attention. Pour cette raison, la musique à laquelle nous avons été exposés durant notre vie impacte la façon que l’on a d’apprécier de nouveaux morceaux.</p>
<h2>Les émotions, une histoire de prédiction</h2>
<p>Nous venons de publier une <a href="https://www.jneurosci.org/content/41/35/7449">étude</a> qui montre que notre cerveau prédit en permanence la prochaine note pendant l’écoute de mélodies, sans même que nous en rendions compte. </p>
<p>Chez les participants musiciens, il est possible de leur demander de chanter la note qu’ils avaient prédite et la relier avec ce que l’on voit dans le cerveau, mais pour les participants non musiciens c’est un mécanisme inconscient. À chaque note entendue, la prédiction se mêle à la note qui est réellement jouée, cela crée ainsi une <em>erreur de prédiction</em>. Une sorte de score neuronal qui mesurerait à quel point cette note était bien prédite par notre cerveau.</p>
<p>Dès <a href="https://books.google.fr/books/about/Emotion_and_Meaning_in_Music.html?id=HuWCVGKhwy0C&redir_esc=y">1956</a>, Leonard Meyer, compositeur et musicologue américain, suggérait que les émotions musicales étaient induites par la satisfaction et la frustration des attentes des auditeurs. Depuis, de nombreux développements de ce travail ont vu le jour et il a été possible de caractériser le lien entre les attentes et d’autres ressentis plus complexes. <a href="https://onlinelibrary.wiley.com/doi/10.1111/cogs.12477">Par exemple</a>, la capacité à mémoriser des séquences de notes est bien meilleure lorsque les participants ont une bonne capacité à prédire les notes de ces séquences.</p>
<p>Il est aussi possible de décomposer des émotions simples (comme la joie, la tristesse, l’énervement) en deux dimensions fondamentales : la <em>valence</em> et <em>l’activation psychologique</em>. Ces deux dimensions correspondent, respectivement, à quel point l’émotion est positive (tristesse vs joie) et à quel point l’émotion est excitante (l’ennui vs la colère). Ainsi, une combinaison de ces deux mesures permet de définir des émotions simples. Deux études de <a href="http://webprojects.eecs.qmul.ac.uk/marcusp/papers/SauveEtAl2018.pdf">2018</a> et <a href="https://link.springer.com/article/10.3758/s13415-013-0161-y">2013</a> montrent que si l’on demande à des participants de noter ces deux dimensions sur des curseurs, on retrouve une relation claire entre l’erreur de prédiction et les dimensions émotionnelles. Par exemple, les notes les moins bien prédites engendrent des émotions avec une plus grande activation psychologique.</p>
<p><a href="https://www.nature.com/articles/nrn1406">Dans l’histoire des neurosciences cognitives</a>, le plaisir a souvent été lié avec le système de récompense et en particulier l’apprentissage. Ainsi, des <a href="https://www.cell.com/current-biology/pdf/S0960-9822(14)01207-X.pdf">études</a> ont pu montrer que des neurones dopaminergiques particuliers réagissent à l’erreur de prédiction. Cela permet, entre autres, d’apprendre à prédire l’environnement qui nous entoure. Il n’est pas encore clair si le plaisir engendre l’apprentissage ou si l’apprentissage engendre le plaisir, mais les deux sont indubitablement liés. C’est aussi le cas pour la musique.</p>
<p><a href="https://www.jneurosci.org/content/39/47/9397">En effet</a>, lorsque l’on écoute de la musique, les événements qui sont modérément prédits sont ceux qui génèrent le plus de plaisir. En d’autres mots, les événements trop simples, trop prédictibles, et qui n’engendrent pas nécessairement d’apprentissage ne génèrent que peu de plaisir, idem pour les événements trop complexes. Par contre, les événements entre les deux, qui sont suffisamment complexes pour être intéressants, mais aussi suffisamment consistants avec nos prédictions pour être structurés sont ceux qui génèrent le plus de plaisir.</p>
<h2>Ces prédictions dépendent de notre origine</h2>
<p>Néanmoins, la façon de prédire les événements musicaux est indissociable de notre culture musicale. Par exemple, des chercheurs sont allés à la rencontre des membres du peuple sami qui s’étend du nord de la Suède au nord de la péninsule de Kola. Leur musique traditionnelle, appelée Yoiks, est très différente de la musique occidentale et n’a que très peu été en contact avec la culture occidentale.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/y1Hm-8ROgOg?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Bierra Bierra’s Joik (musique traditionnelle du peuple sami).</span></figcaption>
</figure>
<p>Dans cette <a href="http://users.jyu.fi/%7Eptoiviai/pdf/Cognition.Yoiks.pdf">étude</a>, il a été demandé à des musiciens samis, finlandais et européens (de divers pays non-familiers avec les Yoiks) d’écouter différents extraits de yoiks qu’ils ne connaissaient pas et de chanter la dernière note qui avait été enlevée au préalable. Tous les participants de chaque groupe ne donnaient pas la même réponse, mais certaines notes étaient plus représentées que d’autres au sein de chaque groupe. Ce qui est très intéressant, c’est que ces distributions sont très différentes entre les groupes et que les Samis sont ceux qui prédisent le mieux la note qui était vraiment dans le morceau, suivis par les Finlandais qui sont plus exposés à la musique samie que les participants du reste de l’Europe. Cela montre bien que notre culture musicale (la musique à laquelle on a été exposées pendant notre vie) influence la façon dont nous prédisons des événements musicaux inconnus.</p>
<p>Une <a href="http://mcdermottlab.mit.edu/papers/Jacoby_McDermott_2017_iterated_rhythm.pdf">étude</a> similaire a été conduite sur le rythme avec des participants américains et du peuple Tsimanés en Bolivie amazonienne. Cette étude montre que les participants américains et tsimanés perçoivent les rythmes de façon radicalement différente, mais aussi que les musiciens professionnels américains et les participants non musiciens américains perçoivent quant à eux, les rythmes de façon quasi-identiques. Cela permet d’imaginer que la façon dont nous prédisons (et ainsi percevons) la musique dépend de la musique à laquelle nous aurions été exposés passivement pendant notre vie, peu importe quelle musique nous aurions travaillée assidûment.</p>
<h2>On peut apprendre une nouvelle culture en y étant exposé</h2>
<p>Cela pose ainsi la question de l’apprentissage de la culture, communément appelé processus d’<em>enculturation</em>. Par exemple, en musique, le temps peut être différemment divisé. La musique occidentale divise généralement le <a href="https://www.youtube.com/watch?v=e-CEd6xrRQc">temps en 4</a> (comme dans la danse rock, c’est la division la plus répandue) ou en <a href="https://www.youtube.com/watch?v=-tn2S3kJlyU">3 temps</a> (comme dans la valse). Néanmoins, d’autres cultures musicales divisent le temps en ce que la théorie musicale occidentale appelle <em>mesures asymétriques</em>. Les musiques des Balkans sont, par exemple, connues pour utiliser des mesures asymétriques comme le <a href="https://www.youtube.com/watch?v=b65FN-X3OkA">9 temps</a> ou le <a href="https://www.youtube.com/watch?v=EhVzrqvAsZI">7 temps</a>. Une <a href="https://journals.sagepub.com/doi/full/10.1111/j.0956-7976.2005.00779.x">étude</a> de 2005 a composé des mélodies de Folk avec des mesures symétriques ou asymétriques.</p>
<p>Ensuite, ils ont présenté ces mélodies a des participants en y introduisant des accidents (un temps de plus ou de moins à un endroit particulier). Cette étude montre que les nouveau-nés de moins de 6 mois passaient autant de temps à regarder l’écran pendant les accidents quand ils étaient introduits dans des mesures symétriques et asymétriques. Par contre, les nouveau-nés de 12 mois passaient significativement plus de temps à regarder l’écran pendant les accidents dans les mesures symétriques qu’asymétriques. Cela donne à penser qu’ils sont plus surpris lorsque l’accident se produisait dans une mesure symétrique car ils ont compris qu’il y avait une disruption d’une structure qu’ils connaissaient déjà.</p>
<p>Pour vérifier cette hypothèse, les chercheurs ont fait écouter aux nouveau-nés de la musique des Balkans (en mesures asymétriques) à la maison à l’aide d’un CD. Après une semaine d’écoute, ils ont renouvelé l’expérience et cette fois les nouveau-nés passaient autant de temps à regarder l’écran pendant les accidents dans les mesures symétriques et asymétriques. Cela veut dire que l’écoute passive à la musique des Balkans a construit une représentation interne de la métrique musicale qui leur a permis de prédire la structure et ainsi de détecter les accidents dans les deux types de mesures. La même expérience a été conduite avec des adultes en leur demandant de détecter les accidents. Finalement, une <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2927013/pdf/nihms225442.pdf">étude</a> de 2010 montre un effet très similaire, non pas pour le rythme, mais pour les hauteurs de notes chez les adultes. Ces expériences montrent ainsi que l’exposition passive à de la musique permet d’engendrer un apprentissage des structures musicales propres à une culture. C’est ce que l’on appelle l’enculturation.</p>
<p>Nous avons vu dans cet article que l’écoute passive à la musique permettait de changer notre façon de prédire les structures musicales lors de l’écoute de nouveaux morceaux. Or, nous avons aussi vu que la façon dont les auditeurs prédisent les structures musicales change drastiquement entre les cultures et déforme leur perception en leur faisant ressentir du plaisir et des émotions différemment. Même si de nombreuses recherches restent à conduire pour comprendre, entre autres, l’impact des influences sociales et des sensibilités individuelles dans ces mécanismes, ces études nous donnent une piste de compréhension de la diversité des goûts musicaux : notre culture musicale (définie par la musique que nous avons écoutée dans notre vie) déforme notre perception et fait que nous préférons certains morceaux à d’autres de par la ressemblance (ou différence) avec les morceaux que nous connaissons déjà.</p><img src="https://counter.theconversation.com/content/192519/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Guilhem Marion est membre et a reçu des financements de la Chaire Beauté(s). </span></em></p>
Quand on écoute de la musique, notre cerveau prédit ce qu’il va se passer ensuite. Cette prédiction va affecter notre plaisir, ou notre rejet, pour une chanson.
Guilhem Marion, Doctorant en Sciences Cogntives de la Musique, École normale supérieure (ENS) – PSL
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/191568
2022-10-17T15:50:23Z
2022-10-17T15:50:23Z
Développement de la vision : pas d'écran avant l'âge de deux ans
<figure><img src="https://images.theconversation.com/files/489401/original/file-20221012-25-eoiecn.jpg?ixlib=rb-1.1.0&rect=2%2C2%2C994%2C660&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les appareils électroniques ne sont pas, en soi, une source de problème au plan visuel. C'est plutôt l'utilisation inappropriée de ces appareils qui peut entraver le développement naturel de l'oeil, ainsi que les habilités de lecture et d'apprentissage.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>Un samedi après-midi pluvieux. Tournée au centre commercial pour finaliser les achats de la rentrée. C’est évidemment achalandé. Je croise beaucoup de personnes, dont plusieurs parents avec de jeunes enfants de moins de 2 ans, en poussette. Une chose me frappe : tous ces enfants ont une tablette électronique ou un téléphone dans les mains, comme si la technologie était devenue l’outil ultime pour garder l’enfant au calme.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/epidemie-de-myopie-chez-les-jeunes-haro-sur-la-techno-108952">Épidémie de myopie chez les jeunes : haro sur la techno !</a>
</strong>
</em>
</p>
<hr>
<p>En tant qu’optométriste et expert en santé oculaire, ce constat me désole à chaque fois, puisque je connais tous les effets néfastes qu’une telle exposition aux outils électroniques peut avoir.</p>
<p>Et ces impacts sont d’autant plus cruciaux durant les premières années de vie, tant sur le plan <a href="https://pubmed.ncbi.nlm.nih.gov/34625399/">visuel</a> que sur le <a href="https://pubmed.ncbi.nlm.nih.gov/36190219/">développement cognitif et social de l’enfant</a>.</p>
<h2>Le développement visuel de l’enfant</h2>
<p>L’œil humain se développe <a href="https://naitreetgrandir.com/fr/etape/0_12_mois/developpement/fiche.aspx?doc=naitre-grandir-developpement-sens-vue">par stimulation</a>. La qualité du stimulus optique influence la croissance du globe oculaire, en suivant une mécanique complexe et équilibrée. À la naissance, l’œil est hypermétrope, c’est-à-dire que sa puissance n’est pas parfaitement ajustée à sa grandeur. L’enfant voit à courte distance, distinguant à peine une ombre lorsque grand-papa se pointe dans la porte de la chambre.</p>
<p>Dans les premières semaines, l’œil grandit, sa rétine mature et un équilibre s’installe entre la croissance du globe oculaire et la puissance de la lentille interne (le cristallin). À 6 mois, chacun des deux yeux du bambin possède la vision d’un œil adulte. À partir de ce moment, les yeux vont développer leur coordination, afin de générer la vision en 3 dimensions. Et c’est également à partir de l’âge de 6 mois que se développe la communication entre les yeux, qui s’effectuera dans le cerveau visuel.</p>
<p>Des milliards de connexions neurologiques devront être faites au cours des <a href="https://opto.umontreal.ca/clinique/pdf/EFFETS%20DES%20ECRANS%20SUR%20LE%20D%C3%89VELOPPEMENT%20VISUEL%20DES%20ENFANTS.pdf">8 premières années de vie</a>. C’est un temps de maturation énorme, mais nécessaire, considérant que <a href="https://www.sciencedirect.com/science/article/pii/S0149763413001917">plus du tiers des neurones du cerveau sont dédiées à la vision</a>.</p>
<h2>Une question de distance</h2>
<p>Les appareils électroniques ne sont pas, en soi, une source de problème au plan visuel. C’est plutôt l’utilisation inappropriée de ces appareils qui peut entraver le développement naturel de l’œil, ainsi que les habilités de lecture et d’apprentissage.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Deux petits enfants à lunettes assis sur des chaises blanches : un garçon avec une tablette informatique, une fille avec un téléphone portable" src="https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/489407/original/file-20221012-17-g43eu3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Pour un développement visuel normal, il est recommandé d’éviter toute exposition aux appareils électroniques entre 0 et 2 ans.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Le premier élément à considérer est la distance d’observation. L’œil est conçu pour regarder, en vision de près, à une distance qui est à peu près égale à celle de l’avant-bras (distance du coude au bout des doigts de la main). On parle d’environ <a href="https://www.sciencedirect.com/science/article/pii/S0042698913000795">30 cm pour un enfant en bas âge, et 40 cm pour un adulte</a>. Or, les tablettes et les téléphones sont tenus en moyenne à 20-30 cm de l’œil, cette distance <a href="https://onlinelibrary.wiley.com/doi/full/10.1111/cxo.12453">devenant de plus en plus courte avec une exposition prolongée</a>. L’effort visuel demandé pour garder une image claire à cette distance représente est donc doublé.</p>
<p>Une distance trop courte influence la qualité de l’image rétinienne (et donc le développement visuel) et cause une <a href="https://books.google.ca/books?hl=fr&lr=&id=jGGROHBFYt8C">fatigue oculaire excessive</a>. Il faut comprendre également que lorsque l’œil accommode, les yeux se dirigent automatiquement vers le nez (convergence) afin de focaliser à la distance de lecture normale. Un effort accommodatif trop important s’accompagne donc d’une convergence plus grande que normale. Comme l’œil ne peut maintenir cet effort prolongé sur une longue période, il va relâcher son effort et l’image perçue deviendra floue pendant un moment, une pénalisation sensorielle que l’on veut éviter. Après une période de repos, l’œil reprendra son effort, et cette alternance entre la clarté et le flou s’opérera tant que l’attention au près sera sollicitée. Ainsi, idéalement, la tablette ou le téléphone devrait toujours se tenir à distance d’avant-bras.</p>
<h2>Une stimulation constante n’est pas recommandée</h2>
<p>L’utilisation d’outils électroniques, avec jeux ou vidéos, demande un temps d’attention constant, sans pause ; il s’agit du second facteur à considérer. Lorsque l’enfant dessine dans un cahier ou s’il lit un livre papier, il arrêtera instinctivement à un moment, regardera ailleurs, au loin, s’intéressera à autre chose autour de lui. Ces pauses et ces temps d’arrêt sont bénéfiques <a href="https://www.aoa.org/healthy-eyes/eye-and-vision-conditions/computer-vision-syndrome?sso=y">pour que le système visuel récupère de son effort</a>. Se concentrer sur des cibles en vision de loin est également bénéfique pour le développement visuel de l’enfant. Avec les tablettes électroniques, il n’est pas rare de voir des enfants opérer des séances de plus de 2-3 heures en continu, sans lever le nez de l’écran.</p>
<p>Pour les enfants de 0 à 2 ans, le système visuel n’est tout simplement pas suffisamment développé et robuste pour subir un tel stress par une stimulation constante devant l’écran. Notamment, les éléments structurants, soit ceux de la sclère (couche profonde de l’œil), qui donnent la rigidité à l’œil et déterminent sa taille, se développent entre 0 et 2 ans et se stabilisent ensuite. Le stimulus visuel à ces âges peut interférer et donc <a href="https://www.researchgate.net/publication/335108098_Scleral_structure_and_biomechanics">influencer le développement de défauts visuels et de pathologie à un âge plus avancé</a>.</p>
<p>Il importe également de mentionner que l’écran peut émettre une lumière bleue. L’œil des enfants ne filtre pas ces rayons comme ceux d’un adulte. L’exposition à la lumière bleue est donc plus grande chez l’enfant, ce qui pourrait stimuler la myopie et perturber la sécrétion de mélatonine, <a href="https://www.myopiainstitute.com/eye-care/how-blue-light-affects-your-vision-and-overall-health/">qui règle notre horloge biologique</a>. Cela peut perturber les siestes nécessaires à cet âge, de même que le sommeil durant la nuit. La perte de sommeil est également myopisante.</p>
<h2>Apprivoisons l’électronique</h2>
<p>Pour un développement visuel normal, il est donc recommandé d’<a href="https://publications.aap.org/pediatrics/article/128/5/1040/30928/Media-Use-by-Children-Younger-Than-2-Years?_ga=2.208746386.1459529850.1665228699-655911314.1665228699?autologincheck=redirected?nfToken=00000000-0000-0000-0000-000000000000">éviter toute exposition aux appareils électroniques entre 0 et 2 ans</a>. À l’exception de rares conversations vidéos, sous la supervision d’un parent, afin de faire coucou à un grand-parent à distance, pendant quelques minutes.</p>
<p>À partir de 2 ans, une exposition d’une heure par jour peut être envisagée, notamment pour consulter des sites éducationnels, toujours accompagné par un parent ou un éducateur.</p>
<p>Lorsque le système visuel est mature, vers l’âge de 6-8 ans, on peut augmenter l’exposition graduellement, sans dépasser 2 à 3 heures par jour, en respectant des pauses de 10 minutes toutes les heures. Il faut éviter l’usage d’appareils électroniques durant les repas, les activités familiales, et au moins 1 heure avant le sommeil.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="jeune mère caucasienne tenant sa fille bébé africaine mignonne et en pleurs, regardant une tablette lors d’une réunion d’affaires ou familiale à distance virtuelle par appel vidéo" src="https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/489410/original/file-20221012-24-ip7l62.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">De rares conversations vidéos, sous la supervision d’un parent, afin de faire coucou à un grand-parent à distance, pendant quelques minutes, peuvent être envisagées.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<h2>Allons jouer dehors !</h2>
<p>Le meilleur conseil qui peut être donné pour le développement visuel réussi de l’enfant demeure d’encourager une exposition à la lumière extérieure durant <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6678505/#:%7E:text=Each%20additional%20hour%20of%20daily,by%2013%25%20%5B23%5D.">au moins 1 heure par jour, idéalement 2 heures</a>. On parle ici de jeu, de marche, et d’activités qui se font à l’extérieur. La quantité de lumière est alors beaucoup plus importante qu’à l’intérieur, ce qui stimulerait la production de dopamine, un médiateur chimique essentiel à réguler la croissance de l’œil. C’est la façon la plus efficace de prévenir l’apparition de la myopie chez les enfants.</p>
<p>Il faut également s’assurer que le système visuel de l’enfant est normal et que son développement se fait naturellement. Ainsi, le premier examen chez l’optométriste devrait être fait à l’âge de 6 mois (pour valider que l’œil a une optique normale et qu’il n’y a pas de défaut congénital), puis à 3 ans pour évaluer la coordination des yeux. Si tout est normal, le prochain examen aura lieu à 5 ans, et annuellement par la suite, <a href="https://www.ooq.org/fr/articles-et-publications/la-vision-et-lenfant">considérant que la vision peut changer rapidement</a>.</p>
<p>(<em>ndlr : La profession d'optométriste n'est pas la même au Québec et en France. Au Québec, les optométristes suivent une formation spécifique et pratiquent des actes réservés en France aux seuls orthoptistes, tels que le bilan orthoptique</em>)</p>
<p>En cas d’anomalie, plus on intervient tôt dans le processus, plus il est facile de rétablir une fonction oculovisuelle normale, soit par exercice, soit par moyens optiques.</p>
<p>En observant ces recommandations d’hygiène visuelle, nous protégerons le système visuel de l’enfant et lui assurerons un développement normal.</p>
<p>Et n’oublions pas que le plus bel écran du monde, c’est celui de la nature ! Offrons-le plus souvent à nos enfants.</p><img src="https://counter.theconversation.com/content/191568/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Langis Michaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Les impacts de l’utilisation d’appareils électroniques sont d’autant plus cruciaux durant les premières années de vie, tant sur le plan visuel que sur le développement cognitif et social de l’enfant.
Langis Michaud, Professeur Titulaire. École d'optométrie. Expertise en santé oculaire et usage des lentilles cornéennes spécialisées, Université de Montréal
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/191991
2022-10-12T13:16:55Z
2022-10-12T13:16:55Z
Non, l’Alzheimer n’est pas un type de diabète
<figure><img src="https://images.theconversation.com/files/488790/original/file-20221007-16-q79l9j.jpg?ixlib=rb-1.1.0&rect=1%2C1%2C995%2C664&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La théorie métabolique est loin d’être la seule explication au déclenchement de l’Alzheimer. Certains soutiennent plutôt qu’une origine auto-immune, inflammatoire, ou même infectieuse serait en cause.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>Plus d’un demi-million de Canadiens vivent avec un trouble cognitif au Canada, occasionnant un coût à la société de <a href="https://alzheimer.ca/en/about-dementia/what-dementia/dementia-numbers-canada">plus de dix milliards de dollars par année</a>. La maladie d’Alzheimer est en cause pour la majorité de ces cas. Il est donc primordial de trouver un traitement.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/lalzheimer-pourrait-etre-une-maladie-auto-immune-et-non-pas-une-pathologie-du-cerveau-190966">L’Alzheimer pourrait être une maladie auto-immune, et non pas une pathologie du cerveau</a>
</strong>
</em>
</p>
<hr>
<p><a href="https://pubmed.ncbi.nlm.nih.gov/15750215/">Une théorie proposée par Suzanne M. de la Monte</a>, professeure à l’université Brown, suggère que l’Alzheimer soit en fait causé par un dérèglement du métabolisme du cerveau. Appuyée par d’autres chercheurs, elle a <a href="https://journals.sagepub.com/doi/abs/10.1177/193229680800200619">proposé de renommer la maladie « diabète de type 3 »</a>. Bien que le diabète et l’Alzheimer aient de nombreux points en commun, cette proposition nuit à la compréhension du grand public de ce qu’est l’Alzheimer. Même si cette information circule beaucoup sur les médias sociaux, ce n’est pas une théorie répandue dans le domaine médical et scientifique.</p>
<p>En tant que doctorante en biologie moléculaire travaillant sur le diabète, et doctorant en psychologie travaillant sur l’Alzheimer, cette question est à la croisée de nos mondes. Nous sommes donc partis à la rencontre du troisième type… de « diabète » !</p>
<h2>Un problème de définition</h2>
<p>L’appellation « diabète de type 3 » lie directement l’Alzheimer aux <a href="https://www.diabete.qc.ca/fr/comprendre-le-diabete/tout-sur-le-diabete/quest-ce-que-le-diabete-2/quest-ce-que-le-diabete/">diabètes de type 1 et de type 2</a>, deux maladies métaboliques. Le diabète de type 1 est causé par une attaque auto-immunitaire du pancréas, l’organe producteur de l’insuline. Privées d’insuline, certaines cellules ne peuvent plus se nourrir de glucose, un sucre qui est leur source d’énergie. Le diabète de type 2 se développe quant à lui lorsque le pancréas doit produire une trop grande quantité d’insuline. À long terme, les cellules y deviennent insensibles.</p>
<p>Quel est le point en commun entre ces deux types de diabète ? La concentration anormalement élevée de glucose dans le sang. Or, la définition de l’Alzheimer est totalement différente. Elle se définit par une <a href="https://doi.org/10.1007/s00401-011-0910-3">accumulation toxique de protéines amyloïde-bêta et tau en plaques et en enchevêtrements</a>, que l’on peut voir au microscope.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="neurones avec plaques amyloïdes" src="https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/488787/original/file-20221007-26-wa5czx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La maladie d’Alzheimer se définit par une accumulation toxique de protéines amyloïde bêta et tau en plaques et en enchevêtrements.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<h2>L’Alzheimer, un trouble métabolique ?</h2>
<p>Dans l’Alzheimer, les neurones reçoivent de <a href="https://doi.org/10.3233/JAD-170549">moins en moins de sucres</a>, qui ont de la difficulté à entrer dans le cerveau. Les neurones doivent donc dépenser moins d’énergie. À la manière d’un alpiniste en altitude, ils ralentissent leur métabolisme pour s’adapter à cette privation d’énergie. Mais cela n’est pas sans conséquence. Ces neurones malades produisent des substances toxiques, qui les rendent de <a href="https://doi.org/10.3233/JAD-170549">plus en plus vulnérables aux autres problèmes liés à la maladie</a>.</p>
<p>L’insuline aide les neurones à mieux fonctionner, et est donc importante pour maintenir le cerveau en bonne santé. Dans l’Alzheimer, le cerveau devient moins sensible à l’insuline, ce qui <a href="https://doi.org/10.1155/2020/4981814">mènerait à une perte de fonctions cognitives, telles que la mémoire et l’apprentissage</a>. Cependant, contrairement au diabète de type 2, où on voit une insensibilité à l’insuline à travers tout le corps, l’Alzheimer n’aurait d’effets que sur le cerveau. Cela expliquerait que les conséquences des deux maladies soient aussi différentes.</p>
<p>Suzanne de la Monte a donc identifié l’insensibilité du cerveau à l’insuline et le métabolisme affaibli comme étant les causes de l’Alzheimer. Puisque le diabète est associé à un dérèglement des niveaux d’insuline et de glucose, elle a fermement défendu sa théorie que l’Alzheimer devrait être renommé « diabète de type 3 ».</p>
<h2>Une association trompeuse</h2>
<p>Si cette théorie avait raison sur toute la ligne, les personnes atteintes de diabète de type 2 devraient être plus vulnérables à l’Alzheimer. <a href="https://www.alz.org/media/Documents/alzheimers-dementia-diabetes-cognitive-decline-ts.pdf">Il est vrai que le diabète augmente les chances d’avoir un déclin cognitif</a>. Cependant, ces <a href="https://doi.org/10.1111/jgs.15014">pertes cognitives semblent bien distinctes de celles de l’Alzheimer</a>. Le diabète peut affecter n’importe quelles fonctions cognitives, allant de l’attention au langage. Alors que l’Alzheimer affecte surtout la mémoire. Le diabète et l’Alzheimer semblent donc affecter le cerveau différemment.</p>
<p>D’autre part, l’imaginaire collectif associe fortement le diabète aux habitudes alimentaires. Par exemple, on entend souvent qu’une <a href="https://www.diabetes.org.uk/guide-to-diabetes/enjoy-food/eating-with-diabetes/food-groups/sugar-and-diabetes">alimentation riche en sucres augmente les risques de développer le diabète de type 2</a>. Mais il faut savoir qu’une alimentation réduite en sucres et riche en fibres aide à garder le taux de sucre sanguin stable tant chez une personne atteinte de diabète de type 1 que de type 2. Cette approche permet de <a href="https://www.diabete.qc.ca/fr/comprendre-le-diabete/tout-sur-le-diabete/complications/les-complications-liees-au-diabete/">diminuer les risques de complications associées à la maladie</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Gros plan des mains d’une femme utilisant une lancette sur un doigt pour vérifier le niveau de sucre dans le sang avec un glucomètre" src="https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/488788/original/file-20221007-18-6hk1rh.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Bien que le diabète et l’Alzheimer aient de nombreux points en commun, l’appellation « diabète de type 3 » nuit à la compréhension du grand public de ce qu’est l’Alzheimer.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>De bonnes habitudes alimentaires permettent aussi de <a href="https://doi.org/10.1001/jama.2009.1144">réduire les risques de développer l’Alzheimer</a>, mais elles <a href="https://doi.org/10.32394/rpzh.2021.0154">ne permettraient probablement pas d’en améliorer les symptômes</a>. En utilisant l’appellation « diabète de type 3 », on renforce donc l’idée non prouvée que l’alimentation déterminerait la vitesse de progression de l’Alzheimer.</p>
<h2>Nouvelle théorie, nouveau nom ?</h2>
<p>La théorie métabolique est loin d’être la seule explication au déclenchement de l’Alzheimer. Certains soutiennent plutôt qu’une origine <a href="https://theconversation.com/lalzheimer-pourrait-etre-une-maladie-auto-immune-et-non-pas-une-pathologie-du-cerveau-190966">auto-immune, inflammatoire, ou même infectieuse serait en cause</a>. Aucune d’entre elles n’est parvenue à se démarquer. D’ailleurs, dans un essai clinique publié en 2021, inhaler de l’insuline <a href="https://link.springer.com/article/10.1007/s40266-021-00845-7">n’a pas atténué les symptômes de personnes en début d’Alzheimer</a>.</p>
<p>Certes, établir les causes d’une maladie est essentiel afin de trouver un traitement. Toutefois, les maladies ne sont généralement pas nommées en fonction de leur cause, mais plutôt en fonction de leur manifestation, comme l’arthrite, le diabète et le cancer.</p>
<p>À ce titre, l’Alzheimer est bien connue comme une maladie menant à des pertes de mémoire, et cette connaissance aide à établir le diagnostic. Renommer la maladie serait donc un grand pas en arrière. Nous suspectons que la proposition du nom « diabète de type 3 » soit plutôt motivée par le renforcement de la notoriété de la théorie métabolique de l’Alzheimer.</p>
<p>De telles motivations politiques sont nuisibles, autant sur le plan clinique, par la confusion du public, que sur le plan scientifique, en cherchant à dominer les théories alternatives de l’Alzheimer.</p><img src="https://counter.theconversation.com/content/191991/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Étienne Aumont a reçu des financements des instituts de recherche en santé du Canada.</span></em></p><p class="fine-print"><em><span>Maria Galipeau a reçu des financements des Fonds de Recherche du Québec en Santé. </span></em></p>
L’Alzheimer est considérée par des scientifiques comme un nouveau type de diabète localisé au niveau du cerveau, nommé diabète de type 3. Il faut se méfier de cette appellation !
Étienne Aumont, Étudiant au doctorat en psychologie, Université du Québec à Montréal (UQAM)
Maria Galipeau, Doctorante en biologie moléculaire, Université de Montréal
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/187795
2022-09-16T10:27:38Z
2022-09-16T10:27:38Z
Le neuromorphisme, ou comment créer des ordinateurs plus puissants en s’inspirant du cerveau
<figure><img src="https://images.theconversation.com/files/479363/original/file-20220816-5564-bloc4r.jpg?ixlib=rb-1.1.0&rect=6%2C12%2C2038%2C1235&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Un exemple d'ordinateur puissant, petit, efficace : le cerveau d'une souris. Ici, un cortex en microscopie confocale.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/zeissmicro/10799674936/in/photostream/">Zeiss Microscopy, Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span></figcaption></figure><p>Nos ordinateurs sont de plus en plus puissants. Ils gagnent en rapidité, en puissance de calcul, et permettent de réaliser des tâches toujours plus complexes, comme en témoigne le passage récent <a href="https://www.usinenouvelle.com/article/le-premier-supercalculateur-exaflopique-au-monde-est-americain.N2010342">aux supercalculateurs exaflopiques</a> avec <a href="https://www.sciencenews.org/article/supercomputer-exascale-frontier-speed-record-computing-calculations">« Frontier » aux États-Unis</a>. Ces avancées sont cruciales pour continuer à progresser dans les domaines à la pointe de l’informatique comme l’intelligence artificielle et être capables de traiter des problèmes d’une complexité croissante.</p>
<p>Bien qu’il soit possible d’augmenter le nombre de transistors pour accroître la puissance de calcul ou la mémoire d’un ordinateur en les miniaturisant – jusqu’à un certain point (un procédé de fabrication de <a href="https://www.futura-sciences.com/tech/actualites/electronique-ibm-devoile-premieres-puces-gravees-2-nm-87270/">transistors faisant seulement 2 nanomètres</a> est actuellement en développement), ce n’est pas suffisant. En effet, il existe une autre limite qui est inhérente à l’organisation des composants d’un ordinateur.</p>
<p>Cette limite vient du fait que le processeur qui réalise les calculs et la mémoire qui stocke les résultats sont physiquement séparés. L’ordinateur consacre alors plus de temps et d’énergie à transférer les données entre la mémoire et le processeur qu’à faire des opérations mathématiques nécessaires à l’exécution des tâches utiles. Ce phénomène s’appelle le <a href="https://fr.wikipedia.org/wiki/Architecture_de_von_Neumann">« goulot d’étranglement de von Neumann »</a>.</p>
<figure class="align-center ">
<img alt="Image colorée de neurones" src="https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=448&fit=crop&dpr=1 600w, https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=448&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=448&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=562&fit=crop&dpr=1 754w, https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=562&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/479364/original/file-20220816-4834-kt8csa.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=562&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Imiter le fonctionnement des neurones et synapses pour mieux calculer. Ici, deux neurones de sauterelles, l’un bleu, l’autre orange.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/nihgov/34578921142/">NIH/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span>
</figcaption>
</figure>
<p>Une façon de dépasser ces limites est de repenser l’architecture d’un ordinateur et de proposer de nouveaux composants qui s’inspirent du cerveau humain. Ce nouveau type d’électronique qui s’inspire du cerveau s’appelle le « neuromorphisme ».</p>
<p>Des dispositifs neuromorphiques ont déjà fait leurs preuves par exemple en reconnaissant des chiffres écrits ainsi que des <a href="https://www.nature.com/articles/s41586-018-0632-y">chiffres</a> et des <a href="http://www.cnrs-thales.fr/spip.php?article384">voyelles parlés</a>.</p>
<h2>Utiliser la « spintronique » pour imiter le fonctionnement des neurones</h2>
<p>Ces dispositifs neuromorphiques peuvent être fabriqués notamment grâce à la <a href="https://www.refletsdelaphysique.fr/dossiers/234-dossier-spintronique">spintronique</a>, une forme de l’électronique qui exploite à la fois la charge de l’électron (comme l’électronique classique), mais également son « spin ».</p>
<p>Grâce à la spintronique, des calculs longs et gourmands en énergie sur un processeur « classique » sont remplacés par un phénomène physique <a href="https://www.nature.com/articles/nature23011">ultrarapide, économe en énergie</a>, et qui peut être intégré dans des circuits électroniques classiques.</p>
<p>[<em>Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>On peut aussi créer de nouvelles stratégies pour rapprocher les unités de mémoire et les unités de calcul et ainsi obtenir des ordinateurs plus puissants, plus rapides et plus économes en énergie.</p>
<p>Bien sûr, il reste de nombreux défis à relever, comme connecter un grand nombre de structures entre elles (pour construire des circuits complexes) ou développer des algorithmes d’apprentissage optimisés pour ce type de circuit avec une architecture neuromorphique et des composants spintroniques.</p>
<h2>La spintronique, késako ?</h2>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=418&fit=crop&dpr=1 600w, https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=418&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=418&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=526&fit=crop&dpr=1 754w, https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=526&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/481598/original/file-20220829-20-pu03ma.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=526&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Un électron peut être représenté de manière schématique comme un petit aimant qui tourne sur lui-même. Il peut être orienté avec un spin « vers le haut » ou « vers le bas ».</span>
<span class="attribution"><span class="source">Chloé Chopin</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Le spin de l’électron est une propriété quantique qu’il est difficile de représenter dans le monde classique. Une vision simplifiée est d’imaginer un électron comme un petit aimant qui tourne sur lui-même. Ce petit aimant peut être orienté vers le haut ou vers le bas et quand un courant possède plus d’électrons avec un spin vers le haut (ou l’inverse), on dit que le courant est « polarisé en spin ».</p>
<p>Deux phénomènes très importants en spintronique sont sources d’applications : les <a href="https://fr.wikipedia.org/wiki/Magn%C3%A9tor%C3%A9sistance">« effets de magnétorésistance »</a> et le <a href="https://fr.wikipedia.org/wiki/Transfert_de_spin">« transfert de spin »</a>.</p>
<p>Les « effets de magnétorésistance » sont exploités dans les <a href="https://www.ibm.com/ibm/history/ibm100/us/en/icons/spintronics/">disques durs des ordinateurs</a>.</p>
<p>Le principe est le suivant : deux couches magnétiques sont séparées par un matériau non magnétique (qui est soit conducteur dans le cas de la « magnétorésistance géante » soit isolant dans le cas de la « magnétorésistance tunnel »). L’une des couches magnétiques a une aimantation fixe, comme un aimant de frigo, tandis que l’autre a son aimantation qui peut bouger, c’est la couche « libre ». Si les deux couches ont des aimantations parallèles alors le courant polarisé passe facilement et la résistance de la structure est faible tandis que si elles sont antiparallèles, alors le courant passe difficilement et la résistance de la structure est élevée.</p>
<p>Le « transfert de spin » découle de l’effet inverse. Dans ce cas, c’est le courant polarisé qui va transférer son moment de spin à l’aimantation de la couche « libre » avec comme effet le renversement de cette dernière. Dans certains cas, ce phénomène de transfert de spin mène également à des oscillations entretenues de l’aimantation pour créer ce qu’on appelle les oscillateurs à transfert de spin.</p>
<h2>Fabriquer des synapses et des neurones artificiels</h2>
<p>En combinant à la fois le transfert de spin, pour manipuler une couche magnétique (écriture), et l’effet de magnétorésistance, pour mesurer l’état de résistance qui en résulte (lecture), il devient possible d’imaginer des dispositifs innovants qui vont pouvoir s’inspirer, voire imiter certaines caractéristiques du cerveau humain afin de fabriquer des synapses et des neurones artificiels.</p>
<p>Un très grand nombre de synapses connecte les neurones entre eux, transmettent l’information et jouent le rôle de petites mémoires tandis que les neurones intègrent l’information reçue et renvoient un signal appelé <a href="https://theconversation.com/dans-le-cerveau-cache-de-lintelligence-artificielle-151887">« potentiel d’action »</a> si un seuil est dépassé, comme une petite unité de calcul.</p>
<figure class="align-center ">
<img alt="Schéma de vortex dans des neurones" src="https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/480318/original/file-20220822-66815-91dtn2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Dans un ordinateur neuromorphique, les neurones pourraient être basés sur des vortex magnétiques.</span>
<span class="attribution"><a class="source" href="https://www.hzdr.de/db/Cms?pOid=62411&pNid=0">HZDR/Sahneweiß/H. Schultheiß</a></span>
</figcaption>
</figure>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/dans-le-cerveau-cache-de-lintelligence-artificielle-151887">Dans le cerveau caché de l’intelligence artificielle</a>
</strong>
</em>
</p>
<hr>
<p>Pendant l’apprentissage, les connexions synaptiques vont se renforcer ou s’affaiblir. Elles vont ainsi transmettre plus ou moins d’informations selon leur importance. Il est donc intéressant de fabriquer des structures dont la <a href="https://www.nature.com/articles/srep31510">résistance peut varier grâce au transfert de spin</a> pour réaliser des synapses artificielles.</p>
<h2>En pratique, plusieurs approches sont explorées par les chercheurs</h2>
<p>Pour fabriquer des neurones artificiels grâce à la spintronique, plusieurs approches sont possibles.</p>
<p>L’une d’entre elles est de chercher à reproduire ce qui est observé dans le cerveau, en utilisant des <a href="https://ieeexplore.ieee.org/abstract/document/8844255">architectures plus ou moins complexes</a> pour fabriquer des neurones artificiels, afin notamment de reproduire les effets de seuil, ou de générer des trains de « <em>spike</em> » (potentiels d’action) comme un neurone biologique.</p>
<p>Une deuxième approche est de créer un neurone artificiel dont la réponse est « non linéaire » (ce qui est une propriété fondamentale pour l’intelligence artificielle). Pour cela, il est possible d’utiliser des oscillateurs à transfert de spin comme ceux décrits plus haut. La couche « libre » peut également avoir une structure magnétique particulière appelée « vortex ». C’est l’état le plus stable pour des dimensions allant de 50 nm à 5 microns. Sa dynamique transitoire lui confère une mémoire à court terme en plus d’un comportement non linéaire.</p>
<p>Cette structure est prometteuse pour des applications neuromorphiques et elle est étudiée notamment pour pouvoir modéliser son comportement. En effet, en mettant au point un modèle précis et rapide, on peut se passer, dans une certaine mesure, de l’expérimentation et des simulations et gagner un temps considérable : ce qui prendrait potentiellement des mois voire des années de simulation est réduit à quelques minutes de calculs.</p>
<p>Ces travaux s’inscrivent dans une voie prometteuse pour étudier des <a href="https://lejournal.cnrs.fr/articles/les-nouveaux-defis-de-la-spintronique">architectures complexes à base de composants spintroniques</a> et ainsi lever certaines limitations des ordinateurs classiques.</p><img src="https://counter.theconversation.com/content/187795/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
En utilisant le « spin », une propriété quantique de la matière, on peut imiter le comportement des neurones.
Chloé Chopin, Chercheuse postdoctorale dans le groupe de spintronique neuromorphique, Université catholique de Louvain (UCLouvain)
Flavio Abreu Araujo, Professor and Head of the Neuromorphic Spintronics Group, Université catholique de Louvain (UCLouvain)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/188942
2022-09-05T22:55:03Z
2022-09-05T22:55:03Z
La symphonie des neurones ou les mathématiques du cerveau
<figure><img src="https://images.theconversation.com/files/481540/original/file-20220829-26-qz7uav.jpg?ixlib=rb-1.1.0&rect=0%2C48%2C1191%2C1072&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L'activité de millions de neurones est intégrée et traitée dans le cerveau. Ici, le lobe optique du cerveau d'une drosophile vu en microscopie optique.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/nihgov/34060441633">J. Luo, C.H. Lee, Eunice Kennedy Shriver National Institute for Child Health and Human Development, NIH Image Gallery, Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span></figcaption></figure><p>Le cerveau est un organe essentiel au fonctionnement du corps humain et coordonne nos interactions avec le monde extérieur. Les raisonnements, les flux sensoriels, cognitifs et émotionnels, les prises de décisions, les mécanismes de la mémoire… La majeure partie de l’activité humaine se reflète dans le cerveau.</p>
<p>Constitué d’environ 86 milliards de neurones connectés entre eux par des synapses 10000 fois plus nombreuses, le cerveau commande le corps à travers une symphonie électrochimique permanente. Mais comment les neurones individuels communiquent-ils entre eux pour apporter une réponse globale adéquate ?</p>
<p>Pour répondre à cette question aujourd’hui, il semble nécessaire d’allier les recherches de neuroscientifiques, de physiciens et de mathématiciens.</p>
<p>Un <a href="https://doi.org/10.1038/s41586-021-04067-0">article publié récemment dans la revue <em>Nature</em></a> montre par exemple comment le cerveau de la mouche effectue des calculs vectoriels pour gérer son orientation dans le plan bidimensionnel pendant son vol. Ces recherches ont mis en évidence une synchronisation en temps réel de l’activité neuronale de certaines zones du cerveau, ainsi que leur correspondance en termes de calcul vectoriel, pour permettre à la mouche de s’orienter dans le plan.</p>
<h2>Des groupes de neurones se synchronisent</h2>
<p>D’une manière générale, deux phénomènes apparaissent aujourd’hui comme incontournables lorsque l’on souhaite étudier l’activité de groupes de neurones dans le cerveau : la synchronisation et l’émergence de rythmes.</p>
<p>[<em>Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Pour des réseaux constitués d’éléments semblables, comme le cerveau, la synchronisation renvoie à l’idée d’une cohérence d’activité entre les différents éléments du système. On observe plusieurs types de synchronisation dans les systèmes physiques et la nature. Par exemple, il est possible d’observer des groupes de lucioles qui émettent des signaux lumineux de manière synchronisée ou bien des bancs de poissons ou essaims d’oiseaux qui synchronisent leurs mouvements.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/leffet-papillon-quest-ce-qui-se-cache-derriere-la-theorie-du-chaos-179878">L’effet papillon : qu’est-ce qui se cache derrière la théorie du chaos ?</a>
</strong>
</em>
</p>
<hr>
<p>On parle de « synchronisation complète » lorsque tous les éléments du système évoluent de manière identique au cours du temps. C’est la synchronisation la plus frappante. Ce type de synchronisation correspond par exemple à une assemblée de métronomes qui, disposés sur une planche de bois assise sur des canettes de soda, vont synchroniser leurs oscillations de manière identique, comme sur cette vidéo.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/Aaxw4zbULMs?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Synchronisation de métronomes, Harvard Natural Sciences Lecture Demonstrations.</span></figcaption>
</figure>
<p>Dans le cerveau, les synchronisations sont différentes et plus subtiles.</p>
<h2>Et un rythme émerge</h2>
<p>Les rythmes qui émergent peuvent être identifiés : ils correspondent à des fréquences, comme si les neurones prenaient le rôle des métronomes. Le cerveau abonde d’exemples d’émergence de synchronisations et de rythmes : par exemple, le système cortex visuel V1, une zone située à l’arrière du cerveau qui reçoit les signaux visuels, est très étudié.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/vers-les-protheses-de-cerveau-quand-neurones-artificiels-et-naturels-dialoguent-141793">Vers les prothèses de cerveau : quand neurones artificiels et naturels dialoguent</a>
</strong>
</em>
</p>
<hr>
<p>Les expériences montrent que l’on observe un pic de fréquence gamma (c’est-à-dire supérieure à 30 hertz) lorsqu’on stimule le cortex visuel V1 grâce à des signaux visuels spécifiques, par exemple des <a href="https://www.jneurosci.org/content/32/40/13873.long">images avec des lignes noires et blanches se déplaçant dans une direction donnée</a>. Des modèles mathématiques constitués de réseaux d’<a href="https://fr.wikipedia.org/wiki/%C3%89quation_diff%C3%A9rentielle_ordinaire">équations différentielles ordinaires</a> sont utilisés pour modéliser l’activité de V1.</p>
<p>Des travaux récents ont montré grâce à ce type de modèle comment la stimulation de V1 peut entraîner l’émergence de rythmes gamma <a href="https://www.jneurosci.org/content/38/40/8621">via une synchronisation partielle de l’activité neuronale</a>. Dans ce cas, le rythme émerge de l’augmentation du nombre de potentiels d’action (des impulsions) émis de manière concomitante dans des sous-groupes de la population neuronale.</p>
<p>Ici, il ne s’agit pas de synchronisation complète, car tous les neurones n’adoptent pas une dynamique identique. Des groupes de neurones vont au cours du temps avoir tendance à émettre simultanément des potentiels d’actions, ce qui va produire le rythme observé dans le réseau.</p>
<h2>Les mathématiques du cerveau</h2>
<p>Ce type de modèle mathématique constitué d’un réseau d’entités individuelles fait partie de la catégorie des <em>systèmes complexes</em>. Lorsqu’on étudie les systèmes complexes, on cherche typiquement à comprendre comment, pour une certaine structure de réseau, des entités individuelles et un niveau de stimulation donnés, la variation d’un paramètre va permettre l’émergence de synchronisations et de rythmes.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Réseau de points reliés par des flèches" src="https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=387&fit=crop&dpr=1 600w, https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=387&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=387&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=486&fit=crop&dpr=1 754w, https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=486&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/481544/original/file-20220829-18-1xd45n.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=486&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Schéma d’un réseau de neurones (points) communiquant entre eux (flèches). Les neurones n’ont pas tous les mêmes effets les uns sur les autres, ce qui est représenté par différentes couleurs.</span>
<span class="attribution"><span class="source">Benjamin Ambrosio</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>C’est l’objet d’un <a href="https://doi.org/10.48550/arXiv.2004.10656">travail récent</a> effectué dans le cadre d’une thèse, dans lequel nous avons considéré un réseau d’équations différentielles de type Hodgkin-Huxley (un modèle mathématique typique de neurone), dont la structure est inspirée par le cortex visuel V1. Dans ce réseau, chaque équation différentielle représente un neurone qui peut exciter ou inhiber l’activité électrique des neurones auxquels il est connecté.</p>
<p>En variant un paramètre (dans notre cas, un nombre quantifiant l’amplitude d’excitation induite par les neurones excitateurs vers les neurones excitateurs), on peut illustrer comment le système évolue d’un état non synchronisé vers un état de synchronisation partielle puis une synchronisation très prononcée. La fréquence du réseau est une fréquence de type gamma.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Graphe montrant la synchronisation des neurones dans le modèle" src="https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=155&fit=crop&dpr=1 600w, https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=155&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=155&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=195&fit=crop&dpr=1 754w, https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=195&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/481535/original/file-20220829-16-ljs9ny.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=195&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">On peut synchroniser les neurones du modèle et faire émerger un rythme en faisant varier un paramètre, de gauche à droite. Chaque point représente le moment où un neurone émet une impulsion (potentiel d’action). Pour la valeur du paramètre correspondant au panneau de droite, on voit que les neurones émettent l’impulsion à peu près au même moment – mais le panneau du milieu est celui qui reflète de façon la plus réaliste le fonctionnement du cortex visuel V1.</span>
<span class="attribution"><span class="source">Benjamin Ambrosio</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>De telles approches, qui utilisent les mathématiques pour décrire l’émergence de fréquence dans les tissus neuronaux devraient se développer de plus en plus dans le futur. Une des applications très concrètes de ces modèles est de calibrer la valeur des paramètres pour permettre une implémentation optimale de solutions thérapeutiques. Par exemple, les techniques de stimulation électrique ou électromagnétique sont très étudiées dans des contextes tels que la thérapeutique des <a href="https://link.springer.com/article/10.1007/s00422-020-00818-w">aphasies</a> ou de la maladie de <a href="https://link.springer.com/article/10.1007/s10483-020-2689-9">Parkinson</a>.</p>
<p>Il faut préciser ici que les modèles mathématiques doivent s’adapter aux différentes échelles spatiales selon le type de mesures effectuées, de l’échelle de la surface crânienne à quelques millimètres dans d’autres études.</p>
<p>Il n’en demeure pas moins que les modèles mathématiques capables de reproduire des fréquences typiques mesurées dans le cerveau à différentes échelles sont amenés à jouer un rôle crucial dans la compréhension de l’émergence des rythmes cérébraux.</p><img src="https://counter.theconversation.com/content/188942/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Benjamin Ambrosio et M.A. Aziz Alaoui sont enseignant-chercheurs à l'Université Le Havre Normandie, et membres du Laboratoire de Mathématiques Appliquées du Havre. Leurs recherches portent sur les systèmes dynamiques, les systèmes complexes et leurs applications aux sciences du vivant. Leurs recherches sont financées entre autres par le CNRS et la région Normandie. </span></em></p><p class="fine-print"><em><span>Aziz Alaoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Comment les neurones se coordonnent-ils pour donner sa puissance au cerveau ?
Benjamin Ambrosio, Maître de conférences en mathématiques, Université Le Havre Normandie
Aziz Alaoui, Professeur de mathématiques appliquées, Université Le Havre Normandie
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/186435
2022-07-07T18:11:58Z
2022-07-07T18:11:58Z
Entre muscle et nerf : comprendre la jonction neuromusculaire pour mieux comprendre le mouvement
<figure><img src="https://images.theconversation.com/files/472579/original/file-20220705-16-58zoyo.jpg?ixlib=rb-1.1.0&rect=43%2C10%2C7146%2C4031&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La communication entre les cellules nerveuses et les muscles est primordiale pour assurer un bon mouvement.</span> <span class="attribution"><span class="source">Kateryna Kon / Shutterstock</span></span></figcaption></figure><p>Quoi de plus naturel, a priori, que bouger ? Le moindre geste nous est si simple qu’on ne réalise pas toute la mécanique, tant musculaire que nerveuse, qui se cache derrière. On n’en réalise l’importance que lorsqu’elle se brouille.</p>
<p>Tous nos mouvements volontaires tels que la respiration, la marche, la parole et l’alimentation, et donc la plupart de nos comportements et notre bien-être, dépendent du bon fonctionnement de la zone physique où nerf et muscle, la pensée et l’action, communiquent : il s’agit de la jonction neuromusculaire (JNM), interface où les neurones dits « moteurs » rencontrent les muscles qui pilotent l’initiation et le contrôle précis du mouvement.</p>
<p>Tout dysfonctionnement au niveau de cette jonction peut entraîner des pathologies importantes, aux répercussions immenses. Ceci tant au niveau des individus concernés que de la société dans son ensemble, en raison du handicap moteur engendré par la perte de mobilité, ainsi que des coûts humain et économique inhérents.</p>
<p>Parmi les atteintes les mieux documentées, on compte une maladie auto-immune appelée myasthénie, la sclérose latérale amyotrophique (ou maladie de Charcot) et la fonte musculaire liée à l’âge (sarcopénie) qui touche cette fois toute la population. Autant d’affections qui dont les ressorts restent non résolus en partie en raison du manque de connaissances.</p>
<p>Les défauts de communication entre nerf et muscle sont une des causes à ces pathologies. On sait qu’elles surviennent principalement lorsque le nerf ne parvient pas à établir un contact avec la surface des muscles, mais il existe d’autres raisons à explorer – tout comme les origines de ces anomalies. Avec notamment pour objectif la conception d’options thérapeutiques. S’il en existe déjà certaines pour l’ensemble des patients, leur efficacité demeure encore limitée.</p>
<p>Mieux comprendre les mécanismes sous-jacents à la formation et au maintien de la jonction neuromusculaire tout au long de la vie est ainsi essentiel à la compréhension de la genèse des pathologies neuromusculaire.</p>
<p>En raison de sa simplicité relative, de sa grande taille et de son accessibilité, la jonction neuromusculaire est un modèle de choix pour étudier comment la communication entre nerf et muscles est régulée pour sous-tendre notre capacité à contracter nos muscles, à bouger notre corps ou simplement à respirer. Des connaissances essentielles pour comprendre comment le système nerveux assure le lien entre les pensées et les actions, en relayant des messages qui voyagent si vite que nous ne les remarquons même pas.</p>
<h2>Comment fonctionne la jonction neuromusculaire</h2>
<p>Cette zone de contact entre nerf et muscle est constituée d’innombrables « synapses », où un nerf établit un contact avec sa cible (un autre nerf, ou ici un muscle). Une synapse se décompose en plusieurs compartiments : deux zones pré et post-synaptiques, séparées par la « fente synaptique ».</p>
<p>La bonne coordination de ces espaces est cruciale… et pas si évidente.</p>
<p>Car les messages envoyés par le cerveau voyagent sous forme d’impulsion électrique le long des nerfs mais doivent être « traduits » temporairement sous forme chimique à chaque « bifurcation » – changement de nerf ou passage du nerf au muscle. Cette traduction se fait justement au niveau des synapses. Au niveau de la jonction neuromusculaire, le messager chimique qui permet de transmettre l’influx nerveux vers les cellules musculaires et de déclencher le mouvement est l’acétylcholine.</p>
<p>Toute perturbation de cette coordination transsynaptique entraîne la rupture progressive des connexions avec des impacts majeurs sur les fonctions motrices. La difficulté ou l’impossibilité du nerf à établir un contact avec les récepteurs à l’acétylcholine localisés à la surface des muscles est une des défaillances de communication principales.</p>
<h2>Une nouvelle voie de communication mise en évidence</h2>
<p>En utilisant un large panel d’approches cellulaires et de modèles expérimentaux, notre équipe a étudié une nouvelle voie de communication nerf/muscle. Nous nous sommes tout particulièrement intéressés à une protéine appelée Vangl2, exprimée au niveau de la jonction neuromusculaire.</p>
<p>Nous avons montré, <a href="https://pubmed.ncbi.nlm.nih.gov/35580169/">dans notre dernière étude publiée le 17 mai 2022</a>, que cette protéine joue un rôle critique à la fois au cours du développement embryonnaire (au moment de la formation de la jonction neuromusculaire) mais aussi au stade adulte, pour maintenir son fonctionnement normal. Dans nos modèles de souris, nous avons notamment découvert que l’absence de Vangl2 dans les muscles avait un impact délétère sur la transmission des messages au niveau de la jonction neuromusculaire, et engendrait des déficits de la fonction motrice chez les animaux.</p>
<p>Ce qui nous a permis d’identifier Vangl2 comme un acteur clé dans la mise en place des synapses. Nos résultats éclairent également les mécanismes moléculaires sous-jacents à l’assemblage de la JNM elle-même.</p>
<p>Toutes ces nouvelles données ont un intérêt fondamental, pour comprendre comment la jonction neuromusculaire acquiert sa morphologie complexe ; mais elles devraient aussi permettre le développement de nouvelles cibles thérapeutiques pour combattre les maladies neuromusculaires causées par ses dysfonctionnements.</p>
<p>[<em>Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5">Abonnez-vous aujourd’hui</a>.</em>]</p>
<h2>Des applications thérapeutiques à venir</h2>
<p>La protéine Vangl2 pourrait en effet constituer une nouvelle cible pour la conception de stratégies thérapeutiques innovantes visant à rétablir les anomalies de la jonction neuromusculaire impliquées dans diverses pathologies neuromusculaires. Une piste serait via la modulation de la voie de signalisation associée à Vangl2 pour restaurer la perte de connexions synaptiques dans un contexte pathologique.</p>
<p>Une autre piste, que nous pouvons explorer grâce à la transversalité de notre équipe, serait l’identification à court ou moyen terme de mutations dans le gène codant la protéine Vangl2 dans des cohortes de patients atteints de pathologies génétiques neuromusculaires dont la cause reste non identifiée.</p>
<p>L’affection principale concernée par ces recherches est la <a href="https://myasthenies.afm-telethon.fr/maladies/syndrome-myasthenique-congenital/">myasthénie congénitale, maladie génétique rare affectant la transmission neuromusculaire</a>. Pour cette maladie, il y a environ 35 % de patients qui n’ont pas de diagnostic moléculaire (le gène en cause n’est pas connu).</p>
<p>Les progrès réalisés dans ces domaines devraient avoir un impact à plus long terme sur la compréhension des mécanismes fondamentaux régulant l’établissement et le maintien des connexions entre les nerfs et les muscles tout au long de la vie. Ils pourraient fournir de nouvelles perspectives thérapeutiques pour les maladies héréditaires ou acquises rares qui affectent les connexions neuromusculaires, ainsi qu’aider le développement de nouvelles thérapies régénératives pour les lésions nerveuses.</p><img src="https://counter.theconversation.com/content/186435/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Laure Strochlic a reçu des subventions publiques INSERM et de type ANR, et un soutien financier de fondations (AFM-Téléthon)</span></em></p>
Sans une bonne communication entre cerveau et muscles, pas de mouvement contrôlé possible… Une nouvelle étude se penche sur là où ce dialogue s’établit et d’en identifier un nouvel acteur clé.
Laure Strochlic, Research associate, PhD in Neurosciences, Inserm
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/184129
2022-06-06T13:55:46Z
2022-06-06T13:55:46Z
Ce que l’épilepsie nous enseigne sur la diversité et la résilience
<figure><img src="https://images.theconversation.com/files/466382/original/file-20220531-26-x3evvv.jpg?ixlib=rb-1.1.0&rect=5%2C0%2C992%2C666&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L’épilepsie se caractéristique principalement par la présence apparemment spontanée et récurrente de crises, souvent déclenchées par le stress ou un stimuli visuel.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>De nos jours, on reconnaît de plus en plus l’importance de l’équité, de la diversité et de l’inclusion au sein de la société et de ses institutions. Les organisations de pointe les plus progressistes considèrent que la diversité des personnes est essentielle au <a href="https://www.canada.ca/en/treasury-board-secretariat/corporate/reports/building-diverse-inclusive-public-service-final-report-joint-union-management-task-force-diversity-inclusion.html">succès, à la croissance, à la capacité d’innovation et au développement d’une société</a>.</p>
<p>Les avantages liés à la diversité sont toutefois bien loin d’être exclusifs aux organisations humaines ; l’hétérogénéité et la variabilité sont les principes de conception centraux à tous les systèmes naturels complexes, qu’il s’agisse de <a href="https://doi.org/10.1155/2018/3421529">réseaux écologiques, cellulaires ou génétiques</a>.</p>
<p>Qu’on parle d’un écosystème, de la société ou du cerveau, quel est le lien qui relie cette diversité au fonctionnement et à la stabilité d’un système complexe ?</p>
<p>En tant que chercheurs en neurosciences, nos recherches interdisciplinaires et nos travaux cliniques nous ont poussés vers l’incroyable complexité et la richesse du cerveau humain et des systèmes naturels. Nous cherchons non seulement à mieux comprendre le fonctionnement des circuits du cerveau, mais aussi à développer de nouveaux traitements pour les maladies neurologiques telles que l’épilepsie.</p>
<h2>Diversité rime avec résilience</h2>
<p>Ayant d’abord été élaboré <a href="https://tile.loc.gov/storage-services/service/rbc/rbctos/2017gen17473/2017gen17473.pdf">par Darwin</a>, le concept à l’effet que la diversité engendre la stabilité et la survie a été débattu par des scientifiques issus de nombreuses disciplines <a href="https://doi.org/10.1155/2018/3421529">depuis plus d’un siècle</a>. La capacité des systèmes naturels à résister face aux changements est une caractéristique que l’on appelle la résilience. Cette caractéristique fondamentale émerge des interactions entre les membres d’un même système (par exemple, les espèces d’un écosystème, les individus d’un groupe, les cellules d’un organisme) et lui permet de maintenir ses fonctions au fil du temps.</p>
<p>Le changement met à l’épreuve la résilience. Certains écosystèmes peuvent s’adapter à l’extinction d’espèces spécifiques ou à la sécheresse. Certaines communautés virtuelles ou réseaux sociaux peuvent résister à des cyberattaques. Certaines organisations peuvent poursuivre leurs activités à la suite de conflits, guerres, révolutions politiques ou… pandémies. À la lumière de ces exemples courants et de nombreux autres liés aux sciences sociales ou naturelles, il est aujourd’hui plus important que jamais de comprendre le rôle joué par la diversité dans le maintien de la résilience des systèmes complexes.</p>
<p>Et si des pistes de réponse se trouvaient dans les circuits du cerveau, plus spécifiquement dans un cerveau atteint d’épilepsie ?</p>
<h2>Basculer dans une tempête électrique</h2>
<p>Afin de mieux comprendre, remontons un peu en arrière… Depuis plusieurs années, notre équipe interdisciplinaire étudie l’épilepsie, le <a href="https://doi.org/10.1046/j.1528-1157.43.s.6.1.x">désordre neurologique grave le plus fréquent</a>. L’épilepsie se caractéristique principalement par la présence apparemment spontanée et récurrente de crises, souvent déclenchées par le stress ou un stimulus visuel (comme des <a href="https://doi.org/10.1016/j.cub.2017.03.067">lumières clignotantes ou des images spécifiques</a>). Des recherches récentes ont aussi démontré que la fréquence de ces crises pouvait varier avec le <a href="https://doi.org/10.1038/s41467-017-02577-y">moment du jour ou du mois</a>, en fonction du rythme circadien (cycle éveil-sommeil), par exemple.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="femme se tient contre un mur d’une main et se tient la tête de l’autre alors qu’elle semble avoir un malaise" src="https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/466391/original/file-20220531-22-o8z5oe.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">L’épilepsie représente le désordre neurologique grave le plus fréquent.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Sous cet angle, un cerveau atteint d’épilepsie peut être vu comme fragile et peu résilient, basculant régulièrement dans une tempête électrique. Ainsi, plutôt que de s’adapter normalement aux changements, les neurones deviennent disproportionnellement actifs et synchrones, et l’activité électrique intense qui en résulte se propage en perturbant les fonctions cérébrales.</p>
<h2>Des neurones moins diversifiés</h2>
<p>En raison des conséquences importantes de ces crises sur les patients et leurs familles, notre équipe a étudié sans relâche les circuits responsables de leur déclenchement et explore des moyens susceptibles de les prévenir.</p>
<p>Quel rapport y a-t-il entre la diversité et l’épilepsie ? Notre équipe a récemment mesuré l’activité des neurones chez des personnes souffrant d’épilepsie. Nous avons alors remarqué que les neurones situés dans les régions du cerveau responsables du déclenchement des crises d’épilepsie étaient <a href="https://doi.org/10.1016/j.celrep.2022.110863">beaucoup moins diversifiés que ceux des régions non responsables de celles-ci</a>. Ces neurones étaient étrangement similaires les uns aux autres, présentant des caractéristiques et des réponses hautement semblables.</p>
<p>Cette absence de diversité pourrait-elle expliquer pourquoi les cerveaux sujets aux crises sont moins résilients ?</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1529117822298775553"}"></div></p>
<h2>Des modèles mathématiques à la rescousse</h2>
<p>Afin de répondre à cette question complexe, nous nous sommes tournés vers les mathématiques. Et si, par l’entremise de modèles mathématiques des circuits cérébraux, nous pouvions comprendre comment la diversité des neurones (ou l’absence de celle-ci) prédispose le cerveau aux crises ? Pourrions-nous déterminer si la diversité neuronale accroît la résilience dans le cerveau ? Ces modèles de réseaux de neurones nous permettent non seulement de simuler des crises et étudier leur fonctionnement, mais aussi de varier le niveau de diversité exprimé par nos neurones simulés. Ces équations représentent donc un outil irremplaçable pour mieux comprendre le rôle le la diversité cellulaire dans le fonctionnement du cerveau.</p>
<p>Ces équations ont révélé que lorsque la diversité est <a href="https://doi.org/10.1016/j.celrep.2022.110863">trop faible ou absente</a>, une forme d’activité rappelant des crises d’épilepsie apparaît spontanément, sujette à des changements soudains de synchronisation, rappelant ce que l’on observe lors de crises. Ces résultats sont sans équivoque : un niveau réduit de diversité fragilise ces circuits neuronaux, les rendant peu résilients et incapables de maintenir le type d’activité nécessaire au maintien des fonctions cérébrales.</p>
<p>Que peut-on conclure de ces résultats ? Ils aident à clarifier le rôle joué par la diversité et les différents types de neurones dans le maintien des fonctions cérébrales. Ils nous apportent un regard nouveau sur les maladies neurologiques telles que l’épilepsie, pavant potentiellement la voie à de nouvelles avenues de traitement de ces maladies.</p>
<p>L’utilisation des mathématiques nous permet aussi d’approfondir certaines questions demeurant sans réponse : y a-t-il un niveau optimal de diversité ? Quels sont les différents types de diversité (types de neurones, pluralité d’agencements parmi les connexions qui les relient) et quel est leur rôle dans l’activité du cerveau ? Pourrions-nous augmenter la résilience du cerveau en promouvant la diversité cellulaire, au moyen de la neurostimulation, par exemple ?</p>
<p>Avant tout, nos résultats constituent un rappel frappant du rôle primordial que joue la diversité dans la solidité des systèmes naturels face au changement ; cette vérité ne s’applique pas qu’aux neurones et aux circuits neuronaux, mais aussi aux humains et aux collectivités.</p>
<p>Comme quoi, la diversité est le sel de la vie.</p>
<hr>
<p><em>Nous remercions Catherine Barrette pour la traduction de l’article.</em></p><img src="https://counter.theconversation.com/content/184129/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jérémie Lefebvre a reçu des financements du Conseil de Recherche en Sciences Naturelles et Genie du Canada (CRNSG) ainsi que des Instituts de recherche en santé du Canada (IRSC). </span></em></p><p class="fine-print"><em><span>Taufik A. Valiante a reçu des financements de Krembil Brain Institute, et Conseil de recherches en sciences naturelles et en génie du Canada (NSERC)</span></em></p>
Les neurones situés dans les régions du cerveau responsables du déclenchement des crises d’épilepsie sont beaucoup moins diversifiés que les neurones des régions non responsables de celles-ci.
Jérémie Lefebvre, Professeur agrégé de neurosciences computationnelles et neurophysiologie, L’Université d’Ottawa/University of Ottawa
Taufik A. Valiante, Neurosurgeon/neuroscientist, University of Toronto
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/182472
2022-05-09T18:36:06Z
2022-05-09T18:36:06Z
Pourquoi l’exercice physique empêche le cerveau de rétrécir
<figure><img src="https://images.theconversation.com/files/461294/original/file-20220504-25-sqclol.jpeg?ixlib=rb-1.1.0&rect=0%2C0%2C3834%2C2155&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/3d-illustration-anatomy-xray-man-doing-1933952090">Shutterstock / Julien Tromeur</a></span></figcaption></figure><p>« Mens sana in corpore sano », un esprit sain dans un corps sain. On utilise souvent cette citation pour mettre en avant l’effet bénéfique qu’aurait l’activité physique sur les capacités mentales. En réalité, la phrase apparaît dans la Satire X écrite par le <a href="https://fr.wikipedia.org/wiki/Mens_sana_in_corpore_sano">poète satirique latin Juvénal vers le IIᵉ siècle</a> et est plus étendue : elle indique qu’il faut prier pour avoir un esprit sain dans un corps sain (« orandum est ut sit mens sana in corpore sano »).</p>
<p>Hors cette approximation littéraire, que peut-on dire physiologiquement sur le fait de garder un corps sain, équilibré et exercé pour notre cerveau : l’exercice peut-il vraiment contribue à maintenir nos capacités mentales de cérébrales ?</p>
<p>Hé bien oui. Et il existe de nombreuses données scientifiques allant en ce sens, notamment en ce qui concerne les conséquences du vieillissement.</p>
<h2>Le cerveau perd du volume au cours du vieillissement</h2>
<p>En vieillissant, nos tissus et organes s’altèrent. La capacité des cellules à se multiplier, se réparer et ainsi à maintenir leur fonctionnalité diminue, ce qui s’accompagne d’une perte progressive de tissu. Il est par exemple plus difficile de conserver une musculature développée… Ce phénomène se produit également dans le cerveau, avec pour conséquence une neurodégénérescence ou perte de neurones et des <a href="https://www.frontiersin.org/articles/10.3389/fmech.2021.705653/full">pertes de fonction</a>.</p>
<p>Concrètement, que ce soit lors de pathologies (maladie d’Alzheimer…) ou lors du vieillissement normal, différents changements se produisent :</p>
<ul>
<li><p>Un amincissement de la zone corticale (zones superficielles),</p></li>
<li><p>Une perte de substance grise (corps des neurones) et de substance blanche (voies nerveuses, axones des neurones),</p></li>
<li><p>Une augmentation du volume des ventricules (ensemble de cavités à l’intérieur du cerveau où circule le liquide céphalorachidien),</p></li>
<li><p>et une diminution du nombre de neurones dans différentes zones, notamment l’hippocampe (important pour la mémoire, l’orientation dans l’espace, etc.).</p></li>
</ul>
<p>Dans une étude impliquant des centaines de volontaires et courant sur plusieurs années, <a href="https://www.blsa.nih.gov/">l’étude de Baltimore</a>, il a été démontré que la réduction de la capacité métabolique associée au vieillissement est à relier à l’augmentation du volume du ventricule cérébral, cet espace « creux » du cerveau. Ce qui entraîne une <a href="https://www.nature.com/articles/s41598-022-10421-7">neurodégénérescence accrue</a> et une atrophie de notre organe de la pensée.</p>
<p>Si une diminution de notre capacité métabolique entraîne une perte de volume cérébral, on peut en déduire qu’une meilleure utilisation de l’énergie via l’exercice physique pourrait ralentir la perte de tissu cérébral.</p>
<h2>Plus d’exercice, plus de mémoire</h2>
<p>Vraiment ? La réponse n’est pas facile à obtenir. Surtout parce qu’ils nous particulièrement difficile de mesurer rapidement l’effet et les conséquences de quelque intervention que ce soit sur le cerveau. Le cerveau n’est pas comme le sang ou les muscles, qui présentent vite une réponse facilement mesurable directement ou à partir des composants du sang.</p>
<p>La bonne nouvelle est que l’avènement de méthodes d’imagerie de plus en plus fiables permet de détecter une partie des <a href="https://www.sciencedirect.com/science/article/pii/S0197458022000768">changements structurels dans certaines zones du cerveau</a>.</p>
<p>Il a ainsi pu être prouvé que l’exercice physique améliore les capacités cognitives et augmente la taille de certaines zones du cerveau, notamment celles liées à la mémoire. Par exemple, en 2011, un article publié dans la revue <em>PNAS</em> indiquait que <a href="https://www.pnas.org/doi/10.1073/pnas.1015950108">l’exercice physique augmentait le volume de l’hippocampe</a>. D’autres études menées chez des personnes âgées ont montré que l’exercice physique <a href="https://www.sciencedirect.com/science/article/pii/S2213158221002060">prévenait également la perte de volume dans cette zone cérébrale</a>.</p>
<p>D’autre part, l’exercice physique contrôlé dans une population âgée a montré une corrélation positive entre lui et la quantité de substance grise dans d’autres aires cérébrales sensibles à la <a href="https://www.sciencedirect.com/science/article/pii/S1053811922003500">dégénérescence liée à l’âge (comme le lobe temporal</a>.</p>
<h2>Les clés du maintien de l’activité</h2>
<p>Nous avons tendance à considérer notre corps comme un système compartimenté. Si nous avons un problème au foie, nous nous concentrons sur le foie, et si c’est un problème de rein, nous nous concentrons sur le rein. Mais notre corps ne fonctionne pas comme ça : tout est interconnecté. C’est pourquoi un problème rénal peut finir par aggraver une maladie cardiaque, ou un problème de foie peut entraîner une ischémie cérébrale. Lors du vieillissement en particulier, les équilibres complexes de l’organisme se trouvent dans une situation très précaire.</p>
<p>Lorsque nous faisons de l’exercice, nous soumettons notre corps à un stress modéré, car nous obligeons nos cellules à augmenter leur dépense énergétique. Cela implique la mobilisation des nutriments, qui doivent être déplacés des réserves vers les muscles. Tous les changements physiologiques nécessaires pour faire face à ce stress modéré sont connus sous le nom d’« hormèse ».</p>
<p>Dans ce processus, les muscles libèrent des substances qui informent le reste des organes que la demande énergétique augmente. Ces substances de communication sont appelées myokines et sont libérées dans le sang, qui les <a href="https://www.frontiersin.org/articles/10.3389/fphys.2019.00042/full">distribue aux autres organes</a>.</p>
<p>Certaines de ces myokines atteignent le cerveau où elles induisent l’expression de gènes (et donc la synthèse de protéines) qui vont augmenter la capacité des neurones à <a href="https://www.nature.com/articles/s41574-019-0174-x">établir de nouvelles connexions</a> ou renforcer les connexions existantes. L’une de ces myokines est le <a href="https://www.science.org/doi/abs/10.1126/scisignal.aau1468">BDNF (facteur neurotrophique dérivé du cerveau)</a>, qui est essentiel pour que les neurones puissent établir des connexions et donc rester actifs.</p>
<p>De cette manière simple, nous pouvons expliquer pourquoi l’exercice physique maintient le volume du cerveau – dans notre vie de tous les jours, mais également pendant le vieillissement.</p>
<p>D’autre part, l’exercice physique augmente également le flux sanguin et l’oxygénation, ce qui a un effet positif sur <a href="https://onlinelibrary.wiley.com/doi/10.1111/jnc.14234">l’activité cérébrale, y compris chez les personnes âgées</a>.</p>
<p>Enfin, d’autres études ont montré que l’exercice physique modéré produit des effets anti-inflammatoires qui peuvent toucher le cerveau, et ainsi réduire par exemple la progression de la <a href="https://theconversation.com/alzheimers-exercise-may-reduce-brain-inflammation-helping-to-protect-us-from-the-disease-172258">maladie d’Alzheimer ou de la démence sénile</a>.</p>
<p>Les preuves scientifiques, tant directes qu’indirectes, montrent donc clairement qu’en vieillissant, l’activité physique contribue à prévenir la dégénérescence du cerveau… donnant ainsi tout son sens à l’expression « mens sana in corpore sano ».</p>
<p>Nous ferions donc mieux d’éviter l’inactivité et les modes de vie trop sédentaires si nous voulons ajouter de la vie aux années et pas seulement des années à la vie.</p><img src="https://counter.theconversation.com/content/182472/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Guillermo López Lluch est membre de la société espagnole de biologie cellulaire, de la Société Espagnole de Biochimie et de Biologie Moléculaire, de la Société Espagnole de Gériatrie et de Gérontologie, de la Société de Recherche sur les Radicaux Libres et de l'Association Internationale du Coenzyme Q10. Les recherches effectuées par l'auteur sont financées par des fonds publics du gouvernement espagnol ou du gouvernement autonome d'Andalousie.</span></em></p>
Tous nos organes ont tendance à perdre du volume avec l’âge, le cerveau ne fait pas exception. Mais comme pour les muscles, prendre de l’exercice permet de lutter contre cette atrophie cérébrale.
Guillermo López Lluch, Catedrático del área de Biología Celular. Investigador asociado del Centro Andaluz de Biología del Desarrollo. Investigador en metabolismo, envejecimiento y sistemas inmunológicos y antioxidantes., Universidad Pablo de Olavide
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/181396
2022-04-26T13:33:37Z
2022-04-26T13:33:37Z
Des cellules humaines pour remplacer les rats de laboratoire
<figure><img src="https://images.theconversation.com/files/459797/original/file-20220426-22-qa3ni3.png?ixlib=rb-1.1.0&rect=12%2C79%2C1008%2C787&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">En prélevant un petit morceau de peau, il est possible de laisser pousser les cellules qui s’y trouvent dans une boîte pétri et de les transformer en neurones en environ un mois.</span> <span class="attribution"><span class="source">(Camille Pernegre)</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Pour évaluer si un composé est prometteur pour traiter une maladie, il est usuel de l’étudier d’abord chez l’animal. Cela permet de voir si le composé a des chances de guérir la maladie. Cependant, les modèles animaux récapitulent rarement tous les aspects d’une maladie. L’alternative est de représenter cette maladie à partir de cultures cellulaires. Si au premier abord, la boîte de Petri semble bien différente d’une personne atteinte d’une maladie, la réalité pourrait être bien différente lorsqu’on les regarde de plus près.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/quels-types-doublis-sont-les-plus-lies-a-la-maladie-dalzheimer-162905">Quels types d’oublis sont les plus liés à la maladie d’Alzheimer ?</a>
</strong>
</em>
</p>
<hr>
<p>L’Alzheimer a été guérie plus de <a href="https://alz-journals.onlinelibrary.wiley.com/doi/10.1002/trc2.12179">400 fois en laboratoire</a>. Comment, alors, pouvons-nous toujours considérer l’Alzheimer comme incurable ? Simplement parce qu’elle a seulement été guérie <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4594046/#fn34">chez l’animal</a>. Or, une souris ne développe pas naturellement l’Alzheimer ; il faut la provoquer. Pour cela, nous utilisons nos maigres connaissances sur ce qui déclenche l’Alzheimer et reproduisons le tout chez la souris. Bref, ces souris n’ont pas l’Alzheimer : elles sont plutôt atteintes de notre conception imparfaite de l’Alzheimer.</p>
<p>En tant que doctorant en psychologie, j’ai complété un stage de recherche au CHUM dans le laboratoire de la professeure Nicole Leclerc avec pour objectif de développer de nouveaux modèles pour étudier l’Alzheimer tout en se délestant de nos théories limitées.</p>
<p>Dans le milieu scientifique moderne, un nouveau composé non testé <a href="https://www.fda.gov/patients/drug-development-process/step-2-preclinical-research">ne peut pas être utilisé pour traiter une maladie humaine</a> puisque cela constitue un risque inacceptable. Il faut donc utiliser un modèle de maladie, qui reproduit nos observations de celle-ci chez l’humain, afin de vérifier si le nouveau composé est prometteur. Les modèles de maladies permettent de développer des traitements et des outils diagnostiques. Ils nous donnent également la possibilité de mieux comprendre les <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7329115/">processus derrière la maladie étudiée</a>. Les modèles sont ainsi un outil incontournable en science biomédicale.</p>
<h2>Des modèles de maladie du futur</h2>
<p>Étudier une maladie deviendrait plus simple si nous pouvions directement observer et agir sur les cellules qui cessent de fonctionner correctement. Dans le cas de l’Alzheimer, il est impossible de prélever une tranche de cerveau d’une personne vivante afin d’expérimenter sur les neurones qui s’y trouvent. Toutefois, je travaille sur le développement d’une technique qui pourra s’y rapprocher énormément. En prélevant un petit bout de peau du patient, je peux laisser pousser les cellules qui s’y trouvent dans une boîte de Petri et les transformer en neurones en environ un mois.</p>
<figure class="align-center ">
<img alt="Main d’un homme portant des gants en caoutchouc bleus et tenant un échantillon liquide bleu dans une boîte de pétri dans un laboratoire de chimie" src="https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Si au premier abord, la boîte de Petri semble bien différente d’une personne atteinte d’une maladie, la réalité pourrait être bien différente lorsqu’on les regarde de plus près.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>La méthode profite du fait que toutes les cellules qui composent le corps d’une personne ont le même code génétique : l’ADN. Ce qui différencie une cellule de peau d’un neurone est simplement les gènes qu’exprime la cellule. Ainsi, je suis en mesure de forcer la cellule de peau à exprimer des gènes typiquement neuronaux pour qu’elle se transforme graduellement en neurone. Ces neurones retiennent les signatures du vieillissement, ce qui est crucial pour étudier les maladies liées au vieillissement. Les avantages sont clairs : on peut produire une colonie de neurones humains provenant d’une personne ayant l’Alzheimer. Les neurones de personnes Alzheimer développeront alors des <a href="https://www.sciencedirect.com/science/article/pii/S1934590921001612">caractéristiques de l’Alzheimer</a>, ce qui permettra d’étudier la maladie bien plus facilement.</p>
<p>Le neurone ne fonctionne cependant pas en vase clos, d’autres types de cellules interagissent avec lui. Pour améliorer une culture neuronale, on peut donc pousser le concept encore plus loin en produisant des <a href="https://www.frontiersin.org/articles/10.3389/fcell.2020.579659/full">organoïdes</a>. Ce sont des cultures cellulaires comprenant plusieurs types de cellules. Un organoïde de cerveau pourrait donc recréer plus fidèlement le fonctionnement cérébral, et donc être un meilleur modèle de maladies du système nerveux.</p>
<h2>Des modèles de maladies polyvalents</h2>
<p>Si on découvre qu’une cellule présente un fonctionnement anormal chez une personne atteinte de la maladie, on cherchera à comprendre pourquoi elle se comporte ainsi. En observant un modèle de cette maladie, nous pourrons découvrir si ce fonctionnement anormal est similaire à celui observé dans le cerveau des patients. Si c’est le cas, nous pourrons tenter de modifier le fonctionnement de cette cellule chez notre modèle et voir si cela a un effet bénéfique.</p>
<p>Les modèles ont donc comme première fonction de permettre d’étudier plus facilement une maladie. Un bon modèle doit ainsi la représenter de la manière la plus fiable possible. Lorsqu’un modèle est considéré comme suffisamment représentatif de la maladie, il peut être utilisé en études précliniques afin de vérifier si le composé a le potentiel de la soigner sans être nocif. Lorsque la maladie est bien reproduite par le modèle, on peut supposer qu’un traitement qui fonctionne sur celui-ci a des chances de fonctionner chez des personnes atteintes de la maladie. Les cultures cellulaires et organoïdes provenant de patients sont particulièrement prometteuses à cause de cette représentativité. Même si nous ne connaissons pas toutes les caractéristiques d’une maladie, il y a des chances que ces portions inconnues puissent être reproduites dans ces modèles.</p>
<p>Comme elles viennent de véritables patients, ces modèles du futur pourraient avoir une troisième utilité unique : la <a href="https://cellregeneration.springeropen.com/articles/10.1186/s13619-020-00059-z">médecine personnalisée</a>. Tous les patients atteints d’une même maladie sont hétérogènes et donc ne répondent pas de la même manière à un traitement. Lorsque plusieurs types de thérapies existent, il faut s’en remettre aux essais-erreurs pour identifier celle qui convient le mieux à chaque patient.</p>
<p>En 2021, l’équipe de Kimberly K. Leslie à l’université d’Iowa a démontré que les organoïdes pouvaient remédier à ce problème en <a href="https://www.mdpi.com/2072-6694/13/12/2901">prédisant la réponse d’extraits de cancers gynécologiques à différents traitements</a>. La même année, une autre équipe de Singapour et de Hong-kong a démontré qu’on pouvait utiliser les organoïdes pour <a href="https://www.frontiersin.org/articles/10.3389/fonc.2021.622244/full">prédire la réponse de tumeurs naso-pharyngées à la radiothérapie et en ajuster la dose</a>. Grâce à cette méthode, il sera donc possible de sélectionner le traitement le plus prometteur pour un individu en un temps beaucoup plus court. Cependant, elle n’a été testée que chez des modèles animaux et des extraits cellulaires. La faisabilité chez l’humain demeure donc à prouver.</p>
<h2>Des modèles à suivre, mais pas au pied de la lettre</h2>
<p>Un traitement qui fonctionne chez un modèle de maladie ne fonctionnera pas nécessairement chez l’humain. C’est précisément pour cela que l’Alzheimer, ou du moins, sa reconstruction en laboratoire dans un modèle animal, a été « guérie » plus de 400 fois sans jamais fonctionner chez l’humain. De la même façon, il est possible que des composés pouvant réellement ralentir la progression de l’Alzheimer aient été testés, mais qu’ils n’aient pas réussi à guérir ces animaux. Pour des maladies neurodégénératives comme l’Alzheimer, créer un modèle représentatif est particulièrement complexe puisque la maladie n’a pas une seule cause. Nous connaissons des <a href="https://pubs.rsc.org/en/content/chapterhtml/2022/bk9781839162305-00001?isbn=978-1-83916-230-5&sercode=bk">centaines de processus qui seraient déréglés dans l’Alzheimer</a>, impliquant notamment les systèmes nerveux, cardiovasculaire, et immunitaire.</p>
<p>Il n’est pas encore possible de reproduire ces interactions en culture cellulaire. C’est pourquoi même si les modèles du futur permettront de mieux représenter la maladie, et peut-être de découvrir des traitements, il ne faut jamais oublier qu’ils seront toujours imparfaits. La guérison d’un modèle n’équivaudra donc jamais exactement à la guérison d’une maladie.</p><img src="https://counter.theconversation.com/content/181396/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Étienne Aumont a reçu du financement de la part des Instituts de Recherche en Santé du Canada (IRSC). </span></em></p>
Les cultures cellulaires semblent prometteuses pour représenter les maladies. La boîte de Petri ne diffère pas autant d’une personne malade que l’on pourrait croire.
Étienne Aumont, Étudiant au doctorat en psychologie, Université du Québec à Montréal (UQAM)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/180281
2022-04-13T15:00:08Z
2022-04-13T15:00:08Z
D’où viennent nos pensées spontanées ?
<figure><img src="https://images.theconversation.com/files/456429/original/file-20220405-26-gvq764.jpeg?ixlib=rb-1.1.0&rect=84%2C18%2C6139%2C3970&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Une personne peut avoir plusieurs milliers de pensées par jour, dont beaucoup peuvent être classées comme spontanées ou involontaires.</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>Nos pensées sont comme un théâtre intime qui nous étonne et nous fascine. Elles peuvent nous surprendre, nous stimuler, nous pousser à l’action et parfois aux larmes. Autant certaines pensées peuvent déclencher des émotions, autant d’autres peuvent être déclenchées par ces dernières : les sentiments influencent le contenu de notre théâtre mental.</p>
<p>Les images et les phrases éphémères qui occupent notre esprit font partie intégrante de notre vie. Des estimations de neuro-imagerie basées sur les transitions d’état du cerveau montrent que nous pouvons avoir de <a href="https://doi.org/10.1038/s41467-020-17255-9">quatre à huit pensées par minute</a>. Même en tenant compte de certaines périodes de fatigue ou d’apathie et de nombreuses périodes consacrées à visionner, lire ou écouter, cela peut représenter plusieurs milliers de pensées par jour. </p>
<p>Plusieurs troubles psychologiques entraînent des modifications du flux de pensée. Les états maniaques, les déficits de l’attention et l’anxiété <a href="https://orbi.uliege.be/bitstream/2268/189899/1/Piguet_toughts_mood_JAD_2010.pdf">augmentent souvent le rythme des pensées</a>, tandis que la dépression et la démence peuvent le <a href="https://doi.org/10.1080/13825589708256645">réduire</a>.</p>
<h2>Nos pensées spontanées</h2>
<p>De nombreuses pensées peuvent être classées comme spontanées ou involontaires. Elles surgissent à l’esprit ; elles ne sont pas délibérées ou invoquées dans nos raisonnements ou nos tentatives de scruter notre mémoire. Il peut s’agir d’idées ou d’intuitions découlant d’une situation actuelle, de pensées intrusives liées à des préoccupations, ou encore d’« associations libres » lorsque l’esprit vagabonde. Certaines sont également des <a href="http://dx.doi.org/10.1098/rstb.2019.0693">souvenirs</a> autobiographiques qui ont un lien avec des expériences récentes.</p>
<p>D’où viennent nos pensées spontanées ? Elles peuvent évidemment tirer leur origine d’une stimulation environnementale ; des idées évoquées par ce que nous voyons et entendons. Cependant, les pensées spontanées apparaissent souvent lorsque l’environnement est relativement stable, comme lorsque l’on prend une marche ou que l’on est assis dans un autobus.</p>
<figure class="align-center ">
<img alt="Illustration d’un cerveau éclairé en rouge et bleu, sur un fond noir" src="https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=300&fit=crop&dpr=1 600w, https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=300&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=300&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=377&fit=crop&dpr=1 754w, https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=377&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/453763/original/file-20220323-17-aibxc6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=377&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les émotions jouent un rôle clé dans de nombreux types de pensées spontanées.</span>
<span class="attribution"><span class="source">(Pixabay)</span></span>
</figcaption>
</figure>
<p>Les pensées spontanées émergent souvent des fragments de phrases, d’images, d’actions et d’informations abstraites qui meublent notre <a href="http://www.christofflab.ca/wp-content/uploads/2017/10/Christoff_2004_Cortex.pdf">mémoire à long terme</a>.</p>
<p>Ces informations correspondent à l’activité de réseaux de neurones généralement inactifs, mais qui s’activent simultanément quand le réseau est stimulé. Les réseaux neuronaux stimulés se font <a href="https://doi.org/10.1016/j.visres.2008.07.012">concurrence</a> pour accéder à la conscience et la force concurrentielle des réseaux est influencée par leur pertinence par rapport à notre situation, nos objectifs, nos besoins, nos intérêts ou nos émotions. Nous pensons plus facilement à la nourriture lorsque nous avons faim, mais aussi lorsque nous avons un dîner important à préparer.</p>
<p>Les émotions jouent un rôle clé dans de nombreux types de pensées spontanées. Par exemple, les <a href="https://doi.org/10.1016/j.visres.2008.07.012">pensées intrusives</a> nous sont imposées par les émotions afin que nous nous concentrions sur des informations hautement prioritaires telles que les menaces, les frustrations ou les opportunités. L’anxiété produit souvent des pensées intrusives pointant vers des menaces réelles ou imaginaires. Dans le cas du stress post-traumatique, elle peut provoquer des <a href="https://doi.org/10.1023/B:JOTS.0000029266.88369.fd">flashbacks et des ruminations</a>.</p>
<p>Alors que les émotions négatives nous poussent vers une certaine urgence, les émotions positives semblent faciliter des associations plus lointaines ou inhabituelles qui favorisent la mémorisation et la créativité. Par exemple, l’euphorie et la <a href="https://doi.org/10.1007/s10608-016-9755-3">passion</a> font souvent naître des anticipations optimistes ou des idées imaginatives.</p>
<h2>Les microémotions</h2>
<p>Même quand nous ne vivons pas d’émotions fortes, il arrive que de faibles émotions, ou microémotions, telles que les inquiétudes, les désirs, l’irritation, le stress, la surprise ou l’intérêt <a href="https://doi.org/10.3389/fpsyg.2013.00415">activent nos pensées spontanées</a>.</p>
<p>En contraste avec les émotions fortes, les microémotions sont brèves, discrètes et souvent inconscientes. Elles déclenchent principalement des micromouvements comme une légère tension musculaire ou des <a href="https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.935.3519&rep=rep1&type=pdf#page=227">micro-expressions faciales</a>, et produisent de petites <a href="http://www.gruberpeplab.com/3131/8.2_Levenson_2003_Bloodsweatfears.pdf">réactions physiologiques</a>, notamment une sécrétion d’adrénaline et des réponses cardiovasculaires.</p>
<figure class="align-center ">
<img alt="Un homme dans une pose de réflexion avec un doigt sur le menton, avec des icônes de différentes pensées dans des engrenages derrière lui" src="https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=409&fit=crop&dpr=1 600w, https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=409&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=409&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=514&fit=crop&dpr=1 754w, https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=514&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/454800/original/file-20220328-17-1s31zd6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=514&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les microémotions sont elles-mêmes déclenchées par une perception ou une idée, souvent inconsciente, suffisamment importante pour activer subtilement les systèmes émotionnels.</span>
<span class="attribution"><span class="source">(Pixabay)</span></span>
</figcaption>
</figure>
<p>Les microcraintes déclenchent souvent des pensées de type « et si… ? » et des <a href="http://www.staff.city.ac.uk/%7Esc318/PDF%20files/daveyhampton1992.pdf">inquiétudes</a> qui alimentent l’anxiété par une boucle de rétroaction positive, source d’insomnie. Les désirs activent régulièrement des pensées telles que des objectifs, des souhaits et des thèmes de conversation. Les microémotions de culpabilité ou de fierté déclenchent des <a href="https://doi.org/10.1016/j.jphysparis.2007.12.003">intuitions morales</a> de désapprobation ou d’approbation anticipée des autres, qui sont essentielles pour développer un comportement prosocial. Les microémotions d’ennui ou d’envie de stimulation peuvent déclencher la distraction ou le vagabondage de l’esprit et peuvent être à l’origine de certains <a href="https://doi.org/10.1177/1087054719865781">symptômes d’inattention</a>. Les microémotions d’intérêt, de plaisir ou de tristesse peuvent faire naître des pensées créatives.</p>
<p>Les microémotions influencent nos pensées de <a href="https://doi.org/10.3389/fpsyg.2013.00415">diverses manières</a>. Elles détournent notre attention de son objet actuel, elles sensibilisent les systèmes sensoriels pour qu’ils remarquent les choses liées à leur thème dominant et elles facilitent la récupération des souvenirs et informations liés à ce thème. Les microémotions sont elles-mêmes déclenchées par une perception ou une idée, souvent inconsciente, qui est suffisamment importante pour activer subtilement les systèmes émotionnels.</p>
<h2>L’amygdale</h2>
<figure class="align-right ">
<img alt="Illustration d’une tête de femme de profil, montrant l’anatomie du cerveau avec l’amygdale en rouge" src="https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=720&fit=crop&dpr=1 600w, https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=720&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=720&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=905&fit=crop&dpr=1 754w, https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=905&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/454658/original/file-20220328-17341-sh4i6v.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=905&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’amygdale déclenche les émotions issues de nos pensées et réciproquement, elle oriente notre attention et nos pensées en fonction de nos émotions.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Les émotions peuvent activer des pensées spontanées par le biais de plusieurs circuits cérébraux centrés sur une portion de nos circuits émotionnels cérébraux, appelée amygdale. Cette plaque tournante de nos émotions apprend par association la signification émotionnelle de nos pensées. Grâce à ces associations, l’amygdale déclenche les émotions issues de nos pensées et, réciproquement, elle oriente notre attention et nos pensées en fonction de nos émotions.</p>
<p>Lorsque la pensée évoquée par une émotion est elle-même source d’émotion, une boucle est créée entre la pensée et l’émotion qui entretient l’émotion. Cette boucle émotion-pensée est arrêtée par la distraction ou une émotion concurrente.</p>
<p>Finalement, les pensées spontanées sont en grande partie des pensées motivées : chaque minute, des sentiments poussent notre attention, notre voix intérieure et notre théâtre mental vers un thème spécifique. Un meilleur contrôle du stress, des émotions et des expériences quotidiennes peut améliorer la qualité de ces pensées spontanées et la satisfaction qui en découle.</p><img src="https://counter.theconversation.com/content/180281/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Francois Richer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Les émotions jouent un rôle clé dans de nombreux types de pensées spontanées. Même les microémotions, souvent éphémères et inconscientes, peuvent affecter les pensées et influencer l’attention.
Francois Richer, Professor, neuropsychology, Université du Québec à Montréal (UQAM)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/175750
2022-01-26T19:25:50Z
2022-01-26T19:25:50Z
Des protéines de type « prion » impliquées dans la mémoire ?
<figure><img src="https://images.theconversation.com/files/442754/original/file-20220126-15-13j02l9.jpg?ixlib=rb-1.1.0&rect=4%2C82%2C929%2C666&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les levures Saccharomyces cerevisiae, ici en cours de division, sont capables de transmettre ou non des éléments de leur mémoire à leur descendance selon la présence de barrière empêchant leur diffusion (en vert, la septine est impliquée dans la constitution de ces barrières).</span> <span class="attribution"><span class="source">Ultrabem.com/Flickr</span></span></figcaption></figure><p>De la même façon que nous sommes capables de mémoriser des informations, les organismes unicellulaires peuvent conserver la mémoire de leurs stress passés. Cela permet à ces cellules simples de mieux répondre à ce même stress dans le futur – et ainsi, par exemple, d’assurer la survie de la colonie.</p>
<p>Mais comment se forment ces mémoires au niveau moléculaire ? Est-ce que ces mécanismes peuvent nous en <a href="https://www.medecinesciences.org/fr/articles/medsci/full_html/2014/05/medsci20143004p348/medsci20143004p348.html">apprendre plus sur les fondements même de la mémoire chez d’autres organismes, y compris chez l’être humain ?</a> Voire nous aider à mieux comprendre les mécanismes de certaines maladies ?</p>
<p>Pour tenter d’en savoir plus, nous nous sommes intéressés à un processus de mémorisation présent chez la microscopique levure de boulanger, <em>Saccharomyces cerevisiae</em>. Voici les résultats de <a href="https://www.cell.com/current-biology/fulltext/S0960-9822(22)00013-6">nos travaux</a>.</p>
<h2>Sexe et mémoire chez la levure de boulanger</h2>
<p><em>Saccharomyces cerevisiae</em> est un organisme assez simple, constitué d’une seule cellule possédant un noyau (comme les cellules humaines et à la différence des bactéries). Cette levure se reproduit soit de façon végétative, c’est-à-dire que sa cellule forme un bourgeon en surface qui deviendra la future cellule fille, soit de façon sexuelle. </p>
<p>Afin d’identifier un partenaire sexuel potentiel, les levures sécrètent et détectent des substances chimiques spécifiques, les phéromones sexuelles. Lorsque deux levures de type sexuel opposé se retrouvent à proximité, elles arrêtent leur reproduction végétative et font pousser une projection cytoplasmique (le cytoplasme est la partie de la cellule qui entoure le noyau), que l’on nomme un « shmoo », vers leur consœur. Les levures n’ayant pas la capacité de se mouvoir, elles s’allongent ainsi l’une vers l’autre jusqu’à se rencontrer et fusionner en un nouvel individu où vont se mélanger leurs génomes. Ce qui permet d’accroître leur diversité génétique.</p>
<p>Mais cet engagement dans la reproduction sexuelle est une décision coûteuse, sinon risquée. Par exemple, on peut imaginer que deux cellules du même type sexuel fassent la cour à une seule cellule de type opposé. Une de ces deux cellules ne pourra pas fusionner avec sa partenaire présomptive et aurait donc produit un shmoo pour rien… Heureusement, les levures peuvent « choisir » de ne pas répondre à la phéromone.</p>
<p>Un refus qu’elles vont ensuite garder en mémoire, et pour longtemps. En effet, une fois qu’une levure ne répond plus à la phéromone, c’est pour le reste de leur vie. Elle ne se reproduira alors plus que de façon végétative. </p>
<p>En revanche, ses futures cellules filles naîtront « naïves » : elles n’hériteront pas de la mémoire de leur mère, et seront capables de réagir à toute phéromone sexuelle présente dans leur environnement. Quels sont les mécanismes de cette « mémoire » ?</p>
<h2>Comment fonctionne la mémoire d’un organisme unicellulaire ?</h2>
<p>La clef de la mémoire de <em>S. cerevisiae</em> <a href="https://www.cell.com/cell/fulltext/S0092-8674(13)01364-0?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS0092867413013640%3Fshowall%3Dtrue">est la protéine Whi3</a> : c’est elle qui, en changeant de forme, permet à la cellule d’ignorer la phéromone. Il faut savoir que la fonction des protéines est très dépendante de leur conformation, c’est-à-dire la façon dont elles se replient en trois dimensions.</p>
<p>Nous avons pu observer que la protéine Whi3 se comporte un peu <a href="https://www.inserm.fr/dossier/maladies-prions-maladie-creutzfeldt-jakob/">comme un prion</a>. Mises en évidence dans les années 1980 par le neurologue américain Stanley Prusiner, notamment suite à la crise de la vache folle, les protéines de type prion sont des protéines qui deviennent pathogènes et souvent contagieuses du fait d’un repliement 3D anormal. Elles sont impliquées non seulement dans la <a href="https://theconversation.com/la-saga-du-prion-apres-la-vache-folle-les-elans-et-les-rennes-fous-114797">maladie de la vache folle chez les bovins, mais aussi dans la maladie de Creutzfeldt-Jakob au sein de notre espèce</a>.</p>
<p>Pour en revenir à la levure, le changement de conformation de Whi3 la rend inactive, ce qui permet à la cellule d’ignorer la phéromone. Mais, comme dans le cas des prions, ce changement est autoréplicatif, c’est-à-dire qu’il se transmet d’une protéine anormale à une protéine normale, par simple contact (cette dernière se retrouve « contaminée » et change de forme à son tour), pour produire des agrégats. </p>
<p>Ce phénomène autoréplicatif pour encoder de la mémoire est intéressant, car il implique que la nouvelle conformation de sa protéine Whi3 peut s’inscrire dans le temps en se transmettant, et rester stable.</p>
<p>Toutefois, un problème de taille demeure : comment la cellule mère peut-elle s’assurer que « sa mémoire » ne va pas envahir sa cellule fille ?</p>
<h2>Comprendre cette forme de mémoire physique</h2>
<p>Il faut savoir que la levure abrite de nombreuses sortes de protéines de type prion dont la plupart, une fois formés, sont transmis dans la cellule fille. Ce n’est toutefois pas le cas de Whi3, ce qui en fait son originalité.</p>
<p>En utilisant la génétique de la levure et la microscopie, nous avons comparé le prion de levure le mieux compris, nommé Sup35 (le facteur de terminaison de la traduction), avec Whi3.</p>
<p>Nous avons déjà découvert que Whi3 s’associait aux membranes du réticulum endoplasmique (un immense sac en réseau où la cellule assemble ses protéines). Mais aussi que, dans ce réticulum, étaient mises en place des barrières entre la cellule mère et les éléments de sa future cellule fille – permettant ainsi la rétention des Whi3 de la génitrice.</p>
<p>La suppression génétique des barrières de diffusion entraîne la transformation des Whi3 en « vrai » prion, qui peuvent se propager dans les cellules filles. Le confinement de Whi3 et de la mémoire que cette protéine encode sont perdus. En revanche, la propagation du prion Sup35, qui ne se lie pas particulièrement au réticulum endoplasmique, n’est, elle, pas influencée par la barrière de diffusion.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=480&fit=crop&dpr=1 600w, https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=480&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=480&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=603&fit=crop&dpr=1 754w, https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=603&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/442687/original/file-20220126-19-79ziy0.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=603&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La protéine Whi3 peut changer de forme 3D dans la cellule mère (à gauche) et constituer une « mémoire physique ». Cette forme « mnemon », autoréplicative, est liée au réticulum endoplasmique. Une barrière de diffusion (au cou) retient le mnemon dans la mère. Le prion Sup35, aussi autoréplicatif, peut, lui, diffuser librement entre la mère et la future fille. Si la barrière de diffusion est ôtée (en bas), Whi3 peut se propager dans la cellule fille.</span>
<span class="attribution"><span class="source">Fabrice Caudron</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Un pas pour mieux comprendre les mémoires cellulaires</h2>
<p>Cette étude met en lumière que l’association des protéines de type prions aux membranes, ainsi que la compartimentation de ces membranes par des barrières de diffusion, constitue ensemble un mécanisme puissant de formation de mémoires cellulaires épigénétiques (c’est-à-dire non liées à l’information codée dans l’ADN) à long terme. Ces « mémoires » peuvent être confinées dans un sous-compartiment de la cellule, ici la cellule mère en division.</p>
<p>La protéine Whi3, bien que très semblable à des prions, est donc considérée comme un <a href="https://microbialcell.com/researcharticles/mnemons-encoding-memory-by-protein-super-assembly/">« mnemon » : un type particulier de prion gardé sous contrôle et qui encode une mémoire</a>. Mais, au final… quel est le rapport avec la mémoire neuronale, celle à l’œuvre dans notre cerveau ?</p>
<p>Il se trouve qu’une protéine importante pour la mémoire neuronale, par exemple pendant la mémorisation de déceptions sexuelles chez la mouche drosophile, <a href="https://www.nature.com/articles/nn1996">dépend du comportement de type prion de la protéine CPEB dans la synapse</a>, lieu de connexion entre deux neurones.</p>
<p>Nous formulons l’hypothèse que chez la drosophile, CPEB est aussi un mnemon, confiné dans la synapse activée lors de la formation de la mémoire. Ce confinement permettrait d’éviter que la protéine CPEB ne diffuse dans les synapses voisines du même neurone (ce qui risquerait de les activer de façon erratique et de compromettre la mémorisation).</p>
<p>Chez <em>Homo sapiens</em>, la protéine CPEB3 présente les mêmes caractéristiques que la CPEB de la drosophile : elle peut se comporter comme un prion, ou plus probablement, un mnemon. Ces similitudes impliquent que les bases de la mémoire, au niveau cellulaire, ont une longue histoire dans l’évolution…</p>
<p>Ces résultats et ces hypothèses posent la question de savoir si les maladies neurodégénératives associées à des prions et agrégats protéiques ne sont pas parfois dues à des défauts de confinement cellulaire. On sait, par exemple, que <a href="https://pubmed.ncbi.nlm.nih.gov/26383951/">ces barrières sont moins efficaces dans les cellules souches de souris âgées</a>. Serait-il alors envisageable d’essayer de les restaurer, afin de limiter la diffusion des protéines de type prion ?</p>
<p>Une piste encore théorique, mais qui ouvre de nombreuses perspectives…</p><img src="https://counter.theconversation.com/content/175750/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Caudron Fabrice ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Les cellules ont de la mémoire… qui pourrait reposer sur des protéines particulières : les « mnemons ». Ce mécanisme, identifié chez la levure, pourrait expliquer des maladies neurodégénératives.
Caudron Fabrice, Chef d'équipe, biologie cellulaire, génétique de la levure, division cellulaire asymétrique, mémoire cellulaire, Université de Montpellier
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/175182
2022-01-24T21:13:13Z
2022-01-24T21:13:13Z
De la télépathie à la science moderne : est-on capable de lire dans les pensées ?
<figure><img src="https://images.theconversation.com/files/442220/original/file-20220124-27-d4zf90.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C3606%2C2141&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Un système d’électroencéphalographie (EEG) actuellement utilisé en recherche pour enregistrer l’activité du cerveau occupé à une tâche.</span> <span class="attribution"><span class="source">Eddy Malrat</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Communiquer par la pensée est chose courante chez les X-Men du Professeur Xavier. Cette capacité psychique a toujours fasciné les auteurs de science-fiction, mais saviez-vous que les scientifiques se sont également intéressés à la question ? <a href="https://pubmed.ncbi.nlm.nih.gov/11600799/">Hans Berger</a>, un psychiatre allemand du début du XX<sup>e</sup> siècle, était convaincu que la télépathie était possible et voulait en découvrir les fondements biologiques. Dans sa quête, il a mis au point une technique d’enregistrement des signaux électriques de l’ensemble du cerveau humain : l’électroencéphalographie. Il n’a par contre jamais réussi à démontrer l’existence d’une énergie psychique qui s’échangerait entre deux humains…</p>
<p>Qu’en est-il aujourd’hui ? Depuis son invention, l’EEG a ouvert de nouvelles fenêtres sur le fonctionnement mystérieux du cerveau. Cette technique nous permet-elle cependant de lire dans les pensées ? La réponse est… pas vraiment ; en tout cas, pas comme dans les films de science-fiction ! Les neuroscientifiques s’intéressent à la cognition, c’est-à-dire aux processus mentaux comme les pensées, le raisonnement, la mémoire ou la manière dont on perçoit le monde. Enregistrer l’activité cérébrale permet de comprendre certains mécanismes de la cognition, mais de manière très cadrée et limitée.</p>
<p>Pour comprendre, il faut <a href="https://pubmed.ncbi.nlm.nih.gov/20664082/">revenir à ce qui est mesuré par EEG</a> : des électrodes, placées sur la tête, captent le champ électrique créé par des centaines de milliers de neurones à la fois. Le signal EEG ainsi enregistré montre souvent des fluctuations d’activité. En 1924, Hans Berger a été le premier à observer que l’activité EEG pouvait varier de manière cyclique, augmentant puis diminuant toutes les 100 millisecondes. Il a appelé ce phénomène les <a href="https://link.springer.com/article/10.1007%2FBF01797193">oscillations alpha</a>. Il remarque que ces oscillations sont plus amples lorsque les participants ferment les yeux, ce qui suggère un lien entre ces oscillations cérébrales et un comportement humain (fermer les yeux) et donc de potentiels processus mentaux (le traitement de l’information visuelle par exemple).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=665&fit=crop&dpr=1 600w, https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=665&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=665&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=835&fit=crop&dpr=1 754w, https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=835&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/442288/original/file-20220124-21-12li8aj.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=835&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Session d’enregistrement EEG dans les années 1960 par le professeur Léonide Goldstein. En dessous, on peut voir un des premiers tracés EEG historiques de Hans Berger (1929), qui révèlent des oscillations autour de 10 Hz, appelées oscillations alpha.</span>
<span class="attribution"><span class="source">Hans Berger</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Toutefois, dans les années 1940, les oscillations alpha ont été plutôt considérées comme des marqueurs du cerveau lorsqu’il est au repos, ce qui a mené certains chercheurs à penser qu’elles <a href="https://pubmed.ncbi.nlm.nih.gov/27979651/">n’impactent pas vraiment la naissance des pensées</a>. La question des scientifiques de l’époque devient ainsi la suivante : les oscillations cérébrales jouent-elles un rôle direct dans la cognition ?</p>
<h2>Les ondes alpha : la clé pour lire dans les pensées ?</h2>
<p>La science avançant, 50 ans d’accumulation de preuves expérimentales soutiennent l’hypothèse que les oscillations cérébrales organisent l’activité neuronale et déterminent <a href="https://oxford.universitypressscholarship.com/view/10.1093/acprof:oso/9780195301069.001.0001/acprof-9780195301069">certains de nos processus cognitifs</a>. Les oscillations alpha ne sont plus considérées comme un rythme du cerveau au repos mais comme un <a href="https://www.pnas.org/content/108/48/19377">marqueur d’excitabilité neuronale</a> : à fréquence constante, plus les oscillations présentent une activité électrique importante, <a href="https://www.jneurosci.org/content/31/33/11889">moins les neurones sont susceptibles de réagir</a>.</p>
<p>Cela signifie que lorsque le signal EEG oscille fortement toutes les 100 ms, les neurones communiquent plus difficilement entre eux et transmettent donc moins d’informations. Ce mécanisme neurophysiologique a des conséquences sur l’esprit : les oscillations alpha ont un impact sur de nombreuses capacités cognitives comme la perception de <a href="https://www.jneurosci.org/content/40/17/3443">signaux auditifs</a> ou <a href="https://www.biorxiv.org/content/10.1101/2021.05.25.445552v3">visuels</a> ou encore l’attention.</p>
<p>Imaginez-vous en train de scruter le centre de votre écran. Des flashs lumineux de très faible intensité apparaissent de temps en temps sur la partie droite de l’écran : vous y focalisez donc votre attention pour les détecter. Dans ce cas, on observe une <a href="https://pubmed.ncbi.nlm.nih.gov/10704517/">diminution des oscillations alpha</a> dans le cortex visuel qui traite l’information de la partie droite du champ visuel (figure ci-dessous). Les neurones sont donc prêts à réagir à ce qui s’y passe. Au contraire, le cortex qui traite l’information du champ visuel gauche est inhibé par une augmentation des oscillations alpha. Vous ne serez pas perturbé par ce qui se passe à gauche de l’écran. Ce double phénomène permet de <a href="https://www.jneurosci.org/content/26/37/9494">détecter plus facilement</a> des flashs brefs. Il existe donc un lien entre le signal mesuré par EEG, et les oscillations qu’on peut y détecter, et nos pensées et perceptions sensorielles.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=490&fit=crop&dpr=1 600w, https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=490&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=490&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=616&fit=crop&dpr=1 754w, https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=616&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/442298/original/file-20220124-13-ywzysi.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=616&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’amplitude des oscillations alpha dans le cortex visuel est modulée par l’attention spatiale. Le cortex occipital (visuel) gauche traite l’information du champ visuel droit (flèche bleue). Lorsque la personne porte attention à ce qui se passe à droite (à l’endroit indiqué par la flèche jaune) tout en fixant son regard au centre de l’écran, on observe une diminution des oscillations alpha dans le cortex occipital gauche. L’amplitude des oscillations dans le cortex occipital droit, qui traite l’information du champ visuel auquel on ne prête pas attention, augmente (en rouge). La situation est inversée lorsque la personne porte son attention sur la gauche de l’écran.</span>
<span class="attribution"><span class="source">Laetitia Grabot</span></span>
</figcaption>
</figure>
<p>Comme on vient de le voir, les neuroscientifiques sont capables d’extraire d’un enregistrement EEG des informations sur l’état attentionnel d’une personne et ce qu’elle perçoit. Cependant ces informations ne sont pas visibles à l’œil nu, et le signal EEG doit passer par plusieurs étapes d’analyse pour être interprétable. Il faut d’abord nettoyer le signal en retirant notamment le bruit électrique créé par les mouvements de la personne, les battements du cœur, et les machines environnantes. Différentes techniques de traitement du signal sont ensuite appliquées pour isoler les oscillations alpha du reste du signal, par exemple.</p>
<h2>Que mesure-t-on vraiment avec un EEG ?</h2>
<p>Plus important encore, on ne peut pas extraire le contenu de la pensée d’une personne grâce à un unique échantillon d’enregistrements EEG : il faut plusieurs répétitions. Le contenu d’un signal EEG est très riche et reflète potentiellement tout ce qu’il se passe dans la tête d’une personne au moment de son enregistrement : son implication dans une tâche attentionnelle par exemple, mais également des pensées parasites sur son repas du soir, sur la sensation du bonnet EEG sur sa tête, ou sur l’ennui qui commence à poindre… L’astuce utilisée par les neuroscientifiques est de répéter de nombreuses fois (des centaines habituellement !) la tâche à effectuer : pendant une heure, le participant à une expérience de recherche devra par exemple détecter de faibles flashs de lumière présentés sur un écran. Le scientifique fera ensuite la moyenne du signal obtenu pour toutes ces répétitions dans l’espoir d’identifier le processus commun qui devrait être celui à l’œuvre dans la tâche. Nous sommes donc encore loin de la lecture des pensées à partir d’un seul enregistrement EEG de quelques minutes…</p>
<p>Chaque expérience menée en neurosciences cognitives est très cadrée et vise à répondre à une question précise. L’information qu’on en retire sera nécessairement très spécifique. Dans l’exemple précédent, on peut seulement prédire grâce au signal EEG si la personne va percevoir un flash ou pas. Mais on ne déduira rien sur son repas du soir ou toutes autres pensées l’ayant traversé… Souvent, seule une petite partie du signal cérébral qu’on enregistre explique le comportement qu’on étudie. Les résultats d’une seule étude ne sont pas non plus facilement transférables à la vie quotidienne : on passe rarement des heures à détecter des flashs sur des écrans, mais il faudra par exemple prêter attention au feu qui passe au rouge, tout en gardant un œil sur le rétroviseur et les piétons sur le trottoir. De multiples processus vont donc interagir et participer à la richesse de l’activité cérébrale que les neuroscientifiques s’efforcent de décoder. L’EEG est un puissant outil pour parvenir à ces fins, mais ne mettra pas de sitôt à la retraite la machine Cerebro.</p><img src="https://counter.theconversation.com/content/175182/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Laetitia Grabot est membre du comité des Jeunes Chercheurs de TRF (Timing Research Forum) une société académique ouverte visant à promouvoir la recherche sur la perception du temps ainsi que de la société savante VSS.
Post-doctorat financé sur ERC (n° 852139, PI : Laura Dugué).</span></em></p><p class="fine-print"><em><span>Laura Dugué a reçu des financements de l'ERC (N° 852139), de l'ANR (N° J18P08ANR00) et de l'IUF. Elle est membre junior de l'IUF, ainsi que des sociétés savantes SfN et VSS. </span></em></p>
Enregistrer l’activité électrique dans le cerveau : c’est possible, mais arrivera-t-on, un jour, à lire dans les pensées ?
Laetitia Grabot, Chercheur postdoctoral en neurosciences cognitives, Université Paris Cité
Laura Dugué, Enseignante-Chercheuse en Neurosciences Cognitives, Université Paris Cité
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/167314
2021-09-07T18:27:31Z
2021-09-07T18:27:31Z
Penser à ses propres pensées ou comment le cerveau s’observe
<p>En 1884, alors qu’ils tentaient de définir les limites de la perception humaine, <a href="https://philarchive.org/archive/PEIOSD">Charles Pierce et Joseph Jastrow</a> ont découvert autre chose : les limites de notre introspection. Les participants à leurs expériences sous-évaluaient systématiquement leur capacité à juger correctement leurs propres sensations, ce que Pierce et Jastrow ont proposé comme explication de « l’intuition des femmes ainsi que de certains phénomènes <em>télépathiques</em> ». Ces implications pratiques particulières ont heureusement été laissées de côté (ainsi que la relation conceptuelle entre la télépathie et l’intuition féminine).</p>
<p>À la fin des années 1970, cette approche consistant à demander aux participants d’évaluer leurs propres performances est devenue un domaine de recherche à part entière : l’étude de la <a href="https://www.semanticscholar.org/paper/Metacognition-and-Cognitive-Monitoring%3A-A-New-Area-Flavell/ee652f0f63ed5b0cfe0af4cb4ea76b2ecf790c8d">« métacognition »</a>. Cette capacité d’autoréflexion et de réflexion sur nos propres pensées nous permet d’avoir plus ou moins confiance en nos décisions : nous pouvons agir avec conviction lorsque nous sommes sûrs d’avoir raison, ou être plus prudents lorsque nous pensons avoir peut-être fait une erreur. La métacognition influence tous les aspects de notre comportement : elle détermine comment nous définissons nos objectifs de vie, mais aussi comment nous jugeons nos propres sensations (ce que nous voyons, entendons, sentons, goûtons et touchons).</p>
<p>Nous ne sommes pas toujours doués pour la métacognition. Certaines personnes sont en général trop ou pas assez confiantes, la plupart des gens se sentent occasionnellement très confiants dans un mauvais choix, et tous les <a href="https://theconversation.com/le-mensonge-politique-au-coeur-de-la-campagne-presidentielle-de-donald-trump-144882">réseaux sociaux</a> ont été accusés de propager des croyances fortes alimentées par des infox. On sait que la métacognition se développe au cours de l’<a href="https://doi.org/10.1073/pnas.1515129113">enfance</a> et de l’<a href="https://doi.org/10.1016/j.concog.2013.01.004">adolescence</a>, et une métacognition déficiente a été impliquée dans plusieurs <a href="https://www.cambridge.org/core/journals/european-psychiatry/article/abs/dysfunctional-metacognition-across-psychopathologies-a-metaanalytic-review/3EB4D6C4B21547750252ED1C85FD88A2">troubles psychiatriques</a>, comme l’émergence de croyances délirantes dans la schizophrénie ou encore les troubles obsessionnels compulsifs (TOC).</p>
<p>Il est donc nécessaire de concevoir des <a href="https://www.ih2ef.gouv.fr/la-metacognition-les-enjeux-pedagogiques-de-la-recherche">outils pédagogiques</a> et des traitements pour <a href="https://www.cairn.info/revue-l-information-psychiatrique-2012-4-page-267.htm">améliorer</a> la métacognition. Mais nous sommes encore loin de la comprendre réellement.</p>
<h2>Juger ses propres émotions</h2>
<p>Pour penser à ses propres pensées, le cerveau doit effectivement s’observer. En théorie, chaque fois que certaines des centaines de milliards de cellules du cerveau s’assemblent pour donner naissance à une pensée, un sentiment ou une action, elles signalent également dans quelle mesure elles y sont parvenues. Tous les processus cérébraux sont suivis et évalués, ce qui donne lieu à la métacognition. L’une des grandes questions est : comment ?</p>
<p>Dans <a href="https://cognition.ens.fr">notre département</a>, nous étudions la métacognition dans sa forme la plus élémentaire, notre capacité à juger nos propres sensations. Nous utilisons toujours des méthodes similaires à celles de Pierce et Jastrow : dans une expérience typique, nous montrons une image aux participants et leur demandons de prendre une décision simple sur ce qu’ils voient, puis nous évaluons dans quelle mesure ils sont sûrs d’avoir fait le bon choix. Par exemple, nous pourrions leur montrer une ligne légèrement inclinée et leur demander de juger si elle est inclinée vers la gauche ou la droite. Le participant devrait se sentir plus confiant lorsqu’il sent qu’il n’a pas besoin de regarder la ligne à nouveau pour vérifier qu’il a fait le bon choix, quand les évidences sont fortes pour sa décision. Tout comme dans un tribunal, un jury décide s’il y a suffisamment de preuves pour condamner un criminel, le cerveau décide s’il y a suffisamment d’évidences pour être confiant dans un choix.</p>
<h2>Séparer l’activité de décision et de confiance</h2>
<p>C’est en fait un gros problème pour étudier ce qui se passe dans le cerveau lorsque les gens se sentent plus ou moins sûrs d’eux, car une différence de confiance est également une différence de preuves de décision. Si nous trouvons une différence dans l’activité cérébrale pour une confiance élevée par rapport à une confiance faible, cela pourrait en fait être dû à plus ou moins de preuves (la ligne est perçue comme plus ou moins inclinée). Nous devons séparer l’activité cérébrale liée au processus d’évaluation de l’inclinaison de la ligne de l’activité cérébrale liée au processus de confiance dans l’évaluation de cette inclinaison.</p>
<p><a href="https://elifesciences.org/articles/68491">Nous avons récemment trouvé</a> un moyen de distinguer ces processus, en les séparant dans le temps. Dans l’expérience, nous avons mesuré l’activité cérébrale des participants (avec électroencéphalographie) pendant qu’ils prenaient des décisions concernant une séquence entière d’images montrées les unes après les autres.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=442&fit=crop&dpr=1 600w, https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=442&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=442&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=555&fit=crop&dpr=1 754w, https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=555&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/419307/original/file-20210903-25-yyjqkn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=555&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Illustration de la tâche.</span>
</figcaption>
</figure>
<p>Nous avons pu observer ce qui se passait dans le cerveau lorsque les participants regardaient les images et prenaient leur décision. Parfois, les participants prenaient leur décision avant que toutes les images aient été montrées. Dans ce cas, l’activité liée à la prise de décision s’arrêtait. Mais d’autres activités continuaient. Même quand les participants avaient pris leur décision tôt, ils vérifiaient quand même les images supplémentaires pour évaluer leur confiance. Dans ces cas, l’activité cérébrale liée à la prise de décision s’était arrêtée, et l’on pouvait donc étudier l’activité cérébrale liée à la confiance indépendamment.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=267&fit=crop&dpr=1 600w, https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=267&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=267&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=335&fit=crop&dpr=1 754w, https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=335&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/419308/original/file-20210903-25-1trygg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=335&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Activité cérébrale pendant la tâche (localisée au cortex à l’aide d’une technique appelée « localisation de la source »).</span>
</figcaption>
</figure>
<p>Notre première constatation concorde avec de nombreuses recherches antérieures : nous avons trouvé une activité liée à la confiance dans les zones frontales du cerveau qui sont aussi associées au comportement axé sur les objectifs. Mais en examinant de près cette activité cérébrale, en essayant de répondre à la question de savoir comment le cerveau s’observe, nous nous sommes posé une autre question : quand ?</p>
<p>L’opinion par défaut est que l’on prend d’abord sa décision, puis que l’on vérifie la quantité de preuves dont on dispose pour se sentir en confiance ; on pense d’abord, puis on pense à penser. Mais lorsque nous avons examiné le schéma d’activité cérébrale lié à la confiance, nous avons constaté qu’il évoluait avant même que les participants ne prennent leur décision : c’est mettre la charrue avant les bœufs. Le cerveau est <a href="https://lejournal.cnrs.fr/articles/demain-un-ordinateur-inspire-de-notre-cerveau">l’ordinateur le plus efficace</a> que nous connaissions, il est donc étrange de penser qu’il puisse faire quelque chose d’aussi inutile.</p>
<p>Le paradigme habituel suggère un rôle important de la métacognition dans la modération du comportement futur : nos actions ultérieures sont influencées par la confiance que nous avons dans nos décisions, nos pensées et nos sentiments, et nous utilisons une faible confiance pour apprendre et nous améliorer à l’avenir. Mais il y a une autre possibilité : nous pourrions utiliser la confiance en direct, au moment où nous délibérons, pour savoir si nous devrions chercher plus de preuves ou si nous en avons assez pour prendre une décision. Dans une <a href="https://www.nature.com/articles/s41467-020-15561-w">autre expérience</a>, nous avons en effet constaté que les personnes qui sont plus douées pour la métacognition sont également les plus aptes à savoir quand arrêter de délibérer et prendre une décision. Le cerveau pourrait s’observer en permanence, surveiller et évaluer ses processus afin de contrôler leur efficacité ; un système de micromanagement sévère, en somme.</p>
<p>137 ans après les interrogations de Pierce et Jastrow sur le rôle de la métacognition, nous continuons à découvrir à quel point ce type d’autoréflexion est important. Ce faisant, nous en apprenons également à chaque nouvelle étude un peu plus sur le cerveau et son étonnante capacité à s’observer.</p>
<hr>
<p><em>Merci à Clémence Alméras, doctorant, pour son aide à la relecture de cet article</em></p><img src="https://counter.theconversation.com/content/167314/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Pascal Mamassian a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de la Fondation Alexander von Humboldt. </span></em></p><p class="fine-print"><em><span>Valentin Wyart a reçu des financements de l'Agence Nationale de la Recherche (ANR) et du Conseil Européen de la Recherche (ERC).</span></em></p><p class="fine-print"><em><span>Tarryn Balsdon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Pour chaque prise de décision, nous associons une certaine confiance. Comment le cerveau peut-il évaluer ce niveau de confiance ?
Tarryn Balsdon, Postdoctoral researcher, École normale supérieure (ENS) – PSL
Pascal Mamassian, chercheur CNRS en psychologie expérimentale, École normale supérieure (ENS) – PSL
Valentin Wyart, Directeur de recherche en neurosciences, Inserm
Licensed as Creative Commons – attribution, no derivatives.