lundi 18 novembre 2013

La fin de l’écriture : mort d’un monde

20.09.2013 par Sébastien Bohler

Le dossier publié par Courrier International cette semaine m’a laissé perplexe. « La fin de l’écriture », titrait l’hebdomadaire. A la clé, cinq articles dont la tonalité est plutôt sombre : l’écriture manuscrite est en train de disparaître de par le monde, remplacée par le clavier.
Couv1194

Etats-Unis, Canada, mais aussi des articles sur l’Inde ou la Chine où les idéogrammes sont un fondement du mode de pensée. Dans bien des pays, les programmes scolaires abolissent l’apprentissage de l’écriture manuscrite cursive.
J’ai trouvé que ce dossier très intéressant n’allait toutefois pas au bout de l’argumentation, et j’en profite pour transmettre au lecteur certaines données complémentaires pour l’aider à se faire son opinion. Nous avons publié dans le dernier numéro de Cerveau & Psycho un article de synthèse sur cette question, qui recense certains travaux expérimentaux sur l’écriture cursive et l’écriture au clavier.
Brièvement ici, cet article met en évidence des effets des deux modes d’écriture sur l’apprentissage de l’écrit lui-même, sur la dyslexie, sur les capacités de mémorisation et la qualité des textes produits. Les élèves ayant appris l’écriture cursive ont moins de problèmes de confusion de lettres en miroir (le « d » et le b »), ce qui s’explique par le fait que l’écriture des lettres à la main repose sur des programmes moteurs propres à chaque caractère, alors que le programme moteur est pratiquement le même pour appuyer sur la touche d’un « d » ou d’un « b » sur un clavier. Le cerveau se crée donc un répertoire beaucoup plus différencié pour les différents signes alphabétiques, lorsqu’il écrit à la main. Ces effets se répercutent sur la mémoire : les personnes ayant écrit des mots à main se les rappellent mieux ultérieurement, que celles les ayant écrits au clavier.
Si j’ai dit que le traitement de cette question m’a laissé perplexe, c’est parce que je fais partie d’une génération qui a appris à écrire avec un stylo, et qui est ensuite passée au clavier. De par ma profession, j’écris quotidiennement des milliers de caractères en frappe aveugle à dix doigts, j’adore cette activité et je ne ressens pas de limitation liée à cet usage. Mais aurais-je cette capacité (notamment la maîtrise orthographique) si je n’étais pas passé par l’étape manuscrite ?
Enfin, l’édition de l’article dans Cerveau & Psycho m’a posé une question qui me lancine encore. Une des recherches citées y concernait la qualité de la production écrite, selon que l’on recourt à l’écriture cursive ou au clavier. Les chercheurs se sont aperçus, sur des enfants de CE2, que la qualité des rédactions réalisées au clavier était jugée inférieure à leur maturité supposée, et plutôt proche de celle d’enfants du CP, par des observateurs externes, alors que la production manuscrite cursive était fidèle à leur niveau. Malgré l’aisance que je ressens en écrivant au clavier, ne suis-je pas en train de perdre une coloration particulière dans l’écriture, qui résulterait de la mobilisation fine des muscles de la main ? C’est une vieille question, difficile à résoudre à l’heure actuelle. Les écrivains qui écrivent à la main témoignent que les mots leur viennent différemment, comme si la main appelait ceux-ci du fond de leur mémoire. Ce n’est pas absurde. Les connexions entre les zones motrices de la main et celles du choix lexical pourraient bien exister. La finesse de la pensée, c’est peut-être aussi la finesse de l’exécution. Une question philosophique, auxquelles les sciences pourraient bien se mêler.

Buzzfeed, le site qui éteint votre cerveau

12.11.2013 par Sébastien Bohler

Buzzfeed connaît un succès gigantesque, c’est ce qu’on appelle un “pure player”, sorte de media créé uniquement sur Internet, sans support papier. 80 millions de visiteurs par mois. Aucune véritable information, juste du “buzz”, c’est-à-dire des images ou des vidéos que l’on a envie de partager, parce qu’elles captent notre attention un bref instant, et que nous avons le réflexe de vouloir le transmettre à quelqu’un d’autre, pour n'importe quelle raison, étonnement, moquerie, bonne humeur, etc.

Neurologie du buzz

Mais que se passe-t-il dans notre tête à ce moment-là? Voici quelques mois à peine, des chercheurs de l’Université de Californie à Los Angeles ont voulu savoir ce qui se passe dans le cerveau de personnes exposées à des vidéos qui créaient le buzz. Ils les ont placés dans un scanner et ont observé que leur cerveau s’activait, non dans les zones frontales sous-tendant la réflexion et la conscience, mais dans une zone nommée jonction temporo-pariétale. La voici ici en rouge.
art-brain-620x349
La jonction temporo-pariétale (en rouge) s'active chez des personnes visionnant des contenus faisant le buzz.
La principale fonction de cette aire cérébrale est de nous permettre de nous représenter les états mentaux des autres. Autrement dit, lorsque notre jonction temporo-pariétale s’active, nous nous demandons : à quoi les autres pensent-ils ? Quelles sont leurs réactions, intentions, émotions ?

Un seul objectif: partagez!

C'est pourquoi, face à une vidéo qui fait le buzz, notre premier réflexe n’est pas d’apprécier le contenu en soi, d’en retirer un message, un enseignement, d’argumenter ou de mémoriser. C’est tout simplement de penser à ce qu’en penseront les autres. Autrement dit, nous sommes déjà dans la démarche consistant à la propager.
C’est ce que les spécialistes de ces sites « pure player » appellent un contenu viral. Le but est explicite : la vidéo doit se transmettre comme une traînée de poudre, indépendamment du fait qu’on y trouve un intérêt ou non. Le patron de Buzzfeed, Johnah Peretti, expliquait dans une conférence qu’il était fasciné par la viralité sociale, ou la capacité de certaines images ou messages à se répandre en un clin d’œil. Sans s’en cacher, il admet viser la population de ceux qui s’ennuient au bureau, et de ceux qui s’ennuient en ligne. Pour ne pas s’ennuyer, il faut être distrait, mais pas trop sollicité mentalement. La solution est simple : partager. Cliquer. Vivre des émotions rapides et en rechercher tout de suite l’écho dans la communauté. Sans aller plus loin.

JFK : 50 ans après, pourquoi ces images restent dans notre cerveau

18.11.2013 par Sébastien Bohler 

Depuis quelques jours, les médias se préparent à la grande et lucrative commémoration : les 50 ans de l’assassinat du président John Kennedy. Les magazines en (re)font leur couverture, les thèses du complot refont surface, toute la liturgie déjà vue et revue se met en place. Car tout le monde a encore les images en tête.

Pourquoi ces images n’en finissent-elles plus de faire le tour du monde, à tel point qu’elles semblent-elles devenues une partie de notre imaginaire collectif ? Il faut dire que, depuis elles, il n’y a guère que les images des attentats du 11 septembre qui aient réussi à s’implanter aussi profondément dans nos cerveaux.
Quand on parle avec les personnes qui ont connu l’époque de 1963 et de l’assassinat, un point commun se dégage de leurs déclarations : toutes se souviennent de l’endroit où elles étaient quand elles ont appris la nouvelle, où elles ont vu les images. Pareil pour le 11 septembre : tous se rappellent où ils étaient lorsqu’ils ont appris la nouvelle des attentats de New York.

Un choc pour le cerveau

Il y a sûrement plusieurs facteurs pour expliquer cela, mais toutes ces situations se distinguent par leur forte charge émotionnelle. En assistant à ces moments marquants de l’Histoire, nous vivons une émotion forte, et les effets de cette émotion sur notre fonctionnement mnésique ont été explorés il y a quelques années : des chercheurs de l’Université de New York, de l’Institut médical Hoard Hughes et du Laboratoire de Cold Spring Harbor ont montré que l’émotion a un effet direct sur la mémorisation : dans notre cerveau, une molécule nommée noradrénaline est libérée lorsque nous vivons une émotion puissante. Elle provient d’un petit centre nerveux situé dans le tronc cérébral, le locus coeruleus.
lc
Les chercheurs ont montré que la noradrénaline libérée par le locus coeruleus gagne ensuite une zone clé de la mémorisation, l’hippocampe. Voici sa localisation dans le cerveau.
Gray739-emphasizing-hippocampus

Notre mémoire modifiée par l'émotion

Une fois dans l'hippocampe, la noradrénaline "dope" en quelque sorte les neurones de la mémoire. Ceux-ci se mettent à échanger de l'information plus efficacement car leurs zones de contact entre neurones (les synapses) sont alimentées en molécules leur servant à échanger de l’information. Ces molécules de transmission se nomment récepteurs AMPA. On voit ci-dessous des récepteurs AMPA (petits points lumineux) qui sont envoyés vers les zones de communication entre neurones.

Une "molécule de JFK"?

Les mécanismes biochimiques fins de ces modifications ont été analysés : si les récepteurs AMPA sont mieux envoyés vers les synapses, c'est parce que leur structure chimique se trouve modifiée. On parle de phosphorylation. Quand un récepteur AMPA est "phosphorylé", il reçoit, un peu comme une greffe chimique, un groupement phosphate au récepteur AMPA (un groupement phosphate est formé d’un atome de phosphore et de quatre atomes d’oxygène). Une fois modifié, le récepteur est à la fois plus efficace et mieux adressé vers les zones de communication entre neurones.
Et voici le résultat final : les zones cérébrales associées à la mémorisation sont remplies de récepteurs AMPA, qui fixent le souvenir. Voici cette zone cérébrale chez une souris, l'hippocampe, où l'on voit en vert les récepteurs AMPA surnuméraires:
13185_iff

L'avenir de la mémoire

Vous savez maintenant pourquoi vous vous rappelez où vous étiez le jour où JFK a été assassiné, si vous étiez né. Et pour les autres, vous vous souvenez où vous étiez le 11 septembre 2001. Et pour les plus jeunes, eh bien tant mieux si vous ne vous vous rappelez rien d'aussi marquant, cela a toujours le temps de venir.


 Source : http://www.scilogs.fr/l-actu-sur-le-divan/jfk-pourquoi-ces-images-se-sont-implantees-dans-notre-cerveau/

vendredi 15 novembre 2013

Le neuromarketing : comment les marques sondent votre cerveau

Les instituts de conseil misent sur la recherche scientifique pour comprendre ce qui donne aux consommateurs l'envie d'acheter.

Par Francetv info



Qu'est-ce qui motive notre envie d'acheter ? Pourquoi choisit-on un produit plutôt qu'un autre ? Comment une publicité peut-elle éveiller notre désir ? Il y a dans l'acte d'achat une part de mystère que les marques cherchent à percer. Et pour ce faire, elles misent sur la recherche scientifique sur le cerveau. Le neuromarketing est ainsi en plein développement.
A Paris, un institut de conseil en marketing a créé un supermarché test. Dans ses allées, le consommateur cobaye peut faire ses courses. Les mouvements de ses yeux sont enregistrés par des lunettes spéciales puis analysés. Les marques peuvent ainsi savoir ce qui attire en premier le regard dans les rayons.

Une IRM pour mesurer l'activité du cerveau face aux pubs

En Belgique, les marques font passer des IRM à des clients tests. L'imagerie par résonance magnétique photographie l'activité du cerveau face aux publicités. Résultat : les zones cérébrales de la réflexion sont désactivées, celles des émotions, activées. La publicité ne parle donc plus à votre raison mais à votre cœur.
En France, l'imagerie ne peut toutefois être utilisée que dans le cadre de la recherche médicale ou pour la prévention et la santé. Les pouvoirs publics limitent ainsi les posssibilités du neuromarketing.

 

A la naissance, le cerveau subirait une "initialisation"

Au moment de la naissance, notre cerveau subit des modifications de structure qui le préparent à affronter le monde.
Sébastien Bohler

Au moment de la naissance, le cerveau doit quitter un monde clos où les stimulations sont rares, pour un monde ouvert où tout est à explorer. Les sens doivent donc être décuplés, et le cerveau nouveau-né doit d’une certaine façon « passer à la vitesse supérieure ». Une découverte surprenante a été réalisée par une équipe de chercheurs japonais sur des rats. Ils ont constaté qu’au moment de la naissance, les équilibres biochimiques à l’intérieur du cerveau sont modifiés, et un des neurotransmetteurs les plus importants, la sérotonine, voit ses concentrations chuter brusquement. Cette chute change la façon dont les neurones communiquent et renforcent leurs connexions.
En l’absence de sérotonine, ont observé les chercheurs, les neurones les plus proches renforcent leurs liens, tandis que les plus éloignés les affaiblissent. Il en résulte la formation d’ilôts fonctionnels, que l’on peut observer comme un maillage sur le cortex des petits rats étudiés pour l’expérience.

Une carte cérébrale pour affronter le monde

Ce maillage représente la formation d’unités de traitement fonctionnelles, les colonnes corticales. Les colonnes corticales sont de minuscules taches à la surface du cerveau, qui se prolongent verticalement vers l’intérieur, comme des cylindres regroupant des milliers de neurones établissant des liens préférentiels. Chaque colonne corticale est peut être comparé à un module informatique chargé du traitement d’une information bien particulière. En l’occurrence, elle est reliée à une moustache du rat (qu’on appelle aussi vibrisse). Le rat explore son environnement en promenant ses moustaches sur les objets avoisinants, et la stimulation de la moustache est transmise à la colonne corticale, qui l’analyse à l’aide de ses semblables, pour établir une carte physique de l’environnement.
Le cerveau du nouveau-né crée donc très rapidement ses colonnes corticales, en réponse à cette chute de sérotonine au moment de la naissance. Naturellement, la fonction de cette adaptation soudaine est très claire : il s’agit d’affronter le monde à l’aide de moyens d’exploration matures.
Qu’est-ce qui provoque cette chute de sérotonine ? Les mécanismes précis restent inconnus, mais c’est bel et bien l’événement de la sortie de l’utérus qui constitue l’événement déclencheur. En provoquant des naissances prématurées, les chercheurs ont constaté que la baisse de sérotonine intervenait elle aussi plus tôt, toujours au moment de la naissance, et que cela permettait au raton de hâter son adaptation au monde extérieur.
Chez le petit humain, c’est d’abord le toucher au niveau des lèvres, et l’odorat pour trouver le sein nourricier, qui pourraient subir cette initialisation, véritable baptême du feu de la vie.

Un entraînement cérébral efficace

Les exercices mettant en œuvre la mémoire à court terme d'un enfant favorisent ses capacités de raisonnement… si l'enfant est motivé.
Bénédicte Salthun-Lassalle

Les jeux d'entraînement cérébral améliorent-ils les capacités de raisonnement, comme la musculation augmente les performances à la nage ?
© Shutterstock / Volant 
Le célèbre jeu d’entraînement cérébral du Docteur Kawashima sur console portable est-il efficace ? Si oui, à quel public s’adresse-t-il ? Les offres commerciales d’entraînement cérébral, ou plutôt cognitif, ne cessent de se multiplier, sans que l’on sache vraiment si elles améliorent les capacités de réflexion. Susanne Jaeggi et ses collègues, du Département de psychologie de l’Université du Michigan, aux États-Unis, montrent qu’un entraînement cognitif de la mémoire dite de travail améliore les capacités de raisonnement des enfants. Mais tous les enfants n’en tirent pas les mêmes bénéfices…
La capacité de raisonner et de résoudre des tâches nouvelles, nommée l’intelligence fluide, est un facteur de l’intelligence générale ciblé par les exercices cognitifs. L’autre forme d’intelligence, dite cristallisée, est la capacité à utiliser ses connaissances et ses compétences. Certains entraînements cognitifs pourraient améliorer l’intelligence fluide, notamment ceux mettant en œuvre la mémoire de travail (ou à court terme), c’est-à-dire le système cognitif qui permet de stocker et de manipuler temporairement  des données en nombre limité. La mémoire de travail intervient en particulier dans des tâches cognitives complexes, telles que lire, raisonner et résoudre des problèmes. Elle se met en place progressivement dans l’enfance.
Pour montrer que l’entraînement cognitif faisant intervenir la mémoire de travail améliore l’intelligence fluide, les psychologues américains ont entraîné pendant un mois 62 enfants âgés d’environ 9 ans, à raison de cinq séances de 15 minutes par semaine. Le premier groupe d’enfants réalisait un exercice mettant en œuvre la mémoire de travail : ils visionnaient des séquences de jeux vidéo où une cible apparaissait à différents endroits de l’écran. Quand le stimulus réapparaissait à un endroit où il était déjà passé, les enfants devaient appuyer sur un bouton. Le second groupe d’enfants réalisait plutôt des exercices de vocabulaire et de culture générale, destinés à stimuler leur intelligence cristallisée. Pour motiver les enfants, tous les entraînements utilisaient des images et des graphismes attrayants semblables à ceux des jeux vidéo. Avant, juste après et trois mois après les sessions d’entraînement, les chercheurs ont mesuré les performances des enfants à l'aide de deux tests de raisonnement classiques en psychologie cognitive.
Résultat, les enfants ayant travaillé leur mémoire de travail présentaient une meilleure capacité de raisonnement juste après l’entraînement, mais aussi trois mois après, en comparaison avec les enfants ayant stimulé leurs connaissances générales. Preuve que l’entraînement cognitif aurait un effet à long terme.
Cela dit, le bénéfice était faible (de l'ordre de 20 pour cent) et certains enfants ne s’étaient pas améliorés. Pour quelle raison ?  Les enfants les moins motivés et les moins enthousiastes lors de l’entraînement cognitif, ainsi que ceux qui trouvaient l’entraînement trop compliqué, ont eu les moins bons résultats.  Cela suggère qu’un entraînement de la mémoire de travail n’est efficace que s’il est adapté aux capacités des participants – il ne doit être ni trop simple, ni trop compliqué – et s’il est réalisé de façon ludique. Ainsi, les jeux de soi-disant docteurs sur consoles portables vous feront-ils progresser ou amélioreront-ils les résultats scolaires de vos enfants ? Rien n’est moins sûr.

Être curieux : un avantage pour réussir

La curiosité stimule la mémoire et l'attention, révèle une étude de l'Université de Pasadena en Californie.
Sébastien Bohler

Min Jeaong Kang et ses collègues ont fait participer des gens à un jeu de questions-réponses de culture générale, tout en sondant l’activité de leur cerveau. Le noyau caudé, un ensemble de neurones recourbé au centre du cerveau, s’active au maximum lorsque les joueurs sont dans une situation ambiguë : ils ont des connaissances sur le sujet, mais n’en savent pas assez pour donner la réponse et hésitent.
Dans ces conditions, on constate que la réponse est très bien mémorisée. Le noyau caudé donne envie d’aller plus loin, il introduit une dimension de plaisir dans l’apprentissage, mais il a besoin de se trouver dans une situation d’équilibre : il faut que les participants aient quelques connaissances pour aborder la question, mais également qu’ils ne sachent pas tout. La situation d’apprentissage se présente alors sous la forme d’un défi où intervient une part d’incertitude.
Pour optimiser le pouvoir de mémorisation des élèves d’une classe, il faudrait leur distiller le savoir sous forme de devinettes, en posant des questions qui sont légèrement au-dessus de leur niveau de connaissances, mais pas trop. Le rôle de l’enseignant serait d’évaluer le degré d’incertitude suscité par ses questions, afin que l’élève n’ait l’impression ni de connaître la réponse ni d’en être totalement éloigné. C’est à ce moment que le noyau caudé s’active le plus et que la mémorisation est optimale.


Les bonnes recettes pour réviser

 

Les examens approchent. Comment réviser et exercer sa mémoire efficacement ? Voici les principales recettes...
Alain Lieury

Le cerveau humain contient 200 milliards de neurones (cent milliards pour le cerveau proprement dit et cent milliards pour le cervelet). Vous imaginez facilement que cet immense cerveau ne produit pas qu’une seule et unique mémoire. Et puisqu’il existe de multiples mémoires et mécanismes mis en œuvre dans leur fonctionnement, il n’y a pas UNE méthode (ou recette), mais plusieurs, pour les utiliser au mieux. En voici les principales (car il existe en plus une mémoire des visages, une mémoire musicale, etc.) pour bien réviser avant un examen.

La mémoire biologique : la loi des neurones, c’est la répétition !

Tout apprentissage ou souvenir correspond sur le plan du cerveau à des connexions entre neurones, un peu comme les connexions électriques dans votre maison. Or ces connexions ne s’établissent pas par magie, mais se construisent biologiquement par la poussée (comme des racines de plantes) de milliers de ramifications, les dendrites. La loi des neurones, c’est donc la répétition.
Comme les neurones sont de vrais « usines », il leur faut de l’énergie, des éléments de constructions, et ils se fatiguent. Ainsi, les recherches ont montré qu’il était plus efficace d’apprendre dans la durée, avec des pauses, pour ne pas épuiser les neurones : c’est l’apprentissage distribué. Vous devez également privilégier le sommeil et donc supprimer les excitants. Il faut aussi bien s’alimenter avec des protéines, de la viande, du poisson, des œufs, mais aussi avec tous les nutriments essentiels, les lipides, les sucres lents (pâtes, frites, banane…) et avec des vitamines (nourriture variée ou compléments) et des minéraux (chocolat, etc.).
À l’inverse, supprimez tout ce qui est nocif pour le cerveau : l’alcool, qui détruit les neurones et une structure qui enregistre les souvenirs, le tabac, qui réduit la fluidité sanguine cérébrale, les drogues (y compris le cannabis), qui déséquilibrent les échanges chimiques entre les neurones.
En résumé, FINI le bachotage : il faut apprendre toute l’année et réviser, et au contraire se détendre et bien se nourrir les jours avant les épreuves !

La mémoire à court terme : danger… surcharge !

C’est une découverte aussi révolutionnaire que celle des protons et des électrons à l’intérieur de l’atome que d’avoir montré que la mémoire comprend deux principaux systèmes, la mémoire à court terme (ou de Travail) et la mémoire à long terme. Pour faire une analogie avec l’ordinateur, la mémoire à long terme est le disque dur, avec tous les logiciels et les informations (textes, images, calculs…), tandis que la mémoire à court terme est la mémoire vive et l’écran.
La mémoire à court terme a deux caractéristiques de fonctionnement qu’il faut bien connaître pour éviter le « trou noir » au moment de l’examen. Cette mémoire ressemble au fichier de la bibliothèque, mais n’a que sept cases : chaque case contient la référence d’un fichier bien « construit » en mémoire à long terme, un mot, un concept (par exemple triangle isocèle), une image. Une méthode très efficace est donc d’apprendre par petits groupes d’informations. Par exemple, retenez trois catégories de chacune quatre mots : quatre animaux, quatre musiciens, quatre fleurs. Ainsi, grâce aux connaissances de la mémoire à long terme (ici, la mémoire sémantique), il vous suffit de retenir en mémoire à court terme Animal pour récupérer ensuite les quatre noms d’animaux.
Concrètement, face à une leçon (cours ou manuels), il faut tout d’abord simplifier pour éviter la surcharge ; un plan idéal est de trois titres et quatre sous-titres. Vous devez vous refaire un cours (ou un petit manuel) résumé ainsi : c’est le système des fiches. Attention ! Il faut le faire soi-même, et ne pas réviser sur les fiches d’un copain ou d’une copine ; car c’est le travail de va et vient entre mémoire à long terme et mémoire à court terme qui permet l’enregistrement structuré des connaissances. Prendre les fiches du copain, c’est comme si vous adaptiez le plan électrique de la maison de votre voisin sur la vôtre !
La deuxième caractéristique de la mémoire à court terme, c’est qu’elle dure 20 secondes. Elle est comme une ardoise magique qui s’efface pour s’occuper d’autres informations. Mais pas d’inquiétude, si les fiches ont été bien apprises, structurées et répétées, elles sont en mémoire à long terme et reviendront facilement en mémoire à court terme pour rédiger lors de l’examen.

La mémoire lexicale : la bonne recette, c’est le bon vieil « apprentissage par cœur »

La mémoire à long terme correspond pour l’ordinateur au disque dur qui contient les logiciels et les connaissances spécialisés, textes, calculs, images. La grande différence avec l’ordinateur est que la mémoire contient deux « bibliothèques » spécialisées pour les mots (et les textes), la mémoire lexicale pour la carrosserie des mots et la mémoire sémantique pour leur sens. Pour ces deux mémoires, les méthodes sont bien différentes.
La mémoire lexicale est la bibliothèque de la carrosserie des mots ; c’est l’usine de fabrication de la carrosserie, mais pas du moteur. Cette carrosserie est composée de l’orthographe (provenant des mémoires visuelles), de la phonologie (provenant de la mémoire auditive), de la prononciation (provenant de la mémoire vocale) et de l’écriture (provenant de la mémoire motrice graphique). La principale méthode est la RÉPÉTITION, le fameux apprentissage par cœur, qu’il faut réhabiliter. En général (tout dépend de la difficulté phonétique et orthographique), il faut un nombre de répétitions moitié moindre que le nombre de mots à apprendre : 10 répétitions pour 20 mots. Si les mots sont difficiles phonétiquement, on peut les subdiviser en syllabes pour mieux les apprendre (par exemple Xénophon, mycélium). C’est particulièrement le cas en chimie pour les molécules complexes, tel l’acide desoxyribonucléique à décomposer en acide-desoxy-ribo-nucléique (ribo étant la contraction d’un sucre, le ribose)…

La mémoire sémantique : une nouvelle méthode, l’apprentissage « multi-épisodique ».

Au contraire, la mémoire sémantique enregistre des abstractions, des idées, des concepts. Sa structure est hiérarchique comme dans une arborescence ; par exemple, un aigle est classé dans la catégorie des oiseaux, elle-même classée dans la catégorie des vertébrés, puis des animaux. Pour apprendre sémantiquement, faites donc des fiches bien structurées, des plans, des schémas, des arborescences. Pour comprendre, il est également nécessaire de répéter. Mais la répétition sémantique est plus subtile et se fait par la multiplication des épisodes, méthode que j’ai appelée l’« apprentissage multi-épisodique ». La lecture du cours, celle du manuel, les documentaires télévisés, la recherche sur internet sont autant d’épisodes pour enrichir la mémoire sémantique.

La mémoire imagée : de belles images… virtuelles !

Si l’on se fit à l’idée populaire, on aurait une « mémoire photographique ». Tel élève pense « voir » dans sa tête la page de sa leçon, etc. Cette croyance est fausse. Les mémoires sensorielles existent bien, mais elles sont éphémères. La mémoire sensorielle visuelle (nommée « iconique ») ne dure qu’un quart de seconde, la mémoire auditive 2,5 secondes. L’impression de « voir » la page d’un livre vient d’une autre mémoire, la mémoire imagée. Cette mémoire fabrique des images mentales durables, mais reconstruites, virtuelles,d’où les erreurs dans les témoignages oculaires. Donc fixer sur un mur un schéma ou une carte de géographie pour les photographier est une illusion totale. La meilleure méthode est l’apprentissage multi-essais. Par exemple, vous découpez deux feuilles pour faire huit petites pages que vous numérotez de 1 à 8. Vous apprenez en répétant les mots de la carte pendant une minute, puis vous reproduisez sur la feuille de réponse numéro 1 sans regarder le modèle ; puis vous réapprenez pendant une minute la carte pour un essai numéro 2, et ainsi de suite jusqu’à reproduction parfaite. On parle de surapprentissage lorsque le critère de reproduction est plus difficile, par exemple trois essais consécutifs sans erreur. Le surapprentissage est plus sûr pour réussir, évidemment.

La mémoire procédurale : noircir du papier avec des exercices

Enfin, il existe une autre mémoire, la mémoire procédurale qui met en œuvre des mécanismes encore différents. La mémoire procédurale englobe les apprentissages sensori-moteurs (faire du vélo, conduire, jouer d’un instrument de musique…), mais aussi des apprentissages plus abstraits de règles, de procédures, par exemple utiliser le clavier et la souris d’un ordinateur ou une console de jeux. Ainsi, dans ces exemples, vous savez qu’au début, vous cherchez l’icône, la fenêtre du menu déroulant, le bon titre. Puis, après de multiples répétitions, vous cliquez à droite, à gauche, au milieu par automatisme tout en pensant à autre chose.
Je pense qu’une bonne partie des mathématiques est de type procédural abstrait. Ainsi, pour l’algèbre, on doit tâtonner, comprendre, chercher, puis avec la répétition d’exercices similaires, on résout le problème presque automatiquement. Les nombres passant de l’autre côté du signe égal deviennent par automatisme de sens contraire, les démonstrations géométriques, ou certains calculs d’intégrale, deviennent automatiques, à l’instar de la multiplication en CM2. Si cette mémoire procédurale a un fonctionnement bien à elle, c’est qu’elle dépend d’autres structures du cerveau, notamment le cortex pariétal, qui, chez Einstein, était plus développé !
Au total, pas de magie pour bien réviser : la loi des neurones, c’est répéter, donc apprendre dans la durée, ce qui est incompatible avec le bachotage. Enfin, rappelez-vous que chaque mémoire a sa méthode et ses recettes. À mémoires multiples, multiples méthodes…

Quand les neurosciences inspirent l'enseignement

Psychologues et neuroscientifiques identifient six grandes capacités cérébrales à prendre en compte pour favoriser les apprentissages. D'où l'intérêt d'établir des passerelles entre les recherches et les pratiques enseignantes.
Daniel Favre

À l'heure où tant de questions se posent sur l'enseignement, on se prend à rêver : et si les connaissances sur le cerveau dont nous disposons aujourd'hui servaient à mieux comprendre comment les élèves apprennent et à mieux cibler les méthodes et stratégies utilisées pour transmettre les connaissances ?
Mais dans les sphères de l'enseignement, on ignore à peu près tout de la façon dont notre cerveau permet d'avoir prise sur le temps et l'espace, l'attention, la motivation et, d'une manière générale, la régulation des émotions.
Aujourd'hui, on peut se demander pourquoi ceux qui conçoivent la formation des enseignants n'ont pas jugé pertinent d'introduire, comme pour les futurs psychologues, des bases de neurosciences. C'est un peu comme si un pilote de course ne voulait pas savoir comment fonctionne le moteur de son automobile. Car c'est bien le cerveau qui permet d'apprendre, et ce dernier obéit à des règles de fonctionnement – règles que l'on connaît aujourd'hui assez bien.

Quelques erreurs tenaces

Exemple emblématique, le rapport Bancel remis par le recteur du même nom à Lionel Jospin en 1989 stipulait : « La dimension relationnelle du métier d'enseignant est très importante. Elle implique que l'enseignant soit capable de comprendre les enjeux affectifs, d'intervenir pour éviter que l'expression des affects ne trouble l'apprentissage et, enfin, d'analyser son implication personnelle. » Autrement dit, les deux seules phrases, dans ce rapport de 32 pages, où est abordée la dimension émotionnelle liée à l'apprentissage, affirment que celle-ci peut être néfaste à l'apprentissage. Ce texte a servi de fondement à la mise en place en France des iufm, et encore aujourd'hui dans la formation des enseignants, il est fréquent de constater une suspicion et une volonté de tenir à l'écart un des membres du couple « émotion-cognition », pourtant (neurobiologiquement) inséparables.
Les neuroscientifiques savent bien à quel point émotion et cognition sont liées. L'apprentissage n'est pas possible sans que ne se produise une déstabilisation cognitive, un processus d'« assimilation et d'accommodation » comme l'a nommé le psychologue suisse Jean Piaget (1896-1980). Cette déstabilisation cognitive qui a des répercussions au plan affectif engendre dans un premier temps une frustration liée au fait que ce que l'on savait n'est plus pertinent et qu'on doit le remettre en question. En effet, la nécessité de l'apprentissage se présente quand on s'aperçoit que nous ne disposons pas des savoir-faire ni des ressources nécessaires à la résolution de tel ou tel problème. Il faut alors sortir de la sécurité de la routine, et tant que l'apprentissage n'est pas terminé, les frustrations s'accumulent à chaque « raté ». Ces frustrations résultent presque toujours du fait que nous prenons conscience que nous ne sommes pas tout-puissants et que nous devons rectifier l'image que nous avons de nous-mêmes, ce qui nous rend plus modestes. C'est le désir d'obtenir « tout, et tout de suite » qui, parce qu'il n'est pas satisfait, peut engendrer des frustrations de plus en plus difficiles à supporter.
La déstabilisation cognitive et affective présente dans tout apprentissage ouvre chez l'« apprenant » une période de vulnérabilité au cours de laquelle il ne faut pas l'affaiblir. Car l'élève affaibli peut devenir à son tour affaiblissant : l'échec scolaire entraîne la violence scolaire, comme l'ont montré diverses études.
Heureusement, le cerveau de l'homme et de nombreux mammifères est également organisé pour fournir des « récompenses biologiques », en particulier sous forme de dopamine, à l'individu qui explore et résout des problèmes ou surmonte des difficultés. Des recherches récentes ont montré que c'est précisément au moment où le rat résout l'énigme posée par un laby
rinthe que son cerveau libère de la dopamine dans sa partie préfrontale. Des émotions agréables peuvent donc accompagner un apprentissage réussi. Comme chacun a pu le vérifier par lui-même, tout apprentissage réussi, tout gain d'autonomie procure un plaisir particulier qui n'est dû qu'à soi-même. L'apprentissage se trouve ainsi « naturellement » motivé, sans qu'il soit besoin d'une source externe.
Qu'en conclure, en préambule ? Qu'apprendre suscite des émotions différentes selon les personnes et aussi selon que l'apprentissage en est à son début, en cours ou terminé. Tout porte à penser que lors d'un apprentissage au moins deux types d'émotions et de motivations opposées et complémentaires, de l'ordre de la perte de sécurité pour la première et du plaisir d'innover pour la seconde, animent l'apprenant.

Au cœur de l'apprentissage : les lobes frontaux !

Le phénomène d'assimilation et d'accommodation met aussi en exergue l'importance de la flexibilité mentale dans les processus d'apprentissage. Ce qui suscite de l'anxiété chez l'élève en situation d'apprentissage, c'est bien souvent le fait de devoir renoncer momentanément à ce qu'il croyait vrai pour accéder à de nouvelles méthodes de résolution, ou à de nouvelles représentations. Cette capacité relève de la flexibilité mentale, une capacité qui dépend de certaines zones du cerveau, en l'occurrence les lobes frontaux. Ce sont aussi les lobes frontaux qui relient émotion et cognition, et qui permettent au jeune de ne pas être esclave de ses émotions, mais d'en prendre conscience et de les utiliser au mieux pour progresser.
Comme nous le verrons, les lobes frontaux sont la clé de l'apprentissage, plaque tournante des émotions, de la maîtrise des projets, de la perception du temps et de l'espace. Comprendre leur fonctionnement et le faire comprendre aux personnes chargées de l'enseignement projette un éclairage nouveau sur la façon dont l'être humain apprend, avec ses forces et ses faiblesses.

L'être humain, né pour apprendre

Une particularité de l'être...

Pourquoi chaque être humain pense différemment

 
 Imagerie par résonnance magnétique d'un cerveau humain. Les régions en rouge et jaune présentent des connections fonctionnelles avec la région d'intérêt (point noir). Crédit photo: Human Connectome Project
 
Par figaro iconStéphany Gardier - le 15/03/2013
La singularité de pensée chez l'homme trouve son origine dans les zones les plus évoluées du cerveau.
Pourquoi les pensées et les comportements humains sont-ils aussi variés? Vaste question à laquelle des chercheurs de l'Hôpital général du Massachusetts (États-Unis) ont tenté d'apporter un début de réponse. En analysant l'activité cérébrale de 23 volontaires, ils ont mis en évidence des zones du cerveau dans lesquelles les connexions sont particulièrement variables d'un individu à l'autre. Cette diversité serait en partie responsable de notre individualité. C'est la conclusion de l'étude qu'ils ont publié récemment dans la revue Neuron .
L'IRM fonctionnelle permet depuis un peu plus de 20 ans de visualiser l'activité des différentes régions du cerveau, quasiment en temps réel. Plus récemment, il est également devenu possible d'observer la connectivité cérébrale, c'est-à-dire la manière dont les différentes aires cérébrales communiquent entre elles. Cette technique a permis à l'équipe de Hesheng Liu d'enregistrer des images du cerveau de 23 sujets, à qui il était simplement demandé de rester les yeux ouverts pendant le temps de l'IRM. «Pour chaque volontaire, les mesures ont été répétées cinq fois en six mois, explique Hesheng Liu. Ceci nous a permis de diminuer au maximum la variabilité qui pouvait être due à des facteurs externes comme l'état de fatigue des sujets ou ce à quoi ils pensaient pendant l'examen.»

La connectivité est la plus variable dans les zones cérébrales en rouge, orange et jaune. Crédit photo: Neuron
La connectivité est la plus variable dans les zones cérébrales en rouge, orange et jaune. Crédit photo: Neuron
L'analyse de ces images a permis aux scientifiques américains de réaliser une cartographie des connections présentes dans le cerveau lorsqu'il est au repos. Les résultats montrent que ce sont les régions frontales et temporales du cerveau qui présentent le plus de variabilité entre les sujets. Ces zones sont connues pour être activées quand le cerveau effectue des tâches complexes, et lorsque nous ressentons des émotions. Dimitri Van de Ville, professeur en neuro-imagerie à l'Université de Genève, souligne la qualité de l'étude et note qu'«Il est très intéressant de constater que la connectivité est la plus variable dans les régions du cerveau où la maturation est la plus tardive.» Ces zones où la plasticité cérébrale est la plus grande, sont les moins impactées par le déterminisme génétique, et leur développement est très dépendant de l'environnement, des stimuli et des apprentissages.
«Ce qui est nouveau, c'est de montrer que la variabilité de connectivité fonctionnelle entre les individus est maximum dans les zones du cerveau apparues le plus récemment dans l'évolution du cerveau humain, souligne Jonas Richiardi, chercheur au département de neurologie de l'université de Stanford (États-Unis). À partir de ces résultats, on pourrait schématiser en disant que ce qui est commun dans nos comportements est plutôt lié aux structures ancestrales où les connections sont très stables, dont certaines d'ailleurs sont partagées avec des primates, alors que ce qui nous différencie les uns des autres est associé à des régions qui sont capables de moduler leur connectivité.»

Mieux comprendre les maladies psychiatriques

Outre une meilleure compréhension du fonctionnement de notre cerveau, ces résultats ouvrent des perspectives cliniques. Comme le soulignent les auteurs de l'étude: «Connaître la distribution de ces connections fonctionnelles pourrait être utile pour développer des approches thérapeutiques personnalisées.» Lors d'interventions (chirurgie, stimulation cérébrale) prévues dans des zones de grande variabilité, les médecins pourraient pratiquer des tests préalables spécifiques au patient, afin de vérifier la pertinence des procédures standardisées.
La prise en compte de l'individualité de la connectivité cérébrale permettra sans doute d'avancer aussi dans la compréhension de nombreuses maladies psychiatriques. Anik de Ribaupierre, professeure à la faculté de psychologie et des sciences de l'éducation de l'université de Genève, est convaincue de l'intérêt d'étudier la part variable des processus mentaux. «Habituellement on multiplie les mesures dans différents groupes d'individus et l'on se base sur des moyennes, explique la psychologue. C'est ainsi que l'on établit des normes. Tout ce qui dévie de la moyenne est alors considéré comme pathologique, comme si cette moyenne décrivait correctement chaque individu. Cette étude a le mérite de montrer qu'il existe une variabilité de fonctionnement cérébral entre les individus en dehors de toute pathologie, et qu'elle est même sans doute nécessaire.»

Le cerveau humain en 3D et en ultra-haute définition

VIDÉO - Cet atlas a été réalisé à partir d'un cerveau découpé en plus de 7000 tranches de quelques microns d'épaisseur.
 
La compréhension du cerveau humain est l'un des grands objectifs scientifiques du XXIe siècle. Les lancements cette année de deux gigantesques projets, Brain initiative et Human Brain Project, respectivement financés par les Etats-Unis et l'Union européenne, en sont la preuve. C'est dans ce contexte de grande effervescence que des chercheurs allemands et canadiens viennent de dévoiler vendredi dans Science un nouveau modèle de référence du cerveau humain baptisé «BigBrain». Cette carte 3D, mise gratuitement à la disposition de la communauté scientifique, est cinquante fois plus précise que les meilleures modélisations existantes: la résolution est de l'ordre de 0,02 millimètre!
Il aura fallu cinq ans aux différentes équipes du projet pour atteindre un tel résultat. Les chercheurs ont utilisé le cerveau d'une femme de 65 ans conservé dans un bloc de paraffine qu'ils ont découpé en 7400 tranches d'une épaisseur inférieure au quart de celle d'un cheveu (0,02 mm ou 20 microns) avec un microtome - une trancheuse extrêmement précise. Chacune de ces coupes a été photographiée en haute définition (13.000 pixels sur 11.000 pixels).

Un «tour de force»

Le véritable «tour de force» consistait alors à assembler les 7400 images pour obtenir un «volume 3D cohérent», insiste un co-auteur, Alan Evans, professeur de l'Institut de neurologie de l'université Mc Gill de Montréal. Chacune des coupes présentait en effet de légères déformations qu'il fallait corriger. Une IRM effectuée avant la découpe a servi de référence pour repérer une partie des aberrations rencontrées.
Le modèle complet «pèse» environ un téraoctet (1000 Go), la place disponible sur un disque dur usuel, ce qui le rend manipulable avec des ordinateurs usuels. La résolution obtenue est, elle, suffisante pour distinguer de petits paquets de neurones et visualiser de très fins plis et replis dans la matière cérébrale. «C'est une étape importante dans le processus de décryptage du fonctionnement du cerveau», assure au Figaro Wolf Singer, professeur émérite à l'Institut Max Planck pour la recherche sur le cerveau, qui n'était pas impliqué dans ces travaux. «On peut littéralement voyager à travers l'organe, c'est très utile.»

Obtenir un «cerveau moyen»

Les neuroscientifiques vont essayer d'alimenter peu à peu ce «fond de carte» vierge avec des données sur les connexions neuronales, la localisation des différents types de neurotransmetteurs, etc. L'objectif est de trouver des relations entre la micro-anatomie corticale et des phénomènes dynamiques déjà connus. Les chercheurs envisagent aussi de répéter cette numérisation pour d'autres cerveaux afin d'évaluer la variabilité entre les individus. «Cela pourrait permettre d'obtenir une sorte de ‘cerveau moyen'», décrypte Wolf Singer.
Pour différencier individuellement les 120 milliards de neurones du cerveau, il faudra néanmoins encore améliorer par un facteur 20 la résolution afin d'atteindre le micron (0,001 mm). Le volume de données correspondant serait néanmoins multiplié par 21.000, évaluent les chercheurs. Une telle banque de données serait aujourd'hui inutilisable au quotidien dans les laboratoires, mais il est probable que cet effort supplémentaire sera réalisé dans les prochaines années.

L'imagerie, pour lire dans les pensées ?

Source : Le Figaro
Par figaro icondamien Mascret - le 21/03/2012
Dans un avis, le Comité national d'éthique s'inquiète des dérives des neurosciences et de la neuro-imagerie.
L'imagerie du cerveau a fait des progrès considérables au cours des dernières années. Elle permet, outre l'anatomie bien sûr, d'observer le cerveau en fonctionnement. Mais jusqu'où et quels sont les risques? «Vous voyez, Gary, cette tache sur l'image de votre cerveau, je l'appelle le signe en or. Quand je la trouve, je pose toujours la question: “Avez-vous déjà été traumatisé?” Il semble que vous ayez connu de nombreux traumatismes dans votre famille en grandissant.» Science-fiction? Non, neurosciences. La scène se passe de nos jours en Californie et Gary Greenberg est atteint de dépression. Il raconte son parcours dans un livre paru il y a deux ans (Manufacturing Depression, Bloomsbury). Le psychiatre qui lui parle, le Dr Daniel Amen, est à la tête de plusieurs cliniques. Pour délivrer son diagnostic, il s'appuie sur les images obtenues la veille par TEP-scan, une technique d'imagerie du cerveau qui détecte l'activité cérébrale.
Ce qu'ignore Gary Greenberg, c'est que son psychiatre surinterprète l'imagerie. «Aujourd'hui, la neuro-imagerie, c'est comme survoler une ville. Le jour, on peut voir les routes, les structures, et la nuit on voit les lumières, l'activité. Mais on ne lit pas dans les pensées», explique Sylvain Ordureau, patron d'une société spécialisée dans l'imagerie du vivant et de la matière au sein de l'université Paris-Descartes. De là à en tirer des conclusions pour tout un chacun en dehors des laboratoires de recherche comme le fait le Dr Amen, il y a donc un fossé qu'aucun chercheur sérieux ne franchit. Pour faire le point, le Comité consultatif national d'éthique (CCNE) devrait rendre un avis sur les enjeux de la neuro-imagerie fonctionnelle.
«Il faut faire la part des choses des splendeurs et misères de l'imagerie cérébrale. Il faut sortir du fantasme», insistait le Pr Lionel Naccache (Institut du cerveau et de la moelle épinière) en janvier dernier lors des Journées annuelles d'éthique. Certains voient la neuro-imagerie comme un superdétecteur de mensonges. Le Pr Naccache relativise: «La capacité à identifier par l'IRM que quelqu'un ment me semble irréaliste, inatteignable pour l'instant. On ne peut pas différencier mensonge et réaction d'anxiété, d'émotion.»

Loin des fantasmes

Ce qui n'a pas empêché le Pentagone de consacrer 240 millions de dollars l'an dernier aux travaux de recherche en neurosciences, rappelaient mardi deux universitaires américains, Michael Tennison et Jonathan Moreno, dans la revue en ligne PLoS Biology. Les auteurs invitaient même les neuroscientifiques à s'interroger sur les implications éthiques de la militarisation de leurs travaux comme l'avaient fait avant eux les savants atomistes opposés au développement des armes nucléaires.
Reste que la réalité des neurosciences d'aujourd'hui est loin des fantasmes d'un film comme Minority Report, où des citoyens sont condamnés sur l'intention de commettre un crime. Heureusement d'ailleurs, car criminaliser la pensée conduirait à nier la responsabilité morale du passage à l'acte.
Or, la représentation cérébrale est obtenue à partir de reconstruction artificielle de milliers d'images de coupe du cerveau. Et la représentation de la pensée sous forme d'image est encore plus spéculative, car on ignore toujours comment le cerveau la produit. «Le cerveau humain est complexe et nous n'en connaissons encore que très peu de chose, même si c'est déjà considérable», souligne le Pr Jean-Antoine Girault, directeur d'un centre de recherche consacré à l'étude du développement et de la plasticité du système nerveux, «Ce qui ne remet bien sûr pas en cause l'intérêt des neurosciences pour comprendre le fonctionnement du cerveau humain et ses maladies. Il n'y a pas vraiment d'autre approche scientifique.»
Toute la subtilité de l'approche neuroscientifique de la pensée se niche peut-être dans les propos du Pr Yves Agid, membre de l'Académie des sciences et du Comité consultatif national d'éthique: «Le cerveau est une structure matérielle qui donne lieu à la production d'une pensée immatérielle.»
Pour les médecins, l'apport de la neuro-imagerie est évident. Dans l'épilepsie, par exemple, où, selon la métaphore du Dr Vincent Navarro (Hôpital de la Pitié-Salpêtrière), la crise démarre «comme une étincelle qui met le feu à une région cérébrale et se propage de proche en proche», il est désormais possible d'atteindre un niveau de précision sans précédent. Pour le Pr Didier Dormont (Faculté de médecine Pierre-et-Marie-Curie et groupe hospitalier Pitié-Salpêtrière), que ce soit dans les maladies de la moelle épinière, la sclérose en plaques, les accidents vasculaires cérébraux ou pour localiser précisément une tumeur cérébrale et ses extensions, la neuro-imagerie constitue d'ores et déjà «un progrès colossal». Entre progrès et limites, le CCNE devrait tracer la ligne.

Des Japonais décryptent le contenu des rêves

Source : Le Figaro
Par figaro iconCyrille Vanlerberghe - le 05/04/2013
Des chercheurs de Kyoto ont réussi à interpréter les signaux neuronaux émis par des personnes endormies.
Cela fait maintenant une dizaine d'années que Yukiyasu Kamitani et ses collègues du laboratoire de neurosciences informatiques ATR de Kyoto essaient de comprendre comment le cerveau humain traite les informations visuelles. En scrutant l'activité cérébrale de trois volontaires, les chercheurs japonais ont récemment fait une importante avancée, en réussissant à deviner le contenu des rêves, rapporte l'AFP.
L'expérience n'a pas dû être très drôle pour les trois sujets, puisque les scientifiques les réveillaient dès qu'ils voyaient sur l'électroencéphalogramme des signaux qui annonçaient le début d'une phase d'endormissement et ils leur demandaient ensuite quel était le sujet de leur début de rêve. Les participants étaient réveillés jusqu'à une dizaine de fois par heure, par tranches de trois heures, et cela plusieurs jours d'affilée jusqu'à ce que les chercheurs puissent enregistrer 200 «fragments de rêves».
Ces enregistrements ont ensuite été associés à une vingtaine de mots-clés issus des descriptions faites par les volontaires, comme voiture, homme, femme, meuble, ordinateur, maison ou livre. Les scientifiques ont ensuite montré aux «rêveurs» des images représentant ces vingt idées, afin de faire une «photo» de l‘activité de leur cerveau par IRM fonctionnelle. Après cela, le traitement de ces données n'a pas été simple. En 2008, Kamitani et son équipe ont réussi à montrer qu'ils arrivaient à décoder l'activité neuronale associée au traitement des images par le cerveau, ce qui leur permettait de reconstituer les formes générales des images montrées aux volontaires.

Les formes et les couleurs

Depuis la fin de l'année dernière, les chercheurs de Kyoto ont affiné leur analyse et arrivent désormais à décrypter le sujet des rêves, avec un taux de réussite autour de 60 à70 %. «Nous avons conçu un modèle qui nous permet de savoir si un des concepts était présent ou non dans les rêves, à partir de l'activité cérébrale enregistrée pendant une période de neuf secondes avant le réveil du sujet», a expliqué Yukiyasu Kamitani sur Nature News .
«En l'état actuel des travaux, nous ne voyons que des catégories basiques et il n'est pas certain que l'on puisse aller jusqu'à comprendre les formes et les couleurs apparues», a toutefois reconnu l'équipe du professeur Kamitani.
Au-delà du décryptage des rêves, ce type de recherche permet d'améliorer la compréhension des mécanismes cérébraux et devrait aussi aider l'équipe japonaise à progresser sur son autre domaine de recherche: la commande de machines ou de prothèses cybernétiques par la pensée.

Cerveau : la bataille de la jeunesse


Le vieillissement cérébral n'est pas une fatalité. La campagne du Neurodon (du 8 au 14 mars prochain) et la Semaine du cerveau (du 15 au 21 mars) seront l'occasion de faire le point sur les recherches en cours. Et elles avancent à grands pas. Les scientifiques découvrent la capacité étonnante du cerveau à produire de nouveaux neurones et ouvrent des pistes qui permettent de le réparer, de le stimuler et de l'entretenir.

Mais pourquoi donc le chant du canari diffère-t-il d'une année sur l'autre ? C'est grâce à cette question improbable que la connaissance du cerveau fit un grand pas en avant. Nous étions dans les années 80. En étudiant le cerveau de Serinus canaria, des chercheurs observent que des neurones du centre vocal supérieur, qui en contrôlent le chant, se volatilisaient à l'automne pour être remplacés par une nouvelle génération de neurones au printemps suivant...
Cliquez sur l'aperçu pour agrandir l'infographie réalisée par Olivier Cailleau
Dans un premier temps, cette découverte ne fit pas grand bruit. Jusqu'à ce que, quinze ans plus tard, d'autres scientifiques, travaillant cette fois sur des rongeurs, remarquent que la matière grise du rat prenait du poids après un entraînement en labyrinthe. Alors que l'on répétait depuis des générations que, contrairement aux autres cellules du corps, les neurones sont donnés au départ à chaque individu et incapables de se renouveler, on constate, dans un cerveau animal, la formation de nouvelles cellules nerveuses. En 1996, ce sera le tour du primate. A l'université Princeton, Elizabeth Gould et son équipe rapportent avoir observé la présence de neurogenèse (formation de nouveaux neurones) dans deux régions du cerveau - l'hippocampe et les bulbes olfactifs - de singes adultes. Fred Gage, neurobiologiste américain de l'université de Californie, à San Diego, franchit enfin le pas décisif chez l'homme : il démontre que de nouveaux neurones, produits naturellement à partir de cellules souches, sont générés dans le gyrus dentelé de cerveaux humains adultes. Et, contre toute attente, le phénomène intervient à tout âge de la vie.
Une découverte capitale, inimaginable. Si le cerveau produit naturellement des cellules nerveuses, c'est donc qu'il est capable de se régénérer. Tombe alors le dogme du déclin inexorable de la population neuronale, jusqu'ici présumée maximale et mature à la naissance. Ce dogme était d'autant plus inquiétant que l'être humain perd quotidiennement des centaines de neurones. Dans cette perspective, le vieillissement apparaissait comme une fatalité inéluctable, entraînant quasi mécaniquement, avec l'âge, difficulté de concentration, d'attention, perte de mémoire et maladies neurodégénératives.
Le cerveau est terra incognita. Cette matière grise, enchevêtrement de millions de milliards de connexions - sous forme de signaux électriques ou chimiques - entre des centaines de milliards de neurones constamment en mouvement, est loin d'avoir livré tous ses secrets. On en sait plus sur les planètes de notre système solaire, disent les experts, que sur cette extraordinaire mécaniquequi nous permet de voir, d'entendre, de parler, de penser, de nous souvenir, d'imaginer ou d'aimer.
«En l'état actuel des connaissances, explique le Pr Yves Agid, neurologue à la Pitié-Salpêtrière et directeur scientifique de l'Institut du cerveau et de la moelle épinière, rien ne prouve que les cellules nerveuses meurent au fil du temps. Elles restent intactes, mais se déshabillent progressivement et perdent une partie de leurs connexions. Ce qui a pour effet de limiter les informations qui circulent et d'affaiblir les fonctions qui en découlent.» Cependant, on s'est aperçu que le neurone, au cours du vieillissement, sait se défendre. Il survit dans un combat permanent entre affaiblissement et vitalité.
Doté d'une certaine plasticité et loin d'être passif, il s'adapte, augmentant ou réduisant son fonctionnement selon les sollicitations. Plus celles-ci sont denses, plus elles favorisent la neurogenèse du cerveau. A l'inverse, un environnement pauvre en stimuli et en contacts sociaux la réduit. «Ainsi, il a été démontré que des rongeurs isolés dans une cage individuelle produisaient moins de neurones que les mêmes animaux interagissant socialement, explique Pierre-Marie Lledo, chef d'unité Perception et mémoire à l'Institut Pasteur et directeur de laboratoire au CNRS. De même, l'exercice physique dope cette régénérescence, l'organisme sécrétant de l'insuline qui, par un effet domino, induit de nouveaux neurones, alors qu'une vie sédentaire s'oppose à la production neuronale.»
Le cerveau est doté de substances biologiques naturelles, appelées facteurs trophiques ou facteurs de croissance, impliquées dans le développement des cellules nerveuses. Elles sont essentielles parce qu'elles permettent à l'enfant comme à l'adulte d'apprendre tout au long de sa vie. Un des paris de la recherche biomédicale est de mettre au point des molécules favorisant cette production neuronale et facilitant le développement des connexions. «Ces nouveaux neurones nous aident à nous adapter dans un monde changeant, poursuit Pierre-Marie Lledo. Lorsque cette fontaine de jouvence se tarit, l'individu perd ses repères. Si nous parvenons à stimuler la neurogenèse, nous pourrons améliorer l'état cérébral d'un individu, en particulier assurer de meilleures performances perceptives et mnésiques.»
Les chercheurs s'interrogent sur le rôle des cellules gliales
Ces découvertes sont les premiers pas vers un champ d'application médicale visant à régénérer et réparer les tissus lésés, voire à remplacer des cellules nerveuses déficientes. Comment ? En s'aidant notamment de stratégies thérapeutiques novatrices, comme la thérapie cellulaire ou la thérapie génique (voir nos infographies), ou encore en utilisant des systèmes de stimulation électrique, afin d'activer la production de nouveaux neurones. A terme, les chercheurs caressent l'espoir de traiter les conséquences et effets de traumatismes crâniens, d'accidents vasculaires cérébraux, voire de maladies neurodégénératives comme la maladie de Parkinson ou d'Alzheimer...
D'autant que ces nouveaux neurones ont la capacité de se mouvoir dans le cerveau, d'atteindre leur cible et de s'intégrer dans les réseaux qui les accueillent. «Nous avons découvert une molécule, la ténascine, qui joue un rôle de puissant attracteur, explique Pierre-Marie Lledo. Nous l'avons réintroduite dans une région du cerveau, le striatum, et à notre grande surprise, nous nous sommes aperçus que les nouveaux neurones venaient coloniser et intégrer cette zone.»
On est donc loin de l'utopie, même si le chemin à parcourir est encore long avant toute application médicale. «En effet, tempère le Pr Agid, bien des questions restent en suspens. Nous ignorons si ces nouveaux neurones ont une fonction et s'ils sont à même d'être manipulés pour assumer la mission qu'on leur aura assignée.» D'autres paramètres peuvent intervenir. Si les neurobiologistes se sont longtemps concentrés sur les neurones, ils s'interrogent aujourd'hui sur le rôle des cellules gliales, qui les alimentent et les protègent. «Elles sont cinq à dix fois plus nombreuses que les cellules nerveuses, souligne le Pr Agid. Le ver de terre est doté d'une cellule gliale pour cinq neurones, tandis que l'homme, lui, dispose de dix cellules gliales pour un neurone. Nous savons qu'elles s'activent pour les régénérer, mais nous ignorons leur capacité à les améliorer et à les développer.»
Dans le cerveau, tout ou presque reste encore à explorer. C'est pourquoi l'ouverture, à l'automne prochain, de l'Institut du cerveau et de la moelle épinière s'annonce comme un événement. Il s'agit d'une expérience pilote puisque les recherches - cliniques et fondamentales - sur le cerveau menées par cet organisme seront internationales, regroupant dans un même lieu les patients, les chercheurs et les médecins. Pour la France, un pari qui peut la conduire dans le peloton de tête des neuro sciences.

Source : Le Figaro