Appuyez sur “Entrée” pour passer au contenu

Homme. Les transformers : ces modèles d’apprentissage  pourraient améliorer notre compréhension du cerveau humain

SAVOIR > Homme

Comprendre comment notre cerveau organise les informations spatiales et y accède est un défi permanent pour les scientifiques. Pour savoir où nous sommes, ce qui nous entoure et comment nous déplacer dans notre environnement, il faut non seulement accéder aux données et aux souvenirs stockés dans le cerveau, mais aussi comprendre comment nos neurones s’assemblent pour effectuer des calculs complexes. Les systèmes d’apprentissages connus sous le nom de transformers pourraient améliorer notre compréhension du cerveau humain

Comme nos milliards de cellules cérébrales sont connectées à des milliers d’autres, leur étude est beaucoup plus complexe que l’analyse des structures individuelles. Heureusement pour les neuroscientifiques qui sont constamment à la recherche de moyens de modéliser le fonctionnement du cerveau, l’intelligence artificielle pourrait permettre de mieux comprendre notre propre intelligence.

De nouvelles recherches montrent que les transformers, ces modèles d’apprentissage profond utilisés dans les systèmes automatisés peuvent nous aider à mieux comprendre les calculs effectués par nos propres réseaux neuronaux, et révéler des capacités inexploitées du cerveau.

Comment notre cerveau cartographie les lieux

Une cellule de grille est un type de neurone présent dans le cerveau chargé de traiter et de stocker les informations relatives à la position d’une personne dans l’espace. Lorsque nous naviguons dans un espace ouvert, ces cellules cérébrales se déclenchent à intervalles réguliers pour intégrer les informations relatives à l’emplacement, à la distance et à la direction.

Les transformers : ces modèles d’apprentissage  pourraient améliorer notre compréhension du cerveau humain
La trajectoire d’un rat dans un environnement carré est représentée en noir. Les points rouges indiquent les endroits où une cellule entorhinale particulière s’est activée. (Image : wikimedia / Khardcastle)

Situées dans l’hippocampe humain, les cellules de grille tirent leur nom du fait qu’en reliant les centres de leurs champs d’activation, on obtient une grille triangulaire. Il en résulte une sorte de motif en nid d’abeille qui occupe et définit. On pense que la disposition symétrique de ces cartes de « tirs neuronaux » est due aux efforts du cerveau pour créer une représentation cognitive des espaces perçus.

Une heureuse similitude entre l’hippocampe et les transformers

Dans leur quête d’optimisation des processus d’apprentissage automatique, les experts ont trouvé une similitude pratique dans la façon dont les transformers, ces modèles d’apprentissage profonds, et l’hippocampe, une structure cérébrale clé pour la mémoire, calculent les informations.

Contrairement aux autres réseaux neuronaux artificiels, qui traitent l’information sous la forme d’une séquence linéaire, les transformers peuvent traiter une entrée entière en une seule fois. En utilisant l’« auto-attention » (un mécanisme qui permet aux entrées individuelles d’interagir les unes avec les autres), ce modèle pondère l’importance de chaque partie des données d’entrée, ce qui lui permet de traiter un flux d’informations désordonné et de s’adapter à des entrées qui changent rapidement, ce que la plupart des IA ne peuvent pas faire.

Les transformers : ces modèles d’apprentissage  pourraient améliorer notre compréhension du cerveau humain
Les réseaux neuronaux artificiels (ANN) sont des systèmes informatiques inspirés des réseaux neuronaux biologiques du cerveau humain. Ils sont composés d’unités connectées appelées « neurones artificiels » qui se transmettent des signaux sous forme de nombres réels.  (Image : wikimedia / The Opte Project)

Les scientifiques pensent qu’en développant et en réoutillant les transformers, il serait possible de mieux comprendre le fonctionnement des réseaux neuronaux artificiels et, surtout, de saisir la complexité des calculs apparemment sans effort que le cerveau effectue à partir de données réelles.

Les transformers et leur principale application

Les transformers ont été développés pour la première fois en 2017 par une équipe de Google Brain, comme une nouvelle façon pour l’IA de traiter le langage. Ce qui a rendu ce modèle si innovant, c’est qu’au lieu de traiter une phrase comme une chaîne de mots, son mécanisme d’auto-attention pouvait fournir un contexte pour n’importe quelle position de la séquence d’entrée.

Concrètement, cela signifie que si une phrase en langage naturel comme un dicton ou une expression courante est reçue, le moteur la traite en une seule fois au lieu de donner un sens à un seul mot à la fois. Cela a permis d’optimiser le traitement du langage et de réduire les temps d’apprentissage de la machine.

Récupération de la mémoire

Depuis lors, les transformers ont été employés dans différents domaines avec beaucoup de succès. Une application remarquable a été proposée en 2020 par l’informaticien Sepp Hochreiter qui, avec son équipe de l’université Johannes Kepler de Linz (Autriche), a utilisé des transformers pour affiner un modèle de récupération de mémoire introduit il y a quarante ans, connu sous le nom de réseau de Hopfield.

Une fois les transformers incorporés au réseau de Hopfield, les scientifiques ont constaté que les connexions du mécanisme devenaient plus efficaces, ce qui lui permettait de stocker et de récupérer davantage de souvenirs par rapport au modèle standard. Le modèle a ensuite été amélioré en intégrant le mécanisme unique d’auto-attention des transformers dans le réseau de Hopfield lui-même.

Les transformers : ces modèles d’apprentissage  pourraient améliorer notre compréhension du cerveau humain
Les réseaux neuronaux artificiels (ANN) sont des systèmes informatiques inspirés des réseaux neuronaux biologiques du cerveau humain. Ils sont composés d’unités connectées appelées « neurones artificiels » qui se transmettent des signaux sous forme de nombres réels.  (Image : wikimedia / The Opte Project)

Quand la symétrie naturelle devient une règle

Pour aller plus loin, les scientifiques ont tenté une approche différente au début de cette année. Ils ont modifié le transformer du réseau Hopfield de sorte qu’au lieu de traiter les souvenirs comme des ensembles linéaires de données, comme c’est généralement le cas avec le langage, il les codait comme des coordonnées dans des espaces de plus grande dimension.

Les chercheurs ont été fascinés par les résultats. Le modèle présenté par les coordonnées spatiales était mathématiquement équivalent aux modèles présentés par les cellules de grille dans l’hippocampe du cerveau. « Les cellules de grille ont ce genre de structure régulière, belle et excitante, avec des motifs frappants qui ont peu de chances d’apparaître au hasard », a expliqué Caswell Barry, chargé de recherche à l’University College de Londres (UCL).

Les transformers : ces modèles d’apprentissage  pourraient améliorer notre compréhension du cerveau humain
Autocorrélation spatiale de l’activité neuronale de la cellule de grille de la première figure. (Image : wikimedia / Torkel Hafting)

Cette découverte laisse entrevoir le potentiel de l’IA pour nous aider à comprendre le corps humain, mais elle met également en évidence l’étonnante précision et les subtilités du cerveau que nous n’avons pas encore comprises. En fait, même les transformers les plus performants ne fonctionnent bien que pour les mots et les phrases courtes et sont loin d’égaler les capacités du cerveau à accomplir des tâches à plus grande échelle, comme la narration.

Bien que l’IA présente de nombreuses limites et suscite de graves inquiétudes quant à ses applications potentielles, son utilité pour nous aider à découvrir la profondeur des rouages miraculeux du cerveau humain pourrait être un pas dans la bonne direction.

Rédacteur Fetty Adler
Collaboration Jo Ann

Source : Transformers May Improve Our Understanding of the Human Brain

Soutenez notre média par un don ! Dès 1€ via Paypal ou carte bancaire.