Des chercheurs ont employé des technologies d’apprentissage profond pour mesurer les changements dans la conscience des personnes pendant le sommeil, l’anesthésie générale et les lésions cérébrales graves.
De nouvelles recherches soutenues par les projets HBP SGA3 et DoCMA, financés par l’UE, permettent aux scientifiques de mieux comprendre la conscience humaine. Menée par l’Université de Corée et l’Université de Liège (Belgique), partenaire des projets, l’équipe de recherche a mis au point un indicateur de conscience explicable (ICE) pour explorer les différentes composantes de la conscience. Leurs conclusions ont été publiées dans la revue «Nature Communications».
La conscience peut être décrite comme ayant deux composantes: l’éveil (c’est-à-dire l’état de veille) et la conscience. Le fait d’ouvrir les yeux indique un état d’éveil, et la capacité de percevoir des différences ou de suivre des ordres témoigne de la conscience. Les niveaux de conscience diffèrent selon les conditions: sommeil sans rêves, sommeil avec rêves, anesthésie et lésions cérébrales graves. Jusqu’à présent, il n’existait aucun système de mesure capable de quantifier les deux composantes de la conscience.L’ICE développé par les chercheurs emploie l’apprentissage profond pour distinguer l’état d’éveil de la conscience dans des conditions physiologiques, pharmacologiques et pathologiques. L’équipe a analysé l’activité cérébrale de six participants en bonne santé pendant leur sommeil, de 16 participants en bonne santé sous anesthésie à la kétamine, au propofol ou au xénon, et de 34 participants qui étaient dans le coma à la suite d’une lésion cérébrale grave. L’étude a montré que l’anesthésie à la kétamine et le sommeil paradoxal (où surviennent la plupart de nos rêves), avec un faible niveau d’éveil et une conscience élevée, sont clairement différents des autres états. En outre, les régions pariétales du cerveau se sont avérées les plus pertinentes pour mesurer l’éveil et la conscience dans les états de conscience altérés. Les auteurs de l’étude décrivent ce nouvel outil comme étant potentiellement «un discriminateur fiable et un outil précieux en tant que mesure objective de la conscience».
Cet article présente «la première technologie au monde permettant de quantifier simultanément l’éveil et la conscience», déclare le professeur Seong-Whan Lee, coauteur de l’étude, du département d’intelligence artificielle de l’Université de Corée, dans un article publié sur le site web de l’Université de Liège. L’ICE est susceptible d’améliorer les soins cliniques prodigués aux patients dans différents contextes, comme la surveillance des états induits par l’anesthésie pendant une intervention chirurgicale et le diagnostic des patients dans le coma ou dans un état végétatif. Selon la Dre Olivia Gosseries, coauteure principale et codirectrice du Coma Science Group à l’Université de Liège, «de futures études sont nécessaires pour mettre en œuvre ce nouvel indicateur dans la pratique clinique de routine et même pour développer un outil en ligne et en temps réel à mettre en œuvre dans nos hôpitaux, nos salles d’opération et nos unités de soins intensifs».
Le projet HBP SGA3 (Human Brain Project Specific Grant Agreement 3) est la dernière des quatre phases de l’initiative Human Brain Project. «Cette collaboration internationale fructueuse entre les partenaires du HBP illustre l’efficacité des outils de la plateforme de partage de données EBRAINS pour les grands ensembles de neuroimagerie humaine», observe le professeur Steven Laureys de l’Université de Liège, coauteur de l’étude et responsable du Coma Science Group, dans un article publié sur le site web du Human Brain Project. «Notre travail a tiré parti des efforts déployés par les équipes du Human Brain Project pour promouvoir et faciliter les neurosciences numériques et la médecine du cerveau.» Le projet DoCMA (Disorders of Consciousness (DoC): enhancing the transfer of knowledge and professional skills on evidence-based interventions and validated technology for a better management of patients) prend fin en janvier 2023.
Pour plus d’informations, veuillez consulter: