La conscience : sciences ou science-fiction ?

Géraldine Fontaine

 

UGS : 2021012 Catégorie : Étiquette :

Description

Ne dit-on pas « avoir bonne conscience » ou « avoir mauvaise conscience » ? ou encore : « ta conscience te perdra ». Comment la conscience, qui nous fait agir d’une manière ou d’une autre, peut-elle être expliquée ? Est-elle intangible ? Peut-on la créer de toute pièce ? Essayons de comprendre avec une approche neuroscientifique.

La conscience, c’est l’effet que cela fait à chacun d’être soi. Autrement dit, c’est l’ensemble des sensations, des émotions et des pensées qui caractérisent chacun de nos moments d’éveil. Par conséquent, c’est l’intégralité des contenus qui se passe dans notre tête, de tout ce que l’on ressent, de tout ce que l’on pense au fur et à mesure que l’on traverse la journée.

En effet, la conscience émerge chaque matin lorsque l’on s’éveille de notre sommeil et s’éteint – d’une autre manière et pas tout à fait, il y a beaucoup de débats autour de ce sujet – au moment où on s’endort à nouveau.

Ce qui est fascinant avec la conscience, c’est que l’on n’en comprend pas encore bien les bases biologiques. Il existe très peu d’accords et très peu de théories convaincantes autour de la question de savoir non seulement comment, mais aussi pourquoi l’activité biologique du cerveau produit ces états mentaux.

Théorie de la conscience

Il y a énormément de théories de la conscience, puisque c’est un phénomène qui demeure, encore aujourd’hui, un mystère. Et c’est un mystère que le philosophe américain Daniel Denett définissait « comme un problème auquel on ne sait pas encore comment il faut penser ». Cette définition nous emmène au cœur de la question, parce qu’il est vrai qu’il y a autant de points de vue différents qu’il y a d’acteurs dans le domaine.

Les idées dominantes

Il émerge quand même quelques grandes idées. Il en est deux qui dominent le champ des possibles.

La première idée, c’est que la conscience dépend d’un réseau qui implique plusieurs régions cérébrales, notamment, le cortex (lobe) frontal, le cortex pariétal et le cortex temporal dont les neurones sont reliés entre eux par des connexions cortico-corticales à longue distance qui émanent de la couche v du cortex. Tout cela forme une espèce d’espace de travail global dans lequel les informations, traitées par les différentes modalités sensorielles, peuvent se retrouver et ainsi être amplifiées et communiquer à l’ensemble des réseaux qui constituent notre cerveau. Elles communiquent de telle sorte que les informations qui se trouvent dans ce réseau particulier – cet espace de travail global – se trouvent être globalement disponibles à l’ensemble des systèmes de notre cerveau. Ce qui correspond, d’ailleurs, à la réalité que les informations dont on est conscient exercent une influence globale sur notre comportement. C’est-à-dire que l’on peut s’en servir comme objectif et on peut en parler évidemment. D’ailleurs, le rapport verbal que l’on fournit à propos de nos états mentaux est fondamental dans cette perspective.

En bref, il y a une série de fonctions qui sont sous-tendues par cet espace de travail global qui ne seront pas possibles si l’information demeure inconsciente.

Pour résumer, la première grande idée est que la conscience est de l’information disponible globalement dans le cerveau.

La deuxième idée, c’est que la conscience implique des processus « d’ordre supérieur ». On ne considère pas que les configurations d’activité neurale dans le cerveau sont conscientes intrinsèquement entre elles-mêmes, mais qu’elles le deviennent à partir du moment où elles font l’objet d’une autre représentation qui indique leur existence à l’agent.

Autrement dit, une représentation mentale, un état d’esprit, une émotion que l’on ressent ou une pensée deviendra consciente, à partir du moment « on » est conscient de l’existence de cette information.

On peut se dire que cette idée est un peu curieuse, mais cela capture cette notion fondamentale dans ces théories « d’ordre supérieur » qu’il n’y a rien qui fait que l’activité biologique des neurones, en tant que tels, provoque la conscience ou s’accompagne d’une expérience subjective. Ce qu’il faut c’est qu’il y ait une deuxième représentation qui nous indique, à nous en tant qu’agent, l’existence d’une configuration particulière qui se trouve, par exemple, dans notre cortex visuel.

Donc lorsque l’on voit une personne, cette représentation dans le cortex visuel n’est pas consciente. Elle ne deviendra consciente qu’à partir du moment où il y aura une autre représentation dans le cortex frontal par exemple qui indique l’existence de cette représentation familière qui correspond au visage la personne…

On constate il s’agit de deux idées radicalement différentes.

Les travaux d’Axel Cleeremans

Ce qui caractérise ses travaux, c’est l’idée que les représentations d’ordre supérieur sont quelques choses que le cerveau apprend. Par apprentissage, on n’entend pas que ce soit un apprentissage académique, mais que ce sont des processus de plasticité, donc de modification des patrons de connectivité entre différents neurones qui sont tout à fait automatiques : une sorte de conséquence de la maturation du cerveau et du traitement de l’information. Ces processus vont alors permettre, de manière continue, au cerveau de redécrire à lui-même sa propre activité.

C’est une sorte de boucle, ou même de plusieurs boucles :

– Une boucle via laquelle le cerveau apprend quelque chose à propos de sa propre activité, ce qui est le cœur de ces théories d’ordre supérieur.
– Une deuxième boucle qui implique des interactions entre les perceptions : ce que l’on perçoit à un moment donné et la manière dont on agit.
– Et enfin, une troisième boucle qui passe à travers l’esprit des autres, ce qui est aussi fondamental. C’est-à-dire que nous devenons conscients en partie à cause du fait que nous avons sans cesse besoin d’inférer les états mentaux d’autrui.

On ignore comment réagira quelqu’un à ce que l’on dit, même si on en a des hypothèses, car le cerveau est une machine à faire des prédictions. Mais toutes ces hypothèses, contrairement à ce qui se passe quand on interagit avec le monde naturel, demandent que l’on imagine des états mentaux inobservables, puisque la conscience est un phénomène privé.

La théorie de l’esprit

Chacun sait qu’il est conscient à titre individuel, mais on ignore si l’autre est conscient ; il pourrait être un robot très sophistiqué. La seule manière dont on peut s’en assurer, c’est en interagissant avec l’autre. Mais, nonobstant, le cerveau fait quand même l’hypothèse que l’autre a des états mentaux, des intentions, des désirs… : The Theory of Mind.

La théorie de l’esprit est l’ensemble des mécanismes via lesquels on émet des hypothèses à propos des états mentaux de l’autre.

Exemple : si on prend une paire de lunettes et qu’on la laisse tomber, on a une très bonne idée de ce qui se passera : on a une idée du bruit que cela fera en tombant, on a peut-être une idée de la manière dont elle va tomber…

Mais si on agit en fonction de l’autre, dans certains cas, on a également une très bonne idée de ce qu’il se passera, parce que l’on connaît la personne avec qui on interagit et que l’on connaît la nature des interactions que l’on a. Mais dans la réalité, on ne sait pas, si ce n’est par les hypothèses que l’on a modélisées des états mentaux de l’autre. Finalement, on a, dans notre tête, un modèle de ce que veut dire « être un agent », de ce que veut dire d’être un « être humain ».

C’est par ce modèle que l’on peut installer ces méta représentations – représentations à propos d’autres représentations – que postulent les théories d’ordre supérieur.

On apprend petit à petit – énormément au fil du développement et considérablement durant l’enfance et même durant la petite enfance – ce que veut dire d’être un agent au service de sa propre capacité de prédire les conséquences de nos actions.

Enfant inconscient ?

C’est une question fondamentale pour laquelle on ne peut faire que deux remarques.

D’une part, il faut soigneusement distinguer sensitivité, sensibilité et conscience. Les nouveau-nés sont évidemment sensibles : ils ressentent des choses, ils répondent aux stimulations qu’ils ressentent… Est-ce qu’ils ont conscience d’eux-mêmes en tant qu’agent individuel séparé des autres ? Est-ce qu’ils ont conscience de « soi » ? C’est beaucoup moins clair. On dit que cette conscience apparaît vers l’âge de quatre ans. Il y a énormément de démonstrations expérimentales qui suggère que la métacognition, c’est-à-dire la capacité d’avoir une réflexion à propos de son propre comportement, ainsi que la conscience de soi peuvent émerger plus tôt.

La reconnaissance du « soi » dans le monde animal

C’est très difficile. La question de la reconnaissance de soi se pose également dans le monde animal, par exemple. On sait très bien que certains organismes sont capables de se reconnaître dans un miroir, alors que d’autres ne le sont pas. Il y a un patchwork d’espèces qui sont capables de se reconnaître dans un miroir : les éléphants ; certains singes, mais pas tous ; les dauphins… Les macaques, les chiens, les chats ne se reconnaissent pas dans le miroir.

On oublie, ce faisant, que les tests que l’on utilise pour évaluer la capacité d’un organisme à se reconnaître lui-même sont très limités et souvent biaisés vers la modalité visuelle : le test du miroir. Si on place un singe inconscient devant un miroir et qu’il a une tâche sur le front, va-t-il aller toucher cette tâche ? C’est une situation très visuelle. Que se passerait-il avec d’autres organismes où la modalité dominante est l’olfaction, tel que pour les rongeurs, par exemple ? Ce test du miroir est-il adéquat ?

Le libre arbitre et le déterminisme neuronal

La question de la conscience, donc de l’effet d’être soi, d’avoir une expérience subjective, est séparée du libre arbitre. Elles se relient, évidemment, parce que les êtres humains sont conscients et que cette question se pose surtout pour eux.

Pour reconnaître le libre arbitre, il faut qu’il y ait trois conditions :

–  il faut qu’il y ait une intention, c’est-à-dire une volonté ;
– il faut qu’un agent ait un contrôle sur ses actions ;
– il faut qu’il y ait des possibilités alternatives, c’est-à-dire des possibilités d’action, des possibilités de faire un choix.

On pourrait, donc, très bien imaginer qu’un algorithme pourrait faire preuve d’une certaine forme de libre arbitre, sans pour autant qu’il ne soit conscient.

Les perspectives neurobiologiques sur la question de la conscience, c’est-à-dire l’idée que tous nos états mentaux sont causés par l’activité biologique du cerveau, n’impliquent pas que l’on adopte ou que l’on épouse une forme de déterminisme. Il y a énormément de débats autour de ce sujet, mais les travaux de Christian List sont à conseiller, car il a remis sur le tapis la question, en philosophie de l’esprit, du compatibilisme. C’est-à-dire l’idée que l’on peut défendre à la fois la liberté d’un système, d’un agent tout en reconnaissant que les lois de la physique sont déterministes et que, par conséquent, il n’y a pas de liberté à ce niveau.

L’argument de Christian List est que la question du libre arbitre ne pose pas de la même manière à différents niveaux de description. On peut très bien parler d’un déterminisme physique en termes de mouvements, de particules élémentaires… tout en laissant la possibilité, à un niveau de description plus élevé –, autrement dit au niveau de macrophénomènes : la conscience en est un exemple –, pour l’agent, de faire des choix.

L’idée de libre arbitre, de déterminisme en relation avec les théories neurobiologiques de la conscience, laisse une certaine forme de liberté, mais cela reste compliqué.

Il faut sortir de l’idée que nos comportements sont entièrement déterminés par les lois de la physique. Quelque part, c’est une réalité, à moins d’épouser une perspective dualiste sur des rapports entre le cœur et l’esprit. Tout ce qui se passe dans la tête trouve son origine dans l’activité neurologique du cerveau. Mais il n’est pas vraisemblable qu’une des conséquences de cette posture soit d’accepter que l’on ne soit que les spectateurs de notre propre vie et qu’elle se déroule comme les lois de la physique le prédiraient. Sinon, on pourrait remonter au Big Bang et prédire exactement ce qui se passe à l’instant même.

L’intelligence artificielle

Il faut commencer par distinguer intelligence et conscience. Il ne fait aucun doute qu’aujourd’hui on dispose de systèmes qui sont extraordinairement intelligents.

Par ailleurs, on peut évoquer les travaux récents de DeepMind. Ils ont mis au point des algorithmes qui sont capables, maintenant, de battre les meilleurs joueurs mondiaux d’échecs et du jeu de go. Le jeu de go est un jeu que les chercheurs en intelligence artificielle pensaient ne jamais pouvoir capturer par des algorithmes avant vingt ou trente ans, mais ils y sont parvenus en 2015.

Ces systèmes sont remarquablement intelligents, mais sont-ils pour autant conscients ? Certainement pas. D’ailleurs, lorsqu’AlphaGo bat Lee Sedol, meilleur joueur coréen, en 2017, ce sont les concepteurs du programme qui fêtent cette victoire, pas l’algorithme. Un algorithme n’a pas d’expérience subjective, ça ne lui fait rien de gagner un tournoi et il ne comprend pas la notion de tournoi.

Pourrait-on imaginer que de tels systèmes soient en plus dotés d’une forme de conscience ou d’une forme de sensibilité à leur propre existence ? Si on adopte une perspective mécaniste autour des mécanismes qui produisent la conscience, rien ne s’y oppose. On s’attend même à ce que cela soit possible. Mais personne, aujourd’hui, n’a une idée claire de ce qu’il faudrait faire pour rendre cela réel.

Aucun système d’intelligence artificielle d’aujourd’hui ne souhaite quoi que ce soit pour lui-même. D’ailleurs, Daniel Dennett dit remarquablement : « Comment passe-t-on d’une situation dans laquelle je fais des choses pour des raisons à une situation dans laquelle j’ai des raisons pour faire des choses ? » C’est bien là que se situe la différence entre des systèmes extrêmement sophistiqués – qu’ils soient vivants ou artificiels, qu’ils aient évolué via des processus de sélection naturelle ou qu’ils aient été conçus pour des raisons particulières – et une situation qui caractérise notre existence. C’est-à-dire une situation où l’on fait des choses pour nos propres raisons, que l’on peut verbaliser et auxquelles on peut réfléchir et qui nous font agir dans un sens ou dans l’autre.

En résumé, pour le moment, on est bien loin d’une situation où les intelligences artificielles seront dotées de conscience. Il n’est pas sûr non plus que l’on veuille le faire. Il faut prendre en considération que ces systèmes seraient éternels, qu’ils seraient capables de se dupliquer à l’infini, qu’ils auraient la possibilité de vouloir des choses et qui, de surcroît, seraient plus intelligent que l’homme. L’espèce humaine se retrouverait en danger.

Il faut réfléchir aux questions éthiques que vont poser ces développements, non seulement en termes de risques qu’ils pourraient présenter pour l’espèce humaine, mais également en termes de souffrance de ces systèmes. Car, si ces systèmes sont véritablement conscients, seront-ils capables de souffrance et peut-on accepter ces souffrances ?

1 778 vues totales

Informations complémentaires

Année

2021

Auteurs / Invités

Alex Cleeremans, Géraldine Fontaine

Thématiques

Éducation aux sciences, Intelligence artificielle, Libre examen, Questions et options philosophiques, politiques, idéologiques ou religieuses