Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

psycholgie

  • Nos actions sont-elles vraiment régies par notre conscience?

    Être conscient, vous savez ce que cela signifie. C’est évident: ce sens commun qui nous fait ressentir une sensibilité personnelle. Elle nous donne un sentiment de prise de contrôle au travers de nos pensées, émotions, expériences de tous les jours.

    La plupart des experts estiment que la conscience peut être divisée en deux éléments: l’expérience de la conscience (prise de conscience personnelle) et le contenu même de la conscience englobant pensées, sentiments, sensations, intentions, souvenirs et émotions.

    Il est facile de s’imaginer que ces contenus de la conscience sont choisis, causés ou contrôlés par notre esprit. Les pensées n’existent pas tant que l’on ne pense pas à elles n’est-ce pas.

     

    Cependant, dans un nouvel article scientifique paru dans la revue Frontiers of Psychology, nous soutenons que ces affirmations sont erronées.

    Nous suggérons que notre conscience personnelle ne crée pas, ne cause pas ou ne choisit pas nos croyances, sentiments ou perceptions. Les contenus de la conscience seraient plutôt générés " dans les coulisses " par des systèmes rapides, efficaces et non conscients dans notre cerveau. Tout cela se passe sans aucune interférence avec notre conscience personnelle qui attend passivement pendant que ces processus se produisent.

    En d’autres termes, nous ne choisissons pas – consciemment – nos pensées ou nos sentiments, nous en prenons simplement conscience.

    HYPNOSE ET ACTIVITE CEREBRALE

    Si cela peut vous sembler étrange, considérez à quel point il est facile de reprendre conscience de notre environnement chaque matin. Mais aussi comment nos émotions et nos pensées arrivent parfaitement formées dans notre esprit. Les couleurs et les formes que nous voyons sont également construites en objets ayant du sens ou en visages reconnaissables sans qu’aucun effort de prise de conscience soit nécessaire.

    Considérez également que tous les procédés neuropsychologiques responsables des mouvements de notre corps ou de l’utilisation des mots pour former des phrases sont mis en place sans impliquer notre conscience.

    Nous émettons l’hypothèse que les procédés responsables de la génération de nos prises de conscience sont élaborés de la même manière. Nos idées ont été influencées par des recherches sur les troubles neuropsychologiques ou neuropsychiatriques, mais aussi sur des recherches très récentes en neurosciences cognitives utilisant l’hypnose.

    Les études utilisant l’hypnose montrent que l’humeur, les pensées et les perceptions peuvent être profondément altérées par des suggestions.

    Dans de telles études, les participants sont soumis à une induction hypnotique, afin de les aider à entrer dans un état mental non conscient. Puis, des suggestions sont faites pour changer leurs perceptions et leurs actions.

    Par exemple dans une étude, les chercheurs ont enregistré l’activité cérébrale des participants quand ils levaient leur bras de manière intentionnelle, quand il était levé par une poulie et quand il était bougé à la suite d’une suggestion hypnotique. Les chercheurs faisaient croire à la personne que leur bras était mû par une poulie dans ce dernier cas.

    Des régions similaires du cerveau sont activées durant les mouvements involontaires ou induits par l’hypnose, alors qu’elles sont différentes pour les actions intentionnelles. La suggestion hypnotique peut donc être envisagée comme un moyen de communiquer une idée ou un sentiment, qui, une fois accepté, a le pouvoir d’altérer les perceptions ou le comportement d’une personne.

    L’ECRITURE DE NOTRE RECIT PERSONNEL

    Tout cela ne répond donc pas à la question de l’endroit où sont fabriquées nos pensées, émotions et perceptions. Nous avançons que notre conscience est un sous-ensemble de nos expériences, émotions, pensées et croyances générées par des procédés non conscients à l’intérieur de nos cerveaux.

    Ce sous-ensemble prend la forme d’un récit personnel qui est continuellement "mis à jour". Il existe en parallèle avec notre conscience.

    Le récit personnel est important car il fournit des informations à stocker dans notre mémoire autobiographique (l’histoire que l’on se raconte à notre propos), et donne aux êtres humains une façon de communiquer les choses que nous percevons et expérimentons avec les autres.

    Ceci, à son tour, nous permet de générer des stratégies de survie; par exemple, en apprenant à prédire le comportement des autres. Les compétences interpersonnelles comme celle-ci soutiennent le développement des structures sociales et culturelles, qui ont favorisé la survie de l’humanité depuis des millénaires.

    La communication entre deux personnes passe par leurs récits personnels. Shutterstock

     

    Ainsi, nous soutenons que c’est la capacité de communiquer le contenu de son récit personnel – et non la conscience personnelle – qui donne aux humains leur avantage évolutif unique.

    COUPABLES MAIS PAS RESPONSABLES?

    Si l’expérience de la conscience ne confère aucun avantage particulier, son but n’est pas clair. Mais en tant qu’accompagnement passif de processus non conscients, nous ne pensons pas que le phénomène de la conscience personnelle ait un but, à peu près de la même manière que celui des arcs-en-ciel.

    Les arcs-en-ciel résultent simplement de la réflexion, de la réfraction et de la dispersion de la lumière du soleil à travers les gouttelettes d’eau – aucune d’entre elles ne sert à quelque chose de particulier.

    Nos conclusions soulèvent également des questions sur les notions de libre arbitre et de responsabilité personnelle. Si notre conscience personnelle ne contrôle pas le contenu du récit personnel qui reflète nos pensées, nos sentiments, nos émotions, nos actions et nos décisions, nous ne devrions peut-être pas en être tenus pour responsables.

    En réponse à cela, nous soutenons que le libre arbitre et la responsabilité personnelle sont des notions qui ont été construites par la société. En tant que tels, ils sont construits dans la façon dont nous nous voyons et nous comprenons en tant qu’individus et en tant qu’espèce. Pour cette raison, ils sont représentés dans les processus non-conscients qui créent nos récits personnels, et dans la façon dont nous communiquons ces récits aux autres.

    Ce n’est pas parce que la conscience a été mise de côté que nous devons nous passer des notions quotidiennes importantes telles que le libre arbitre et la responsabilité personnelle. En fait, ils sont intégrés dans le fonctionnement de nos systèmes cérébraux non conscients. Ils ont un but puissant dans la société et ont un impact profond sur la façon dont nous nous comprenons nous-mêmes.

    Auteurs: David A Oakley - Emeritus Professor of Psychology, UCL

    Peter W Halligan - Hon Professor of Neuropsychology, Cardiff University

    The Conversation France - CC BY ND

     

  • Pourquoi ça nous fait mal de voir les autres souffrir

    Le cerveau humain traite l’empathie – cette faculté à comprendre la douleur d’une autre personne – de la même manière que l’expérience de la douleur physique. C’est la conclusion d’un article qui a particulièrement examiné le ressenti de personnes qui en voient d’autres souffrir. Ces résultats pourraient bien s’appliquer aux autres formes d’empathie. En tout cas, cette étude pose un certain nombre de questions intrigantes: par exemple, est ce que la prise d’antidouleurs ou bien le fait d’avoir une lésion au cerveau sont susceptibles de réduire notre capacité à éprouver de l’empathie.

    Les chercheurs ont utilisé, pour leur démonstration, un dispositif expérimental plutôt complexe, comprenant notamment l’utilisation d’un appareil d’imagerie par résonance magnétique fonctionnelle (IRMf) qui mesure les variations de l’afflux sanguin dans le cerveau. Cependant, l’imagerie cérébrale seule n’est pas en mesure de faire le lien entre douleur et " empathie vis-à-vis de la douleur ".

    Cela parce que dans les deux cas, les mêmes zones du cerveau s’activent. En partie parce qu’il y a, en général, beaucoup de chevauchements pour les régions cérébrales traitant des sentiments et de l’émotion. Une autre raison réside dans le fait que l’imagerie fonctionnelle ne mesure pas directement les mouvements de nos neurones, mais un flux de sang, que nous prenons comme indice d’une activité du cerveau.

    Les auteurs ont donc choisi une nouvelle approche. Ils se sont intéressés au mode d’action de médicaments administrés aux personnes douloureuses, qui transforment la façon dont le cerveau perçoit douleur et empathie. Et se sont demandés s’ils pouvaient utiliser cela pour comprendre les similarités et les différences entre ces deux expériences.

    L’étude repose sur deux expérimentations impliquant au total 150 personnes – un nombre inhabituellement élevé pour ce genre de travail. En effet, en raison du coût financier et des inconvénients de l’utilisation des IRM fonctionnels, les scientifiques recrutent en général de 20 à 30 personnes seulement.

    Lire la suite

  • Les IA, nos nouvelles confidentes: quels risques pour la santé mentale?

    Image générée par moi par I.A.

    Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

    Les grands modèles de langage, autrement dit les intelligences artificielles " génératives " telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

    Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes: l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages?

    UN TERRAIN PROPICE A UNE ADOPTION RAPIDE

    La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

    Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par " tchat " ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

    Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une "intelligence", en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

    Nous y sommes presque! Nous avons atteint 90% de notre objectif.

    Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de "meilleurs amis". Et ce, d’autant plus que ces conversations sont "personnalisées": les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

    Certaines plate-formes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

    Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une "romance numérique" avec des agents conversationnels.

    Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

    DES EFFETS SUR LA SANTE MENTALE DONT LA MESURE RESTE A PRENDRE

    Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

    Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

    Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique?

    Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

    À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plate-forme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait.

    En réponse à ce drame, les responsables de la plate-forme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

    Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

    Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

    Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

    Autre crainte: que dialoguer avec un "fantôme" et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

    Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

    IA et interventions thérapeutiques, une autre problématique

    Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

    En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

    Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites: quels modèles de psychothérapie utilisent-elles? Comment sont-elles surveillées? et évaluées? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

    Les plus grandes prudences et vigilance s’imposent donc devant le développement ultra-rapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

    Auteur: Antoine Pelissolo - Professeur de psychiatrie, Inserm, Université Paris-Est Créteil Val de Marne (UPEC) - membre du Parti socialiste

    The Conversation - CC BY ND