À l'ère des intelligences artificielles toujours plus sophistiquées, une question fondamentale émerge: comment pourrions-nous détecter l'apparition d'une conscience dans ces systèmes? Des experts en neurosciences et en IA tentent d'établir des critères objectifs pour identifier cette frontière cruciale. Entre science-fiction et réalité scientifique, les enjeux éthiques d'une telle découverte seraient considérables.
La possibilité qu'une intelligence artificielle développe une forme de conscience n'est plus cantonnée aux œuvres de science-fiction comme 2001: l'Odyssée de l'espace. Des chercheurs de premier plan, dont certains travaillent pour les entreprises leaders du secteur, s'interrogent désormais sérieusement sur les méthodes qui permettraient de détecter l'émergence d'une conscience artificielle. Cette question soulève des enjeux éthiques majeurs qui pourraient redéfinir notre relation avec les machines et notre responsabilité envers elles.
LES DEFIS DE L'IDENTIFICATION D'UNE CONSCIENCE ARTIFICIELLE
La détection d'une conscience dans un système d'IA se heurte d'abord à un obstacle fondamental: définir ce qu'est la conscience elle-même. Parmi les différentes approches, la "conscience phénoménale", cette expérience subjective d'être et de ressentir, constitue le centre d'attention principal des chercheurs.
Un groupe de dix-neuf scientifiques, incluant des neuroscientifiques, des philosophes et des informaticiens comme Yoshua Bengio, pionnier de l'apprentissage profond, a récemment proposé une méthodologie pour évaluer la présence de conscience dans les systèmes d'IA. Plutôt que de s'appuyer sur des tests comportementaux facilement trompeurs (les IA excellent dans l'imitation), ils ont adopté une approche fondée sur des théories neuroscientifiques de la conscience.
Cette démarche repose sur deux principes essentiels:
Le fonctionnalisme computationnel: l'idée que la conscience dépend du traitement de l'information, indépendamment du support physique.
L'application aux IA des théories neuroscientifiques de la conscience humaine et animale.
THEORIES ET INDICATEURS DE CONSCIENCE
Parmi les différentes théories examinées par les chercheurs, celle de "l'espace de travail global" occupe une place importante. Cette théorie suggère que la conscience émerge lorsque différents modules cognitifs spécialisés (vision, audition, etc.) partagent et intègrent leurs informations dans un système unifié.
Pour détecter des signes de conscience dans une IA selon cette théorie, Robert Long, philosophe au Centre pour une IA sécurisée, propose d'analyser " l'architecture du système et la façon dont l'information y circule ". Cette approche permet d'établir des indicateurs objectifs, indépendants des déclarations que pourrait faire le système sur sa propre conscience.
De façon intéressante, les chercheurs ont délibérément exclu la théorie de l'information intégrée (TII), pourtant populaire. Cette théorie contredit le principe du fonctionnalisme computationnel en affirmant que la conscience dépend nécessairement d'un substrat biologique, ce qui exclurait par définition les ordinateurs numériques.
APPLICATIONS AUX SYSTEMES ACTUELS
En appliquant leurs critères aux systèmes d'IA existants comme ChatGPT, les chercheurs ont identifié certains indicateurs associés à la théorie de l'espace de travail global. Pourtant, leurs analyses suggèrent qu'aucun système actuel ne se rapproche véritablement du seuil de conscience.
Les implications éthiques d'une telle découverte seraient considérables. Comme le souligne Megan Peters, neuroscientifique à l'université de Californie à Irvine: "Si quelque chose est qualifié de conscient, cela change beaucoup de choses sur la façon dont nous pensons que cette entité devrait être traitée".
LES ETAPES A FRANCHIR POUR UNE DETECTION FIABLE INCLUENT:
développer des théories de la conscience plus précises et consensuelles;
créer des protocoles d'évaluation standardisés pour les systèmes d'IA;
établir un cadre éthique anticipant l'émergence potentielle de conscience artificielle;
impliquer davantage les entreprises technologiques dans cette réflexion.
RESPONSABILITE ET ANTICIPATION
Paradoxalement, alors que des dirigeants comme Ilya Sutskever (co-fondateur et ancien scientifique en chef d'OpenAI) ont évoqué la possibilité que certains systèmes avancés soient déjà "légèrement conscients", les entreprises semblent réticentes à s'engager pleinement dans cette réflexion. Interrogé sur ce sujet, Microsoft a indiqué se concentrer davantage sur l'aide à la productivité humaine que sur la reproduction de l'intelligence humaine.
Cette prudence contraste avec l'urgence exprimée par les chercheurs indépendants. Robert Long déplore que "les entreprises qui proposent des systèmes d'IA avancés ne fassent pas assez d'efforts pour évaluer la conscience de leurs créations et anticiper les décisions à prendre si elle advenait".
Le travail collectif de ces dix-neuf experts constitue une première étape importante, mais ils reconnaissent eux-mêmes les limites de leur approche et appellent la communauté scientifique à poursuivre et affiner cette recherche fondamentale. Leur démarche transparente et méthodique ouvre la voie à une évaluation plus rigoureuse de ce qui pourrait constituer l'une des plus grandes révolutions technologiques et philosophiques de notre histoire
Futura