Peut-on tester le degré de conscience d’une IA ? C’est la question que se posent la philosophe Susan Schneider et l’astrophysicien Edwin Turner dans un article diffusé sur le blog de Ray Kurzweil, mais originellement paru dans Scientific American.

Le problème est qu’on ne sait pas bien définir la conscience ! Comment peut-on alors tester quelque chose d’aussi imprécis ? Pour les auteurs, une telle connaissance imparfaite n’est pas un problème insurmontable : « Nous pensons que nous n’avons pas besoin de définir formellement la conscience, de comprendre sa nature philosophique ou de connaître sa structure neurale pour reconnaître des signes de la conscience au sein d’une IA. Chacun d’entre nous peut saisir quelque chose d’essentiel sur la conscience, juste par l’introspection : nous pouvons tous expérimenter de l’intérieur ce que cela fait d’exister. »

Il faut donc, à l’instar du mythique test de Turing destiné à vérifier l’intelligence d’une machine, mettre au point un test de conscience qu’ils nomment ACT (pour AI Consciousness Test). Ce test ressemblerait formellement à celui de Turing : il s’agirait d’un ensemble de questions/réponses, mais la similitude s’arrêterait là. En fait, nous disent les deux auteurs, l’ACT ferait précisément le contraire du test de Turing. Ce dernier considère en en effet les états internes de la machine interrogée comme une « boite noire », où l’important est de découvrir si cette dernière est capable de se comporter exactement comme un humain. Au contraire, l’ACT cherchera dans les réponses de l’IA la trace de ce qui se passe à l’intérieur, ce qu’elle « ressent », comment elle se perçoit…

Quelle serait la nature des questions à lui poser ? Pour les deux auteurs, elles tourneraient autour de certains concepts bien précis :

« L’une des indications les plus convaincantes que des adultes normalement constitués font l’expérience de la conscience (bien que cela ne soit pas souvent noté) est le fait que presque tous peuvent rapidement et facilement saisir des concepts basés sur le ressenti de cette conscience. De telles idées incluent des scénarios comme l’échange de corps entre esprits (comme dans le film Freaky Friday), la vie après la mort (y compris la réincarnation), et les esprits qui quittent leur «corps» (par exemple, dans le cas de la projection astrale ou des fantômes). Que ces scénarios aient ou non une réalité, ils seraient extrêmement difficiles à comprendre pour une entité qui n’aurait aucune expérience consciente. Ce serait comme s’attendre à ce qu’un sourd de naissance apprécie un concerto de Bach. »

Une IA consciente serait donc capable de comprendre instantanément ces concepts (ce qui ne veut pas dire : y croire !).

J’avoue que c’est le point qui me paraît le plus intéressant du papier : les preuves les plus simples de l’existence d’une conscience appartiennent toutes au domaine du paranormal ou du religieux ! Cela mériterait des investigations et des réflexions supplémentaires, mais ce n’est pas le sujet abordé par les deux auteurs.

Ceux-ci préfèrent plutôt se pencher sur des questions typiques des interrogations actuelles sur l’IA, telle notamment l’idée d’une « superintelligence » non consciente qui serait capable « d’imiter » la compréhension humaine de ces sujets, sans pour réellement « ressentir » la conscience. Il faudrait peut-être bloquer l’accès Internet à la machine testée pour éviter qu’elle n’aille chercher les infos permettant une telle simulation, mais les auteurs rajoutent, dans la lignée de ce qu’écrit Nick Bostrom dans son livre Superintelligence, qu’une telle entité ne se laisserait pas isoler du réseau si facilement…

Reste que, comme le rappellent les auteurs, de telles inquiétudes ne sont pas pour demain. En fait aujourd’hui, la question serait plutôt inverse : qu’une machine consciente ne soit pas assez intelligente pour répondre correctement à l’ACT. « Une IA pourrait manquer de la capacité linguistique ou conceptuelle nécessaire pour passer le test, comme ce serait le cas avec un animal non humain ou un nourrisson, mais serait néanmoins capable d’éprouver une expérience. Ainsi, réussir un ACT est une preuve suffisante mais non nécessaire pour établir l’existence de la conscience au sein de l’IA – bien que ce soit le mieux que nous puissions faire pour l’instant. »

Original sources