Hier matin (vendredi 19 août 2011 aux alentours de 6h50*), les auditeurs de la RSR ont pu entendre une courte intervention nasillarde et confuse à propos de la conscience humaine - ou quelque chose de ce genre -, lors d’une chronique intitulée Les Temps Modernes. C’était moi. J’avais été aimablement interviewé et enregistré au téléphone la veille par un journaliste de l’émission, et par la suite, comme c’est l’usage, mes propos ont été impitoyablement coupés, démontés et remontés afin d’être rendus un peu plus radiogéniques. Notez que je n’écris pas ce billet pour m’en plaindre, je connais la règle du jeu : tu causes pendant 20 minutes de trucs fascinants, drôles et instructifs (crois-tu), et on ne finit par garder dans l’émission que les 20 secondes les plus embarrassantes pour toi et les moins intéressantes pour le public. Bon, en l’occurrence, encore une fois, je n’ai pas (trop) à me plaindre : l’émission est de bonne facture, les journalistes sont talentueux et doués pour mettre leurs invités à l’aise, il y a de la place pour la discussion et l’argumentation, les sujets sont intéressants ; sincèrement j’écouterais Les Temps Modernes plus régulièrement si l’émission n’était pas logée, pour ce qui me concerne, à une case horaire aussi prohibitive (i.e. le matin). Du reste, je répondrais avec plaisir et favorablement à d’ultérieures sollicitations si on jugeait que mes lumières étaient dignes d’être infligées à nouveau au matinal public de la RSR.
Non, si j’écris c’est par conviction que les chercheurs doivent davantage utiliser les moyens modernes de communication pour compléter, et au besoin corriger, ce qui se dit dans les médias plus traditionnels. Disons aussi que je profite de l’occasion pour écrire quelque chose sur ce blog désertique.
Le sujet abordé n’était pas a priori de ma compétence, mais j’ai accepté l’aimable et flatteuse invitation à m’exprimer sur le service public parce que j’ai jugé pouvoir offrir un angle intéressant à la question soulevée. Il s’agissait d’examiner l’annonce d’une nouvelle micropuce révolutionnaire issue à grand fracas par l’entreprise IBM (plus d'infos ici, ici, et un peu partout ailleurs). Le machin en question, dont j’ignore les détails, se veut inspiré par le fonctionnement biologique du cerveau humain et promet de grandes avancées, telles que permettre aux ordinateurs d’apprendre par eux-mêmes, d’être plus intuitifs ou que sais-je encore. Ce qui soulève naturellement la question de l’intelligence artificielle : les ordinateurs pourront-ils développer une forme de conscience grâce à de semblables micropuces ? etc. Du coup, je me suis dit que c’était l’occasion de présenter certaines réflexions très contemporaines (mais pas tellement nouvelles pour autant) sur la conscience, notamment la question de la définition de la conscience, les critères qui permettent d’établir la présence d’une conscience, et surtout la psychologie intuitive et populaire de ce qu’est en fait la conscience et où on peut la trouver. Je résume donc plus loin les points que j’ai abordé lors de mon interview mais qui n’ont pas été retenus pour l’émission (du reste, certains de ces points ont été fort bien présentés par le professeur invité sur le plateau).
Mais j’en viens pour le moment à la portion qui a été retenue de mon développement. Tirée hors contexte, elle pourrait porter à confusion quant à mes véritables intentions, et je tiens donc à apporter quelques précisions. Rien de grave**, notez bien, c’est juste que je me suis probablement mal exprimé et que l’instant où j’ai été coupé conduit à me prêter un propos que précisément je m’efforçais de réfuter. J’ai trop la flemme de transcrire exactement ce que l’on entend de moi dans cette émission (et en plus je déteste réécouter ma voix), aussi je vous la fais de mémoire. En substance, on entend la chose suivante :
« On pourrait tout à fait imaginer qu’un ordinateur puisse un jour partager certaines de ses propriétés avec celles que l’on attribue généralement à la conscience humaine. La question n’est pas tant de savoir si c’est technologiquement faisable, mais plutôt d’un point de vue conceptuel et psychologique, si, à ce moment, on s’apercevrait en fait qu’on a à faire à un ordinateur conscient. Mettons que nous ayons sous les yeux un ordinateur qui a une conscience, qui peut formuler des désirs, prendre des décisions, qui peut même rêver, tomber amoureux, écrire des poèmes, faire des blagues… Bon, comment saurait-on vraiment qu’effectivement, cet ordinateur est conscient ? La question revient à formuler sous quelles conditions, le cas échéant, nous serions disposés à tout simplement admettre que l’ordinateur en question possède une conscience. Exemple : voici que la machine nous concocte un superbe poème. Dans ce cas, tout porte à croire que la première réaction serait la suivante : d’accord, ce poème possède tous les attributs du genre de poèmes qu’un écrivain humain, plus ou moins talentueux, pourrait produire; cependant cela ne suffit pas pour affirmer que l’ordinateur est conscient, il est plus plausible d'envisager que ceux qui l’ont programmé ont trouvé le bon algorithme, le bon truc, pour générer des poèmes qui ont toutes les apparences de la créativité verbale humaine. De même pour tout le reste, ça ressemble à de l’humain, ça a le goût de la conscience, mais il y manque ce qui constitue réellement la conscience humaine. C’est ce petit plus, cette étincelle magique, qui distingue la vraie conscience de l’intelligence artificielle, aussi performante et bluffante soit-elle ».
Voilà en gros les paroles du docteur Sebastian Dieguez, chercheur en neurosciences, qu'on a pu entendre à la radio. Si vous écoutez l’émission vous vous rendrez compte que je m’exprime ici sans doute plus clairement, mais je pense que ces quelques lignes transcrivent assez fidèlement ce que j’essayais de dire. Seulement, on pourrait alors croire que j’adhère à ce point de vue, c’est-à-dire que je pense qu’il existe en fait, pour de vrai, une telle « étincelle magique » qui distingue l’homme de la machine. Or ce n’est pas le cas du tout, ce passage s’inscrivait dans un baratin plus large (et probablement plus confus encore), où j’essayais de dire que, précisément, les avancées technologiques se heurteraient toujours à une puissante forme de scepticisme quant à leurs prétentions à ressembler à la conscience humaine (ou même à la dupliquer). Ce scepticisme prend généralement la forme, purement et simplement, du dualisme, c’est-à-dire l’idée que le matérialisme n’est pas suffisant pour expliquer la conscience humaine et qu’il faut y ajouter quelque chose. Ce quelque chose, que je nommais « étincelle », je le décrivais ensuite, dans l’entretien complet, comme la traditionnelle « âme » des mythes et des religions. Chose qu’évidemment, ceux qui connaissent un peu mes opinions le savent assez, je rejette complètement.
Il n’y a pas d’étincelle, il n’y a pas d’âme. La différence (actuelle) entre l’intelligence humaine et l’intelligence artificielle, aussi considérable soit-elle, n’a rien à voir avec la magie ou le surnaturel. Elle est problématique, certes, mais elle n’est pas mystérieuse. Céder au scepticisme quant à la possibilité de machines conscientes, c’est, qu’on l’admette ou pas, se ranger du côté de l’obscurantisme, ou du genre de défaitisme épistémologique qui n’a jamais permis la moindre avancée dans quelque domaine que ce soit, en science ou en philosophie.
Aussi, tout en me méfiant des effets d’annonces purement intéressés d’une grande compagnie telle qu’IBM (qui cherche avant tout à devancer ses rivales et rassurer ses actionnaires, avais-je dit en substance au journaliste), je m’enthousiasmais tout de même pour ce genre d’avancées et j’ajoutais que, pour ma part, la possibilité de créer un jour un ordinateur doué de conscience n’avait rien d’impossible, ni même de fantaisiste. En tant que neuropsychologue, en revanche, j’étais plus intéressé par l’envers de la question, c’est-à-dire celle de connaître les critères minimaux qui permettent d'attribuer une conscience à une machine, ou, en d’autres termes, par la question de savoir si aujourd’hui l’on dispose, ou si l’on disposera un jour, d’une connaissance suffisante et d’une définition opérationnelle de la conscience telle, qu'elle permettrait de la reconnaître et de la débusquer là où elle se trouve. Je donnais alors plusieurs exemples. Certes, il sera difficile de déterminer à quel moment exactement un ordinateur ou un robot pourra être considéré comme conscient, mais demandons-nous si vraiment nous pouvons en toute certitude attribuer une conscience aux êtres humains. Qu’est-ce qui me dit que le journaliste qui m’interviewait était conscient ? Qu’est-ce qui me dit, d’ailleurs, que moi je suis conscient ? Et les animaux ? Plus grand monde aujourd’hui ne soutiendrait que les animaux soient dénués de toute forme de conscience. Alors de quelle sorte de conscience disposent-ils ? Comment sait-on, sur quelle base décide-t-on, qu’un animal à tels ou tels attributs de la conscience, aussi rudimentaires soient-ils ? Prenons maintenant une personne qui rêve. En apparence, rien n’indique que cette personne soit consciente de quoi que ce soit. De fait, elle est parfaitement immobile, et semble plongée dans l’inconscience la plus totale. Pourtant, elle est en train de vivre des aventures extraordinaires ; elle exprime des désirs et des souhaits ; elle bouge, saute, court, vole même ; elle ressent toutes sortes d’émotions ; et avec tout ça, elle n’a pas la moindre conscience d’être en réalité en train d’expérimenter un monde parfaitement illusoire, qu’elle quittera sans trop sans soucier à l’heure du réveil. Et dernier exemple, aux conséquences éthiques redoutables, que faire de ces personnes dans le coma ou en état végétatif ? Sont-elles conscientes ? Comment en être sûr ? Quels sont les signes extérieurs de la conscience ? Y en a-t-il vraiment ?
Autant de questions qui, si elles n’ont pas de réponses toutes simples et définitives, forment une assez large introduction aux recherches contemporaines en neurosciences et philosophie de l’esprit, et donnent sa pleine saveur aux véritables enjeux de la possibilité d'une conscience artificielle. L’idée que tout cela trouverait une réponse sous la forme d’une « étincelle » quelconque, évidemment, est à mille lieues de ce que je pense vraiment. L’approche purement computationnelle, conduite dans l’esprit d’une équipe d’ingénieurs et de scientifiques qui cherche à offrir des solutions pratiques (et qui marchent !) à des problèmes a priori purement métaphysiques, me paraît réellement la seule à même d’apporter enfin des réponses concrètes dans ce domaine. Tout cela est certes un peu long pour la radio, surtout avant 7 heures du matin, mais j’ai bien peur qu’il n’y ait pas de manière plus courte de rendre justice à des sujets aussi complexes.
Et ce n’est pas tout. Je poursuivais en envisageant deux conséquences intéressantes à ces micropuces IBM, dans l’hypothèse où vraiment il y ait là quelque chose de révolutionnaire (ce dont je doute, pour la raison que ce genre d’annonces est en fait une sorte de marronnier journalistique: rappelez-vous du foin qui avait été fait lorsque Garry Kasparov s’est fait battre par Deep Blue, non pas à Angry Birds, mais aux échecs, en... 1997). Admettons cependant : y a-t-il un intérêt quelconque à rendre les ordinateurs « plus humains », à faire en sorte qu’ils soient capables « d’apprendre par eux-mêmes » ? Loin de moi l’idée de céder à la panique d’une invasion de robots, encore que c’est, en toute logique, exactement ce qui se produirait si, de fait, les ordinateurs venaient à disposer d’une « conscience humaine ». S’envahir les uns les autres, n’est-ce pas précisément ce que fait, ce qu’a toujours fait, la « conscience humaine » ? Mais plus simplement, d’un point de vue très pratique, je suggérais qu’il n’y avait pas le moindre intérêt à rendre les ordinateurs « plus humains ». En fait, la raison pour laquelle nous disposons d’ordinateurs, et qu’ils nous rendent tant service, c’est précisément qu’ils n’ont rien d’humain. L’histoire même du terme « computer » est révélatrice à cet égard. A l’origine, les « computers » sont… des humains dont le travail consiste à compiler des chiffres, archiver des données et effectuer des calculs. Ce n’étaient du reste pas des mathématiciens, la plupart étaient des jeunes secrétaires qui se contentaient de suivre les instructions qu’on leur donnait, sans avoir à comprendre ce qu’elles faisaient ni même pourquoi elles le faisaient. Mais bon, même en suivant scrupuleusement et aveuglément un algorithme auquel on ne comprend rien, les humains commettent des erreurs. Pire, ils fatiguent, doivent se nourrir, ont toutes sortes d’états d’âme qui sapent le boulot. Autant filer le job à des machines qui feront exactement la même tâche, bien docilement, et merci donc au docteur Turing d’avoir ouvert la voie. La firme IBM est-elle donc en train de proposer qu’après tout ce chemin parcouru, il faudrait maintenant renverser l’affaire et fournir aux ordinateurs exactement ce pourquoi ils ont été inventés, c’est-à-dire les défauts du cerveau humain ? J’expliquais qu’insuffler à une machine la capacité « d’apprendre par elle-même » était une mauvaise idée. Nous autres humains avons cette capacité d’apprendre par nous-mêmes, nous savons donc de quoi il retourne. Le résultat, on en conviendra, n’est pas toujours très brillant. "Apprendre", cela prend un temps fou; on commet toutes sortes d’erreurs; on oublie des choses importantes et on retient des détails inutiles; parfois on ne peut se défaire de souvenirs pénibles ou traumatisants; le processus d’acquisition est sans cesse perturbé par des distractions; les différents domaines d’apprentissage ont la fâcheuse tendance d’interférer les uns avec les autres; etc. Encore une fois, c’est pour dépasser ces bugs biologiques que nous utilisons des ordinateurs, et franchement, ceux d’aujourd’hui, dans leur état actuel, ne sont déjà pas si mal pour ce qu'on leur demande de faire.
Finalement, je soulevais un point éthique un peu plus pointu, mais qu’il n’est pas défendu d’aborder en l’état actuel des avancées technologiques. Créer de la conscience artificielle, c’est de facto créer tout ce qui va avec. C’est-à-dire de la souffrance, de la peine, de la douleur, de la honte, des remords, de l’envie, des complexes… Bien sûr, il y a aussi de la joie, de l’espoir, de la compassion, du plaisir, mais toutes choses considérées, est-il vraiment nécessaire d’ajouter ex nihilo une nouvelle espèce consciente qui ne fera, mathématiquement, qu’ajouter à la somme totale de souffrance dans l’univers ? Le technicien qui met à jour une machine consciente n’aura-t-il pas les mêmes responsabilités que les parents d’un nouveau-né humain ? (et certains parents humains ne sont-ils pas déjà particulièrement ineptes à ce rôle, créant de la souffrance là où on ne leur avait rien demandé ?)
C’est à peu près à ce moment, complètement essoufflé et exténué par un soleil de plomb (je donnais l’entretien par téléphone portable à l’extérieur), que je terminais mon intervention, avant que le journaliste ne me demande un « mot de la fin », qui consistait essentiellement à dire que tout ça c’est très bien, mais qu’il faut sans cesse rappeler que c’est à nous, humains, de décider ce qu’on veut faire de nos vies et de notre avenir, et qu’on n’est pas forcés de suivre impuissants les progrès technologiques, lesquels n’ont rien d’inéluctables comme on le dit souvent. Et autres fadaises du même genre, que je remercie les responsables de n’avoir pas retenues pour l’émission.
Pour conclure, je remercie les journalistes des Temps Modernes de m’avoir donné cette opportunité de m’exprimer sur un sujet que je trouve intéressant, et de me donner l’impulsion de mettre tout ce foutoir par écrit, des fois que je me réveille un jour terrifié à l’idée que des pensées aussi profondes et brillantes soient à jamais perdues pour la postérité.
Je donnerais bien encore, avant de clore, quelques références bibliographiques, mais je suis un peu fatigué, aussi je me contenterai d’un petit coup de name dropping. Toutes ces questions sont abordées, à un moment ou à un autre, dans les travaux de Daniel Dennett (dont le dernier livre qu’il a co-écrit évoque justement la possibilité de construire une machine capable d’humour : Inside Jokes, absolument brillant et recommandé) ; Thomas Metzinger (The Ego Tunnel) ; John Searle bien sûr, pour une défense de la position sceptique ; Daniel Wegner pour des expériences sur les mécanismes sous-tendant notre propension à percevoir de la conscience et des esprits ; et évidemment le Frankenstein de Mary Shelley, que j’explore dans un article récent.
*Disponible librement sur le site de l'émission, au vendredi 19 août ("Les ordinateurs cognitifs bouleverseront-ils notre quotidien", notez qu'à aucun moment je ne réponds vraiment à cette question ici...)
**Contrairement au fait de m'attribuer une opinion que j'ai très clairement et très explicitement rejetée sans le moindre doute possible, comme s'y prête un abruti anonyme à la page 2 de ce document.
Aucun commentaire:
Enregistrer un commentaire