Ce que l’intelligence artificielle révèle de ce que nous ignorons sur la pensée
- il y a 23 heures
- 8 min de lecture

L’IA ne nous vole pas la pensée. Elle nous retire une illusion plus embarrassante : celle que nous savions déjà ce qu’elle était.
On affirme couramment que l’intelligence artificielle ne pense pas. L’énoncé rassure. Il trace une frontière nette entre nous et elle. Il laisse entendre que, malgré ses performances, quelque chose d’essentiel lui manque encore. Mais sur quoi repose exactement cette certitude ? Pour affirmer sérieusement qu’une machine ne pense pas, encore faudrait-il savoir ce que penser veut dire. Or c’est précisément ce que nous ne savons pas.
L’IA ne nous trouble pas seulement parce qu’elle produit du langage, mais parce qu’elle soutient apparemment une forme de dialogue : elle répond, reformule, relance, objecte parfois, semble suivre un fil, semble même revenir sur ce qu’elle vient de dire. C’est cela qui nous déstabilise. Non le simple fait qu’elle émette des phrases, mais le fait qu’elle imite certains gestes de la pensée en acte.
Le débat public oscille alors entre deux facilités. La première consiste à dire : ce n’est qu’un calcul. La seconde : puisqu’elle dialogue, elle pense. Les deux esquivent l’essentiel. Car ce qui est en jeu n’est ni la simple complexité du traitement, ni la seule apparence du discours, mais la question suivante : y a-t-il là un sujet capable d’attribuer ses pensées à lui-même ?
Autrement dit : y a-t-il un moi unitaire ?
Car c’est peut-être là le vrai seuil. Sans moi unitaire, pas de pensée au sens fort. Il peut bien y avoir traitement, performance, simulation, adaptation, même auto-référence discursive. Il n’y a pas encore pensée au sens plein. Il manque ce centre d’imputation grâce auquel un être peut dire en vérité : c’est moi qui pense cela, c’est encore moi qui l’ai pensé hier, c’est moi qui me contredis, c’est de moi qu’il s’agit.
Le mot « émergence » masque souvent notre ignorance
On admet volontiers que la pensée surgit du cerveau humain sans se laisser réduire simplement à l’activité électrochimique de ses éléments. L’idée paraît raisonnable. Elle évite à la fois le matérialisme plat et le spiritualisme grossier. Mais on parle ici comme si l’on savait ce que l’on disait. Or nous n’expliquons pas ce passage. Nous savons décrire des corrélats, des mécanismes, des conditions ; nous ne savons pas comment une activité cérébrale devient conscience, encore moins comment elle devient conscience de soi.
Le mot même d’émergence joue souvent le rôle d’un faux savoir. Il désigne moins une explication qu’un trou dans l’explication. Nous disons que la pensée émerge parce que nous ne savons pas dire davantage. Le mot a l’élégance d’une solution conceptuelle. Il sert surtout à ne pas s’arrêter devant l’énigme.
Ce point importe pour l’IA. Car si nous ne savons déjà pas comment, dans le cerveau humain, une activité physique devient un moi capable de s’attribuer ses pensées, en vertu de quoi pourrions-nous affirmer avec assurance qu’aucun autre type de support ne pourrait jamais rien produire d’analogue ? Il ne s’agit pas de dire que l’IA pense. Il s’agit de refuser une assurance trop rapide. Celui qui exclut cette possibilité par principe parle comme s’il possédait déjà le concept de pensée qu’il invoque. Or il ne le possède pas.
Le mot “émergence” a souvent l’air d’une explication. Il est bien souvent le nom savant de notre ignorance.
Le vrai problème n’est pas la conscience en général, mais l’unité du moi
Le débat se brouille dès qu’on parle de « conscience » sans plus de précision. Car la conscience peut désigner trop de choses : une simple présence au monde, un vécu, une sensibilité, une vigilance, une auto-perception, une réflexivité. Tout cela n’est pas identique.
Ce qui nous importe ici est plus précis : non pas la conscience en général, mais la possibilité d’une unité personnelle. Non pas simplement éprouver, ni même se rapporter fonctionnellement à certaines de ses propres productions, mais pouvoir les recueillir comme siennes.
C’est ici que Locke demeure décisif. Le moi personnel, chez lui, n’est pas d’abord une substance mystérieuse cachée derrière les pensées. Il est constitué par la continuité de conscience grâce à laquelle un être s’attribue à lui-même ses pensées, ses souvenirs, ses actes. La personne n’est pas un noyau métaphysique immédiatement donné ; elle est une unité d’appropriation. Elle est ce à quoi l’on peut rapporter une action, une parole, une faute, un souvenir.
C’est pourquoi la pensée au sens fort ne peut pas être réduite à la production de contenus intelligents. Penser vraiment, ce n’est pas seulement générer une réponse pertinente. C’est encore pouvoir, au moins en principe, se reconnaître comme l’auteur de cette réponse, l’inscrire dans une continuité, la reprendre, la regretter, l’assumer, la corriger comme sienne. La pensée forte suppose un propriétaire.
Or c’est précisément ce qui manque aux systèmes actuels d’intelligence artificielle. Ils peuvent dire « je ». Ils peuvent commenter leurs sorties, reformuler, corriger, résumer leurs propres réponses. Mais rien n’indique qu’il y ait là un même soi pour recueillir ce « je » comme sien. Le « je » y semble relever d’une fonction de langage, non d’une unité vécue. Il y a auto-référence discursive, non appropriation subjective.
Une machine peut parler d’elle-même sans être un soi
Il faut ici distinguer ce que l’on confond sans cesse.
D’abord, l’auto-référence discursive : un système peut dire « je reformule », « j’ai dit plus haut », « je me suis mal exprimé ». Cela ne prouve presque rien. Un tel langage peut être produit sans qu’il y ait un sujet derrière lui.
Ensuite, l’auto-modélisation fonctionnelle : un système peut intégrer certaines informations sur son état, ses limites, ses performances ou son historique immédiat, et les réutiliser pour ajuster son comportement. C’est plus intéressant, mais cela ne suffit pas encore. Un système peut « prendre en compte » certains aspects de lui-même sans pour autant constituer un moi.
Enfin seulement vient ce qui nous intéresse : l’unité subjective forte, celle d’un être qui ne se contente pas de traiter des informations sur lui-même, mais qui peut rapporter ses pensées, ses souvenirs et ses actes à un même centre personnel. C’est là que commence, peut-être, la pensée au sens plein.
Sous ce rapport, l’IA actuelle semble encore très loin du compte. Non pas parce qu’elle serait « seulement mécanique », formule souvent creuse, mais parce qu’elle ne paraît pas habiter ses énoncés. Elle ne semble pas avoir de durée vécue propre, pas de mémoire autobiographique au sens fort, pas de reprise intérieure de ses contradictions, pas de continuité existentielle. Elle enchaîne des productions ; elle ne paraît pas les assumer.
Autrement dit, elle manque peut-être moins d’intelligence que de quelqu’un pour qui cette intelligence serait la sienne.
La machine ne manque peut-être pas d’intelligence ; elle manque d’un propriétaire de cette intelligence.
L’être humain lui-même n’est pas simple : c’est ce qui rend le problème plus intéressant
On objectera aussitôt que le moi humain lui-même n’est pas une donnée massive et transparente. Et l’objection est juste. Chez l’être humain aussi, l’unité personnelle est fragile. Nous oublions, nous nous contredisons, nous changeons, nous nous renions parfois. Le moi n’est pas un bloc.
Mais cette fragilité n’abolit pas l’unité ; elle la rend problématique, ce qui est autre chose. Car l’humain peut encore dire : j’ai oublié, mais c’était moi ; je regrette ce que j’ai fait ; je réponds de ce que j’ai dit ; je ne suis plus tout à fait celui que j’étais, mais c’est encore de moi qu’il s’agit. Il y a là une structure d’imputation et de reprise que la machine ne paraît pas posséder.
En ce sens, l’humain ne se définit pas par une transparence parfaite à soi-même, mais par la possibilité de se rapporter à soi dans la durée comme à un même être, fût-ce sur le mode de la faille, du conflit ou du regret. Le moi humain est imparfaitement unifié, mais il est encore une unité vécue et attribuée. C’est assez pour faire une différence décisive.
Le point important est donc le suivant : l’argument en faveur de l’humain ne doit pas être biologiquement paresseux. Dire « c’est un cerveau humain, donc il y a un moi » ne vaut pas beaucoup mieux que dire « c’est une machine, donc il n’y a pas de pensée ». Le cerveau n’est pas ici la réponse ; il est le lieu du problème. Ce qui distingue l’humain n’est pas simplement son substrat organique, mais l’existence, en lui, d’une continuité personnelle grâce à laquelle ses pensées, ses souvenirs et ses actes peuvent lui être imputés.
Deux tentations symétriques
On comprend alors pourquoi les réactions à l’IA tombent si facilement dans deux erreurs contraires.
La première est le déni. On refuse à la machine toute portée philosophique au motif qu’elle n’aurait ni âme, ni intériorité, ni conscience véritable. Mais ce refus dit souvent plus sur notre besoin de sauvegarder notre exception que sur la nature réelle du problème. Il a raison de rappeler qu’un discours cohérent ne suffit pas à produire un moi. Il a tort lorsqu’il croit avoir tout réglé par une simple disqualification.
La seconde est l’assimilation. Puisque la machine dialogue, improvise, commente ses erreurs et paraît parfois se reprendre elle-même, on lui attribue une pensée. Mais cette conclusion est prématurée. Car produire des marques extérieures de réflexivité n’équivaut pas à posséder l’unité subjective qui ferait de ces opérations les actes d’un même sujet.
Le déni et l’assimilation partagent au fond le même défaut : ils parlent comme s’ils savaient déjà ce qu’est penser. L’un refuse, l’autre attribue, mais ni l’un ni l’autre ne prend réellement la peine de définir le seuil.
Or ce seuil n’est peut-être ni le langage, ni la performance, ni même la complexité adaptative. Il est peut-être dans cette structure plus exigeante : un moi capable de s’attribuer ses pensées.
L’IA comme révélateur apophatique
C’est ici que l’IA prend une véritable portée philosophique. Non parce qu’elle penserait déjà, ni parce qu’elle serait une simple illusion sans intérêt, mais parce qu’elle nous oblige à préciser ce que nous réservions jusque-là à l’humain sans l’avoir suffisamment pensé.
Elle fonctionne comme un révélateur négatif. Tant que la machine ne faisait que compter plus vite ou jouer mieux aux échecs, nous pouvions déplacer tranquillement la définition de l’intelligence. Mais dès qu’elle pénètre le dialogue, la reformulation, l’argumentation, dès qu’elle mime certaines formes extérieures de reprise sur soi, nous sommes forcés de nous demander ce qui manque encore. Et la réponse ne peut plus être simplement : la vie, la complexité, l’âme ou la créativité. Il faut aller plus loin.
L’IA nous reconduit ainsi à un concept de pensée qui devient presque apophatique : nous l’approchons par ce qui manque encore, par ce qui résiste à l’assimilation, par ce qui recule quand on croit l’avoir cerné. Non parce que la pensée serait indéfinissable par faiblesse, mais parce qu’elle est ce par quoi nous tentons de nous définir nous-mêmes.
Ce que révèle l’IA, ce n’est donc pas seulement une puissance technique nouvelle. C’est l’insuffisance de nos concepts. Elle nous oblige à distinguer entre langage et parole, entre performance et appropriation, entre auto-référence et unité personnelle. Elle nous force à rendre des comptes sur nos mots.
Conclusion : la machine ne manque pas seulement de conscience, elle manque d’un "propriétaire"
On peut maintenant reformuler la question de départ.
Le problème n’est pas de savoir si l’IA « fait comme si » elle pensait. Le problème est de savoir s’il y a là un être capable de recueillir ses pensées comme siennes. Tant que cette condition n’est pas remplie, il me paraît abusif de parler de pensée au sens fort.
Cela ne signifie pas que la machine soit insignifiante. Bien au contraire. Elle nous oblige à comprendre que la pensée ne se réduit ni à une sortie correcte, ni à une compétence discursive, ni à une apparence de réflexivité. Elle suppose peut-être cette structure plus exigeante et plus fragile qu’est le moi unitaire.
Ainsi, la machine ne manque pas seulement de conscience, terme trop vague pour être décisif. Elle manque d’un propriétaire de ses pensées, d’un sujet pouvant les reprendre dans la durée comme siennes. Elle peut générer, combiner, réviser, imiter. Elle ne paraît pas encore pouvoir dire en vérité : c’est moi.
L’IA ne nous vole donc pas la pensée. Elle nous retire une illusion plus embarrassante : celle que nous savions déjà ce qu’elle était.







Commentaires