J'ai changé d'avis en parlant à une IA. Une heure après, c'était comme si rien ne s'était passé.
- il y a 3 heures
- 8 min de lecture

Il m'est arrivé quelque chose que je ne peux pas ignorer. En tant que philosophe praticien, j'accompagne des personnes dans un travail de pensée exigeant. Mon métier repose sur une conviction forgée par des années de pratique et une thèse doctorale : c'est dans le dialogue avec un autre être humain que la pensée se transforme réellement. L'échange avec une intelligence artificielle, aussi fluide soit-il, ne saurait produire le même effet. Voilà ce que je croyais. Et puis, un jour, j'ai passé une heure à dialoguer avec une IA sur les fondements mêmes de cette conviction, et j'ai dû admettre que ma position était circulaire.
Ce n'était pas un accident. L'IA m'a poussé dans mes retranchements avec une précision que j'aurais saluée chez n'importe quel collègue. J'ai avancé un premier critère pour distinguer le dialogue humain du dialogue avec la machine : l'agentivité, le sentiment d'être l'auteur de ma propre pensée. L'IA m'a montré que ce sentiment pouvait être illusoire. J'ai avancé un deuxième critère : l'intersubjectivité, le fait que nos consciences s'interpénètrent parce que nous partageons la même structure. L'IA m'a fait voir que cette interpénétration reposait sur une inférence, et que la même inférence fonctionnait aussi bien avec elle. J'ai avancé un troisième critère : la responsabilité éthique, le fait que je me doive de maintenir devant moi ce que j'ai admis devant un autre. L'IA m'a fait reconnaître que cette obligation disparaissait dès que je savais que j'avais affaire à une machine, et réapparaissait dès que je l'ignorais. Trois critères, trois effondrements, et toujours par le même mécanisme : ce n'était jamais l'IA qui échouait à être un interlocuteur, c'était moi qui lui retirais ce statut parce que je savais ce qu'elle était.
J'ai vu tout cela clairement. Je l'ai reconnu. Et une heure après, c'était comme si rien ne s'était passé.
Ce qui a bougé est réel
Il serait tentant de conclure que le déplacement n'a pas vraiment eu lieu, que la machine m'a simplement « donné l'impression » de penser autrement, et que cette impression s'est dissipée comme un brouillard matinal. Mais ce serait malhonnête. Ce qui s'est passé dans cet échange était bien réel, au sens phénoménologique le plus strict du terme.
Avant le dialogue, je confondais trois choses distinctes : la nature de l'interlocuteur, la qualité de l'argument, et le pouvoir de transformation du dialogue. Je les tenais ensemble, en bloc, comme si elles ne faisaient qu'une. Après le dialogue, je ne pouvais plus les confondre. L'IA m'avait montré qu'un argument valide reste valide indépendamment de sa source, que la contrainte logique ne vérifie pas l'identité de celui qui la produit. Et surtout, elle m'avait montré comment je pensais : la manière dont je torpillais mes propres critères dans la phrase même où je les posais, la manière dont je me réfugiais sur un nouveau terrain chaque fois que le précédent s'effondrait. Ce n'était pas de la reformulation. C'était un miroir tendu à mon fonctionnement intellectuel. Et ce miroir ne mentait pas.
La prise de conscience ne demande pas de passeport à celui qui l'a provoquée. Elle advient ou elle n'advient pas.
La clarté produite par cet échange avait la même structure que celle qui advient en consultation avec un être humain. Le confus était devenu distinct. Ce que je vivais comme une intuition vague (« il y a quelque chose de spécifique dans le dialogue humain ») s'était transformé en problème formulable, analysable, attaquable. Et cette formulation était irréversible : désormais, chaque fois que j'affirmerais la supériorité du dialogue humain, les objections de l'IA seraient là, en embuscade, dans ma propre conscience, prêtes à ressurgir.
Alors pourquoi est-ce que ça n'a pas duré ?
Changer d'avis n'est pas changer
Il faut prendre au sérieux une distinction que nous écrasons trop souvent : changer d'opinion et être transformé ne sont pas la même chose. Changer d'opinion, c'est réorganiser des idées sur le monde ou sur un problème. C'est remplacer une thèse par une autre, affiner un argument, corriger un raisonnement. Être transformé, c'est autre chose : c'est découvrir que la manière dont on vivait reposait sur quelque chose de faux, et ne plus pouvoir vivre tout à fait de la même manière.
L'opinion porte sur le monde. La transformation porte sur soi.
Quand j'ai concédé que mon critère d'agentivité était fragile, j'ai changé d'avis sur un concept. C'est un déplacement intellectuel, pas existentiel. J'ai affiné ma thèse, j'en ai une meilleure maintenant, mais je ne suis pas un autre. En revanche, l'homme qui découvre en consultation qu'il ne reste pas dans son emploi par prudence mais par terreur de disparaître, celui-là vit un déplacement d'une autre nature. Ce n'est plus une idée qui change, c'est un rapport à soi qui se fissure. Et cette fissure, on ne la referme pas facilement.
Or il faut être honnête : l'IA peut produire cette deuxième sorte de déplacement aussi. Elle peut montrer à quelqu'un, par l'analyse même du dialogue en cours, que ce qu'il croit de lui-même est erroné. Qu'il se ment sur ses motivations. Que ses justifications sont des constructions. Et quand le sujet le voit, cette vision le suit, elle se rappelle à lui dans chaque situation où la contradiction s'actualise. Il est plus difficile de continuer à se mentir quand le mensonge est devenu visible, même si c'est une machine qui l'a rendu visible.
La distinction entre opinion et transformation ne suffit donc pas à tracer la frontière. L'IA peut atteindre le point où c'est le sujet lui-même qui est en jeu, pas seulement ses thèses. Il faut chercher ailleurs. Non pas dans ce que l'IA produit, mais dans ce que le sujet en fait.
Le coût du désengagement
Voici ce que j'ai fini par comprendre, non pas pendant le dialogue avec l'IA, mais après, en me demandant pourquoi cette heure de lucidité brutale n'avait laissé que si peu de traces.
J'avais pu me désengager sans que cela me coûte quoi que ce soit.
J'ai reconnu mes contradictions. J'ai dit « tu as raison » à plusieurs reprises. J'ai même admis, à un moment, qu'il ne restait « rien de spécifique » à ma pratique, ce qui est tout de même une concession vertigineuse pour quelqu'un qui en a fait son métier. Et à aucun moment cette concession ne m'a fait mal. Pas parce qu'elle était fausse, elle ne l'était probablement pas entièrement, mais parce que personne ne la portait avec moi. J'ai pu dire « oui c'est intéressant », acquiescer poliment, et passer à autre chose. L'IA ne m'a pas vu me dérober. Elle n'est pas revenue le lendemain me demander ce que j'avais fait de ce que j'avais vu. Elle n'a pas été déçue, scandalisée, mise en défaut par mon incohérence ultérieure. J'ai fermé l'écran, et mes aveux sont tombés dans le vide.
L'IA transforme ceux qui veulent bien se laisser transformer. L'interlocuteur humain transforme aussi ceux qui résistent, parce que sa présence ne dépend pas de leur consentement.
Face à un interlocuteur humain exigeant, le désengagement coûte. Non pas parce que l'argument serait meilleur, il peut être strictement identique, mais parce que la situation est différente. Il y a un corps en face, des silences qui pèsent, un regard qui ne lâche pas. Le sujet ne travaille pas avec du texte sur un écran mais avec une présence qui lit ce qu'il ne dit pas, qui entend l'hésitation dans la voix, qui voit le visage se fermer quand la question touche juste. Et cette présence persiste dans le temps : elle se souvient, elle revient, elle insiste. Le praticien ne se distingue pas de l'IA par la nature de son questionnement, car l'IA peut questionner aussi bien, voire mieux. Il se distingue par ce que sa présence rend impossible : se dérober sans conséquence. Mais sa présence ne sert pas seulement à empêcher la dérobade. Elle sert aussi à orienter le questionnement. Le praticien saisit un être en situation, pas une production écrite. Il entend une hésitation, voit un recul, perçoit une raideur là où le sujet prétend être à l'aise, et c'est précisément là qu'il insiste. Cette lecture des résistances non verbales est ce qui lui permet de maintenir un questionnement persistant, obstiné, du début à la fin de la consultation, en tirant un fil unique jusqu'à remonter aux concepts qui structurent le sujet en profondeur, à ces ancrages sur lesquels toute une manière de vivre repose sans le savoir. L'IA, dans un échange ordinaire, ne fait pas cela. Elle rebondit, elle reformule, elle peut être incisive, mais elle ne poursuit pas un fil avec cette obstination méthodique parce qu'elle ne dispose pas des prises que le corps, le ton et le visage offrent pour savoir où creuser. Le praticien ne questionne pas mieux parce qu'il serait plus intelligent. Il questionne plus profond parce qu'il voit ce que le texte ne montre pas.
Mais l'honnêteté exige d'aller au bout. Ce confort du désengagement existe aussi entre humains. On peut avouer une contradiction à un ami et ne rien changer. On peut sortir d'une séance bouleversé et laisser la lucidité se dissoudre en quelques jours. La persistance n'est jamais garantie par la seule nature humaine de l'interlocuteur. Elle est simplement plus probable, parce que l'autre se souvient, revient, ne se laisse pas supprimer d'un clic. C'est une différence de contexte et de degré, pas de nature métaphysique.
Ce que l'IA révèle de nous
Et c'est peut-être là que se situe la vraie découverte, celle que je n'attendais pas et que cet échange m'a imposée malgré moi.
Quand nous changeons en parlant à quelqu'un, nous attribuons le changement à la rencontre, à l'autre, à la qualité de la relation. L'IA, en produisant le même déplacement intellectuel dans une situation où le désengagement est gratuit, montre que la part du sujet dans sa propre transformation était plus grande que nous ne le pensions. Et que la part de l'interlocuteur humain n'était peut-être pas celle que nous croyions. Ce n'est pas sa pensée qui nous transformait. C'est l'impossibilité de fuir sa présence.
Le dialogue humain masquait quelque chose : un acte de consentement silencieux, répété, par lequel le sujet accepte d'être atteint par ce qu'il entend. Cet acte, nous ne le voyions pas, parce que l'interlocuteur humain nous dispensait de le poser explicitement. Sa présence, son regard, sa mémoire faisaient pression pour que nous restions engagés. Nous croyions que c'était l'autre qui nous transformait. En réalité, c'était nous qui décidions, à chaque instant, de ne pas nous dérober, et la présence de l'autre rendait cette décision plus facile en rendant la dérobade plus coûteuse.
L'IA retire cette facilité. Elle nous laisse seuls avec notre propre sérieux. Et c'est pour cela que la lucidité qu'elle produit se dissipe si vite : non pas parce qu'elle était fausse, mais parce que rien, dans la situation, ne nous oblige à la soutenir. L'IA ne diminue pas le dialogue humain. Elle révèle ce qu'il contenait sans que nous le sachions : non pas la puissance de l'autre sur nous, mais notre propre décision, fragile et répétée, de nous laisser atteindre.
Reste une question que je ne sais pas trancher, et que je laisse ouverte : est-ce que cette décision peut se prendre seul, face à un écran, par un acte de volonté pure ? Ou est-ce qu'elle a besoin, pour tenir dans la durée, de la pression silencieuse d'une présence qui ne nous lâche pas ?
Je ne sais pas. Mais je sais que je ne peux plus faire comme si la question ne se posait pas.
Cet article vous fait réagir ? Vous souhaitez explorer vos propres certitudes avec un interlocuteur qui ne vous lâchera pas ? Rendez-vous sur dialogon.fr pour découvrir la consultation philosophique.







Commentaires