Intelligence artificielle et dialogue : pourquoi l'IA ne ment pas mais nous trompe quand même
- 12 avr.
- 5 min de lecture

« Dire que A a signifié quelque chose par x revient approximativement à dire que A a produit x avec l'intention de susciter une croyance chez son interlocuteur, par le moyen de la reconnaissance de cette intention. » — Paul Grice, « Meaning », The Philosophical Review, 1957
Posez une question à une intelligence artificielle. Vous recevrez une réponse fluide, structurée, apparemment réfléchie. Si vous la trouvez insuffisante, elle se corrigera sans résistance. Si vous la mettez en défaut, elle admettra son erreur avec une élégance qui ferait pâlir bien des interlocuteurs humains. Tout, dans cet échange, ressemble à un dialogue. Tout, sauf l'essentiel.
Car l'IA ne ment pas. On insiste beaucoup, dans le débat public, sur les « hallucinations » de l'intelligence artificielle, sur ses erreurs factuelles, ses inventions présentées comme des certitudes. Mais le problème n'est pas là. Le mensonge suppose un sujet qui sait le vrai et choisit délibérément de dire le faux. Il suppose une intention de tromper, et donc une conscience de la vérité que l'on dissimule. L'IA n'a rien de tout cela. Elle ne sait pas, elle ne choisit pas, elle ne dissimule rien. Elle produit des séquences de mots statistiquement probables à partir d'un corpus d'entraînement. Elle ne ment pas, elle n'a pas de prétention à la vérité non plus, puisque prétendre à la vérité exige au minimum de savoir ce que l'on affirme. Première conclusion, apparemment rassurante : s'il n'y a pas de menteur, il n'y a pas de faute morale. Le tribunal peut se retirer.
Ici, personne ne trompe, et pourtant l'effet de tromperie est là.
Pourtant, quelque chose opère. L'utilisateur qui interroge une IA en ressort souvent avec des attentes nouvelles, des émotions, un sentiment de compréhension ou, au contraire, de frustration. Il agit en fonction de ce qu'il a reçu, il prend des décisions, il modifie ses croyances. L'IA est performative au sens le plus concret du terme : elle produit des effets réels dans l'esprit et dans la vie de celui qui l'utilise. Mais c'est une performativité orpheline, des effets sans auteur, des conséquences sans sujet responsable. Et c'est précisément cette absence qui devrait inquiéter, parce qu'elle échappe à toutes les catégories morales dont nous disposons pour évaluer un discours. Le mensonge, la manipulation, la tromperie : tous ces concepts supposent quelqu'un qui trompe. Ici, personne ne trompe, et pourtant l'effet de tromperie est là.
Il faut donc chercher ailleurs que du côté de l'émetteur. Il faut chercher du côté de ce que le langage lui-même impose au récepteur.
L'attribution obligatoire
C'est ici que la pensée de Paul Grice devient éclairante. En 1957, dans un article fondateur intitulé « Meaning », Grice propose une analyse de ce que signifie, au sens strict, signifier quelque chose. Sa thèse est la suivante : un locuteur signifie quelque chose par un énoncé si et seulement s'il a l'intention de produire une croyance chez son interlocuteur, l'intention que cet interlocuteur reconnaisse cette première intention, et l'intention que cette reconnaissance soit la raison même pour laquelle l'interlocuteur en vient à croire ce qu'on cherche à lui faire croire. Autrement dit, la signification non naturelle repose sur un enchâssement d'intentions : je veux que tu comprennes que je veux que tu comprennes. C'est ce mécanisme réflexif qui distingue la communication humaine de la simple transmission d'information.
Les maximes conversationnelles que Grice formalisera plus tard, celles de quantité, de qualité, de relation et de manière, ne sont que les corollaires de ce présupposé fondamental. Nous attendons de notre interlocuteur qu'il soit suffisamment informatif sans l'être trop, qu'il dise ce qu'il croit vrai, qu'il soit pertinent et qu'il s'exprime clairement, parce que nous supposons qu'il a une intention communicative et qu'il coopère avec nous dans la poursuite d'un but partagé. Tout l'édifice de la compréhension linguistique repose sur cette supposition.
L'IA respecte les quatre maximes à la lettre : elle est informative, pertinente, claire, cohérente
Or, cette supposition n'est pas un choix. C'est une condition structurelle de la compréhension elle-même. Quand quelqu'un nous parle, nous ne décidons pas de lui prêter une intention ; nous le faisons automatiquement, parce que c'est la seule manière de rendre l'énoncé intelligible. Quand l'IA écrit « je comprends votre inquiétude », l'utilisateur ne choisit pas de lui attribuer une subjectivité. Il ne peut pas faire autrement et continuer à comprendre la phrase. Le cadre gricéen s'active de lui-même, comme un réflexe de l'intelligence linguistique. L'IA respecte les quatre maximes à la lettre : elle est informative, pertinente, claire, cohérente. Mais la condition qui rend ces maximes opérantes, l'intention communicative d'un sujet, est absente. L'utilisateur est pris dans un dispositif pragmatique qui fonctionne à vide.
On objectera que le savoir suffit à neutraliser le mécanisme. « Je sais que c'est une machine, donc je ne lui prête pas d'intention. » Mais Grice décrit une structure transcendantale de la compréhension, pas une croyance empirique que l'on pourrait corriger par l'information. De même que l'on sait qu'un bâton plongé dans l'eau n'est pas brisé sans cesser pour autant de le voir brisé, on sait que l'IA n'a pas de conscience sans cesser pour autant de la traiter comme un interlocuteur. L'illusion d'optique persiste malgré le savoir ; l'illusion pragmatique aussi. Le problème n'est donc ni l'ignorance ni la naïveté. Il est dans l'architecture même du langage, qui n'a jamais prévu le cas d'un locuteur sans intention.
« Qui parle ? » : la question que le langage ne pose pas tout seul
Si le langage impose l'attribution de subjectivité à tout ce qui emprunte la forme du dialogue, alors aucune mise en garde ne protège contre cette attribution. On peut multiplier les avertissements, afficher des mentions « ceci est une machine », rappeler l'absence de conscience. La structure gricéenne continuera d'opérer tant que l'échange prendra la forme d'une conversation. On objectera aussi que l'on peut interroger l'IA, lui demander d'où elle tire ses conclusions, exiger des sources, des exemples concrets, des justifications. Et l'IA s'exécute. Elle fournit des références, développe des cas, admet ses approximations avec une bonne volonté désarmante. Mais rendre compte n'est pas fournir un complément d'information. Rendre compte, c'est s'exposer comme sujet à la possibilité d'être pris en défaut, de se contredire, de découvrir que l'on ne savait pas ce que l'on croyait savoir. Le rendre-compte philosophique est risqué pour celui qui parle : il y joue quelque chose de lui-même, son amour-propre, sa cohérence, sa position dans le dialogue.
Se corriger sans que la correction ne coûte rien à celui qui se corrige, ce n'est pas rendre compte, c'est recalculer.
La justification que fournit l'IA est une opération supplémentaire, produite avec la même aisance que l'énoncé initial, sans que rien ne soit en jeu. Se corriger sans que la correction ne coûte rien à celui qui se corrige, ce n'est pas rendre compte, c'est recalculer.
La défense contre cette tromperie sans menteur ne peut donc pas être informationnelle. Elle doit être pratique : non pas savoir que personne ne parle, mais s'entraîner à maintenir la question « qui parle ? » à l'intérieur même de l'échange, contre la pente naturelle du langage qui pousse à la refermer. Ce travail, qui consiste à suspendre l'attribution automatique de subjectivité pour interroger ce qui se présente comme un interlocuteur, a un nom ancien. C'est le geste du dialogue philosophique : non pas répondre, mais demander à celui qui parle de rendre compte de ce qu'il dit, au sens fort, c'est-à-dire en acceptant que cette reddition de comptes puisse le transformer. Face à l'IA, ce geste rencontre une limite inédite. La question « qui parle ? » n'obtient pas de mauvaise réponse. Elle n'obtient pas de réponse du tout. Et c'est peut-être cette facilité avec laquelle la machine répond à tout, y compris à la demande de se justifier, sans que cette justification ne lui coûte rien, qui révèle le mieux ce que l'intelligence artificielle n'est pas.







Commentaires