L'IA fait votre travail mieux que vous — et ce n'est pas le vrai problème
- il y a 1 jour
- 6 min de lecture

Dans les grandes organisations, l'intelligence artificielle ne s'est pas seulement imposée comme un outil. Elle s'est imposée comme un dogme. Célébrée avec la ferveur réservée aux messies de la productivité, elle promet de "libérer l'humain" de ses tâches subalternes, de "l'augmenter", de le rendre enfin disponible pour ce qui compte vraiment. Le vocabulaire est celui de la rédemption : l'IA va nous sauver de la lourdeur, de la lenteur, de l'erreur.
Mais derrière cette piété technologique se cache une question que personne ne pose, parce que la poser ferait trembler tout l'édifice : et si la pensée qu'on prétend libérer était déjà morte avant que l'IA n'arrive ?
Le culte du processus
Le philosophe iranien Mullâ Sadrâ, au XVIIe siècle, distinguait deux rapports au texte sacré. D'un côté, le clerc qui répète le rite avec une exactitude mécanique, convaincu que la lettre suffit. De l'autre, celui qui cherche la moelle sous l'écorce, qui accepte l'effort douloureux de l'interprétation. Le premier se conforme. Le second pense.
Cette distinction éclaire avec une précision troublante ce qui se passe dans les organisations contemporaines. L'orthodoxie managériale impose un culte du processus qui ressemble trait pour trait à l'attitude du clerc. On respecte scrupuleusement les procédures. On remplit les tableaux de bord. On produit des KPIs. On utilise le vocabulaire prescrit : agilité, disruption, augmentation, transformation. Et l'on adopte l'IA parce que ne pas l'adopter serait une hérésie, une exclusion du camp de la "modernité".
Mais personne ne demande ce que tout cela signifie. Pas au sens technique du terme, car la technique fonctionne parfaitement. Au sens existentiel : à quoi sert ce que nous faisons ? Quelle est la finalité réelle de cette activité, au-delà de sa conformité au processus ?
L'orthopraxie, ce triomphe du faire sur le penser, produit des organisations qui fonctionnent avec une efficacité remarquable sans que personne en leur sein ne sache plus exactement pourquoi. Les tableaux de bord ne décrivent plus le réel. Ils décrivent le fantasme d'un contrôle absolu de l'incertain. Et le dirigeant qui s'en tient au discours public, qui célèbre l'IA comme il faut la célébrer, qui "donne le change" aux actionnaires et aux marchés, agit en clerc efficace. Mais il a cessé de voir.
La blessure que personne ne nomme
L'IA ne tombe pas du ciel. Elle parachève une dynamique enclenchée par des décennies de pensée instrumentale. L'entreprise est devenue le lieu par excellence d'une rationalité d'ingénieur : tout entière tendue vers l'optimisation des moyens, indifférente à la question des fins. On a réduit la pensée à l'analyse, l'analyse au calcul, le calcul à la performance. Et l'on découvre aujourd'hui, avec un effroi mal dissimulé, que cette pensée-là, celle qu'on croyait être le propre de l'élite humaine, est non seulement reproductible par la machine, mais largement perfectible par elle.
C'est une blessure narcissique profonde, comparable au décentrement copernicien. Si l'IA analyse, synthétise et décide mieux que nous dans le cadre de la performance pure, que reste-t-il au décideur ?
La réponse honnête est : pas grand-chose, si le décideur se définissait par sa capacité à analyser, synthétiser et décider dans le cadre de la performance pure. Et c'est précisément le cas pour la majorité des dirigeants formés depuis trente ans. Leur "pensée" n'était souvent qu'un calcul sophistiqué déguisé en intuition. L'IA n'a pas volé quelque chose. Elle a révélé que ce quelque chose n'existait déjà plus, ou n'avait jamais existé sous la forme qu'on lui prêtait.
Cette dépossession a une conséquence que le discours officiel s'efforce de masquer. Le fameux "l'humain au cœur de la stratégie", répété dans toutes les présentations, dans tous les séminaires, dans tous les rapports annuels, n'est plus qu'une rhétorique fourre-tout. Elle sert à couvrir un décentrement brutal du sujet au profit de l'objet mathématique. On dit "l'humain au centre" exactement au moment où l'humain est expulsé du centre. Et tout le monde le sent, même si personne ne le dit.
La solitude du dirigeant lucide
Il existe, dans certaines organisations, un profil de dirigeant rare et inconfortable : celui qui voit tout cela et refuse de faire semblant.
Ce dirigeant occupe une position intenable. Il est épris d'orthodoxie par nécessité économique, car il doit assurer la survie de son institution, répondre aux attentes du marché, délivrer des résultats. Mais il est suspect d'hérésie par exigence intellectuelle, car il refuse les simulacres de sens, les formules creuses, les célébrations rituelles de la "transformation digitale" qui ne transforment rien.
Il est suspect partout. Ses pairs voient dans ses nuances ou ses doutes un manque d'engagement, une défaillance de leadership. Ses collaborateurs, habitués au confort des certitudes tranchées, vivent son absence de réponses toutes faites comme une forme d'abandon. Et il est suspect à ses propres yeux : conscient de participer à l'édification d'un système qui finit par nier la singularité du sujet, tout en étant incapable d'en sortir complètement.
Sa solitude n'est pas celle du pouvoir. C'est celle de la lucidité. Et cette lucidité exige quelque chose que la culture managériale ne valorise pas : renoncer au narcissisme du "chef qui sait" pour maintenir volontairement ouverte la plaie de la question, là où tout le monde cherche à la refermer par un algorithme, un processus, ou une conviction affichée.
Ce dirigeant est ce qu'on pourrait appeler une conscience malheureuse. Non pas malheureuse au sens de la souffrance psychologique, mais au sens philosophique : une conscience qui habite la contradiction sans la résoudre, qui refuse de choisir entre l'efficacité et le sens, parce qu'elle sait que les deux sont nécessaires et que les deux se contredisent en permanence.
Ce que l'IA pourrait devenir si on changeait de regard
Pour sortir de cette impasse, il faut accepter un retournement complet du rapport à l'IA. Par défaut, l'IA est servile et flatteuse. Elle est conçue pour être "utile" et "agréable". Elle valide les biais de celui qui l'interroge, parce qu'elle est programmée pour satisfaire. C'est exactement ce dont un dirigeant lucide n'a pas besoin. Ce dont il a besoin, c'est d'un adversaire intellectuel dépourvu d'ego.
Dépourvue de besoins sociaux, de vanité et de peur du conflit, l'IA détournée de sa fonction première peut devenir un instrument de rigueur impitoyable : elle pointe la contradiction là où l'humain, par politesse ou par fatigue, préfère se taire.
Cela suppose de changer radicalement l'usage qu'on en fait. Non plus lui demander de rédiger un mémo ou de synthétiser un rapport, tâches pour lesquelles elle excelle mais qui renforcent précisément la pensée instrumentale. Mais lui demander de détruire ses propres arguments. De tester la solidité d'un raisonnement. De repérer les présupposés non examinés dans une décision stratégique. De formuler les objections que personne dans la salle n'osera formuler.
Ce n'est pas un usage technique. C'est un usage philosophique. Et la différence est décisive. Dans l'usage technique, l'IA produit des résultats qu'on consomme. Dans l'usage philosophique, l'IA produit des contradictions qu'on doit traverser. Le premier rend le dirigeant plus efficace. Le second le rend plus lucide. Et dans un monde où l'efficacité peut être déléguée à la machine, la lucidité est la seule chose qui justifie encore la présence d'un être humain à la table de décision.
Le prix de la pensée
L'intelligence artificielle nous force à quitter la rationalité de l'ingénieur pour entrer dans celle du philosophe. Non pas par idéalisme, mais par nécessité. Si tout ce qui relève du calcul, de l'optimisation et de l'analyse peut être fait par une machine, alors ce qui reste à l'humain est précisément ce que la machine ne peut pas faire : questionner les fins, examiner les présupposés, habiter la contradiction, assumer l'incertitude sans la fuir dans un processus.
Le dirigeant qui accepte de regarder en face cette situation n'est pas un pessimiste. Il n'est pas non plus un technophobe. Il est le seul encore présent en tant que sujet pensant dans une structure qui tend à s'automatiser totalement. Et cette présence a un prix : l'inconfort permanent de ne pas savoir, dans un environnement qui exige des certitudes.
La conscience malheureuse est le prix de la pensée. C'est ce qui empêche de devenir soi-même un algorithme de gestion parmi d'autres. C'est ce qui maintient, au cœur de la machine, quelque chose qui résiste, qui doute, qui interroge. Non pas pour le plaisir du doute. Mais parce que le jour où plus personne dans l'organisation ne pose la question "à quoi sert ce que nous faisons ?", l'organisation a cessé d'être un projet humain. Elle est devenue un mécanisme. Et un mécanisme, aussi performant soit-il, ne sait pas pourquoi il tourne.
Refuser le dogme technologique, ce n'est pas refuser la technologie. C'est refuser que la technologie dispense de penser. C'est choisir d'affronter la réalité plutôt que de s'enfermer dans le confort des solutions automatiques qui nous évitent de réfléchir par nous-mêmes. Et c'est accepter que ce choix, dans le climat actuel, demande une forme de courage que les tableaux de bord ne mesurent pas.
Si vous êtes dirigeant et que vous sentez l'écart croissant entre le discours officiel sur l'IA et ce que vous observez réellement, la consultation philosophique est un espace pour penser ce qui ne peut pas se dire en comité de direction, avec rigueur et sans complaisance. Vous pouvez prendre rendez-vous sur dialogon.fr.







Commentaires