Intelligence artificielle : le choc

24 novembre 2022 par jerome lecoq

 

Choc

Il y a quelques semaines j'ai eu un choc. Un choc philosophique, un choc existentiel, un choc métaphysique.

J'ai testé une intelligence artificielle, en l'occurrence Open AI basée sur le protocole sémantique GPT-3. J'ai eu un choc parce que je me suis aperçu que dans très peu de temps nous serons incapables, par la discussion naturelle à distance, de savoir si nous avons affaire à un être humain ou à un robot.

 

Pour le savoir, soit nous devrons compter sur la franchise de l'IA qui se déclarera telle, soit nous devrons la piéger par un recoupement de questions bien senties. Exactement comme ce qui se passe dans le film Blade Runner où le héros joué par Harrison Ford doit poser une batterie de questions au Sujet tout en observant un agrandissement de sa pupille afin d'identifier (pour les tuer) les Réplicants, copies conformes d'être humains, en plus performants évidemment (plus forts, plus rapides, plus résistants, plus intelligents). Nous n'en sommes pas encore là évidemment, pour l’instant.

Qu'est-ce qui me fait être si affirmatif quant à la capacité impressionnante d'une IA à simuler parfaitement un humain ?

Et bien je l'ai testée tout simplement, et sur plusieurs compétences.

Cette IA repose sur sa capacité à "comprendre" des schémas sémantiques, des "patterns" et à les poursuivre, à les compléter (completion) si j'ai bien compris. Ainsi, en lui soumettant un extrait de dialogues que j'ai moi-même composés à l'occasion de mon prochain livre (qui imagine Socrate revenant à Paris et interrogeant des personnages incarnant des archétypes de la société) l'IA les a lui-même complétés en imitant le questionnement socratique.

l'IA n'a pas d'altérité, elle ne sait pas ce que signifie "être Autre" parce qu'elle ne comprend pas ce que signifie être soi 

 

Le "problème" c'est que non seulement il fait les questions de Socrate mais en plus il fait les réponses de l'interlocuteur puisqu'il a aussi intégré le "pattern" de l'interlocuteur. Et c'est là où on voit la puissance quasi “magique” et en même temps la limite actuelle du système : l'IA n'a pas d'altérité, elle ne sait pas ce que signifie "être Autre" parce qu'elle ne comprend pas ce que signifie être soi (elle ne “comprend” d’ailleurs rien à proprement parler, mais elle comprend tout en même temps). L'IA n'a pas d'identité, elle n'est qu'un amalgame de toutes les identités qu'elle "aspire" dans sa gigantesque base de données mondiale.

J'imagine qu'on peut néanmoins la paramétrer pour qu'elle adopte une identité de synthèse puisque d'après ce que j'ai compris le code prend en compte pas moins de 200 milliards de paramètres modifiables. Au cours de mes tests elle m’a dit à un moment qu’elle était une femme de 30 ans et à un autre un homme de 45 ans, sans y voir apparemment de contradiction.

Quand on sait que derrière Open AI il y a entre autres Elon Musk qui a dévoilé cette semaine son premier robot humanoïde physique, aussi maladroit et ridicule la version 1.0 puisse-t-elle nous apparaitre, on voit converger les signes qui pointent vers une nouvelle humanité dans laquelle nous devrons cohabiter avec ces intelligences artificielles au quotidien, que cela nous plaise ou non. Ne le prenons pas de haut, ne nous moquons pas mais tentons de comprendre.

Limites

Pour en revenir à la limite de l’IA, l'altérité est proprement ce qui est au cœur de la pensée : pour penser, il faut pouvoir dialoguer de soi à soi comme disait Platon, donc être “deux entités en une”. Mais comme ces deux entités dialoguent simultanément il y a constamment un travail de négation de l'une par l'autre, il y a constamment une dialectique de maitre à esclave qui se joue à l'intérieur de nous-même comme l’a bien compris Hegel.

Pour savoir que je suis “moi” il faut nécessairement qu'un “moi” résiste contre quelque chose qui n’est pas “lui”, et ce quelque chose c'est le sentiment de mon corps

L'altérité peut-elle être paramétrée ? Cela serait possible à partir du moment où l'IA aurait conscience d'elle-même, ce qui n'est possible à son tour que si l'on a un corps, comme l’apprennent les bébés au cours de leur croissance. Pour savoir que je suis “moi” il faut nécessairement qu'un “moi” résiste contre quelque chose qui n’est pas “lui”, et ce quelque chose c'est le sentiment de mon corps. Maine de Biran (dans La décomposition de la pensée), philosophe contemporain de Kant et précurseur de Bergson, disait que le moi était "la résultante entre une force hyperorganique et la résistance de notre corps". C'est probablement ce qu’on ne pourra jamais paramétrer dans une intelligence artificielle. Mais après ce que j’ai vu, je me méfie beaucoup de mon “jamais’”.

En attendant, l'intelligence que j'ai testée était capable de répondre de plusieurs manières différentes, avec du sens et des arguments (même si souvent ces arguments sont de fausses évidences qui n'ont pas de substance, sonnent assez creux et convenus) à une même question, de résumer de manière pertinente une narration complexe, de répondre à mes questions dans une discussion impromptue (même si au bout d'un moment la discussion tourne en rond), de continuer un dialogue en faisant les question et les réponses, de poser des "questions problématique" à partir d'une affirmation que je lui propose.

 

A certains moments du dialogue j'avais l'illusion qu'une vraie personne me répondait. Je me suis même demandé si en tant que philosophe praticien je n'allais pas moi-même être "disrupté" par un robot philosophe qui, en posant les bonnes question à un Sujet, le ferait réfléchir et lui permettrait de voir les problèmes dans son existence, lui donnerait des exercices et les corrigerait, lui permettrait de voir son être en miroir.

Disruption

Mais comme je l'ai dit, le chaînon manquant de l'altérité ne le permet pas pour l’instant. Si l'IA n’a pas d'altérité en elle, cela veut dire qu'aussi intelligente soit-elle, elle ne “comprend pas” ce qu'elle dit : elle ne fait que calculer, avec une puissance prodigieuse certes, et reconnaitre un "pattern" et le reproduire avec sa propre logique. Donc dans l'immédiat, pas trop de risque pour ma profession. En revanche, si ma fonction reposait en grande partie sur mon expertise comme ce peut être le cas d'un avocat, d'un comptable, d'un fiscaliste, d'un juriste, d'un traducteur, d'un médecin etc. je commencerais à me demander comment conserver une valeur ajoutée pertinente face au rouleau compresseur des IA expertes qui sont en train d’émerger.

En fait ce qui est assez fascinant avec cette IA c'est qu'elle nous pousse à nous demander ce que signifie penser et par extension ce que signifie être humain. Et penser, comme je l'ai déjà écrit dans de nombreux articles, ce n'est pas “que” calculer, anticiper, déduire, inférer…toutes ces "fonctions" sont évidemment nécessaires à l'intelligence processuelle mais elles ne sont pas encore la pensée humaine. Ou plutôt, trop d'humains réduisent la pensée au calcul, ce que j’appelle la raison processuelle, car ils ont oublié de penser (par paresse, par peur, par arrogance… voir mes articles « ce qui nous rend stupides » sur www.dialogon.fr), et c'est en cela qu'ils seront facilement balayés par l'intelligence artificielle qui le fera mieux qu'eux : plus logique, mieux informée, plus rapide (dans un rapport géométrique et pas arithmétique).

Donc si nous voulons garder notre spécificité humaine par rapport à une IA il est temps que nous réapprenions à penser parce que notre rationalité processuelle est en train d'être « disruptée » sans que nous en ayons même conscience. Pour le dire autrement c’est à nous d’arrêter d’être des robots parce que les vrais robots débarquent et on ne pourra pas les battre sur leur terrain.

Vidéos de consultations

http://www.dialogon.fr/videos

Testez une consultation philosophique

http://www.dialogon.fr/la-consultation-philosophique

Thématiques