Suffit-il à un ordinateur de parler pour penser ?
Alexandre Lacroix, rédacteur en chef de Philosophie Magazine est l'invité de Bernard Thomasson.
Car Eugène n’est pas un humain, mais un programme informatique qui fait la conversation (ce qu’on appelle un « chat-bot »).
La compétition, organisée par l’université de Reading, à Londres, le 7 juin, était censée reproduire les conditions décrites par Alan Turing, savant britannique et pionnier de l’informatique. A la question épineuse : « Les machines peuvent-elles penser ? », Turing a proposé une réponse habile et indirecte, en fixant les règles de ce qu’il appelle le « jeu de l’imitation ». En résumé, une personne communique à l’aveugle par messages écrits interposés avec deux partenaires, dont l’un est un humain et l’autre un ordinateur qui essaie de se faire passer pour un humain. Le test est considéré comme réussi si le juge n’arrive pas à déterminer qui est l’humain, qui est la machine. En 1950, Alan Turing a fait une prédiction : « dans cinquante ans », il sera sans doute possible de programmer un ordinateur « de telle façon qu’un interrogateur moyen n’aura pas plus de 70% de chances de procéder à la bonne identification après cinq minutes de conversation ». Pour concevoir son test, Turing s’est inspiré de Descartes, qui écrit dans la cinquième partie du Discours de la méthode (1637) : « on peut bien concevoir qu’une machine soit tellement faite qu’elle profère des paroles (…)", par exemple qu'elle prononce tel ou tel mot quand on appuie sur tel ou tel endroit de son corps, "mais non pas qu’elle les arrange diversement, pour répondre au sens de tout ce qui se dira en sa présence, ainsi que les hommes les plus hébétés peuvent le faire. »
Bernard Thomasson : Eugène Goodman a un peu triché, quand même ?
Oui, disons que la tâche lui a été facilitée. Eugène a réussi à faire croire à 10 juges sur 30 qu’il était un adolescent ukrainien durant cinq minutes, mais s'est présenté comme âgé de treize ans seulement et ne possédant pas l’anglais comme langue maternelle. N’importe, il est probable que les performances des "chatbots" s’amélioreront dans les années à venir, et que d’ici quelques décennies un programme puisse se faire passer pour un étudiant en philosophie en trompant un jury de l’agrégation (peut-être est-ce déjà arrivé).
Bernard Thomasson: Cela veut dire que l'intelligence artificielle est en bonne voie ?
Sans doute, sauf qu'on ne peut pas éviter de se poser la question centrale : si un chat-bot peut discuter avec vous en se faisant passer pour un humain, cela signifie-t-il que le programme pense ? Le philosophe américain Harold Searles ne le croit pas, qui a opposé au test de Turing le célèbre exemple de la « chambre chinoise » (1980). Supposons qu’un homme soit enfermé dans une pièce, et qu’on lui transmette des messages en caractères chinois. Cet homme ne lit pas le chinois, mais il possède un manuel très détaillé, qui lui permet de trouver, pour chaque question qu’on lui pose, une petite plaquette sur laquelle une réponse appropriée est calligraphiée. Le questionneur, à l’extérieur de la chambre, pourra avoir l’illusion de converser avec quelqu’un qui connaît le chinois. Or, il n’en est rien. Ce qui veut dire que l’ordinateur, même s’il fait la conversation, ne comprend pas ce qu’il dit. Il exécute des règles syntaxiques, mais sans contenu sémantique – les mots n’ont pas de sens pour lui.
Un autre exemple célèbre a été avancé par le philosophe américain Hillary Putnam, celui du « cerveau dans la cuve » (1981). Supposons qu’un cerveau baigne dans une cuve, sans corps. Ce cerveau peut certes penser, mais il lui manque une dimension essentielle : il ne sait pas à quoi les mots « pomme » ou « arbre » se réfèrent, car il n’a pas d’expérience sensorielle du monde, et qu’il n’a jamais interagi avec les choses. Autrement dit, pour celui qui n’a pas de corps, les mots n’évoquent aucune image mentale, ils restent vides. Pour conclure, Eugène peut bien employer le mot « cerise », cela ne lui fait venir aucune saveur dans la bouche. On se console comme on peut…
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.