loading . . . John Searle et l’expérience de la chambre chinoise John Searle et l’expérience de la chambre chinoise
hschlegel
mar 30/09/2025 - 15:16
En savoir plus sur John Searle et l’expérience de la chambre chinoise
C’est sans doute l’une des expériences de pensée les plus célèbres de la philosophie du XXe siècle. Elle résonne particulièrement aujourd’hui, à l’heure où les prouesses des IA questionnent nos certitudes sur l’intelligence et la conscience. Alors que la mort du philosophe américain John Searle a été annoncée par le site Daily Nous, retour sur son concept dit de « la chambre chinoise ».
[CTA2]
➤ Cet article est exceptionnellement proposé en accès libre. Pour lire tous les textes publiés chaque jour en exclusivité sur philomag.com, avoir accès au mensuel et aux archives en ligne, abonnez-vous à partir de 1€/mois.
Le philosophe de l’esprit John Searle (1932-2025), qui a longtemps enseigné à Berkeley avant d’en être exclu en 2019 pour présomption de harcèlement sexuel, raconte en ces termes comment il est en venu à formuler le scénario de la « chambre chinoise » au tournant des années 1980.
“Je ne connaissais rien à l’intelligence artificielle. J’ai acheté un manuel au hasard […] L’argument était qu’on pouvait raconter une histoire à un ordinateur et qu’il était capable ensuite de répondre à des questions relatives à cette histoire bien que les réponses ne soient pas expressément données dans le récit. L’histoire était la suivante : un homme va au restaurant, commande un hamburger, on lui sert un hamburger carbonisé, l’homme s’en va sans payer. On demande à l’ordinateur : ‘A-t-il mangé le hamburger ?’ La machine répond par la négative. Les auteurs étaient très contents de ce résultat, qui était censé prouver que l’ordinateur possédait les mêmes capacités de compréhension que nous. C’est à ce moment-là que j’ai conçu l’argument de la chambre chinoise”
John Searle, « Minds, brains, and programs » (« Esprits, cerveaux et programmes »), paru dans la revue Behavioral and Brain Sciences (Cambridge University Press, 1980)
Avec l’argument de la chambre chinoise, Searle entend montrer que l’imitation du comportement linguistique – la capacité à se faire passer pour un locuteur humain, qui était le critère majeur du célèbre test de Turing [lire notre article] – n’est pas un critère pertinent pour affirmer qu’une IA est intelligente au sens fort du mot.
“C’est du chinois”… même pour la machine
Le dispositif se présente ainsi dans l’article « Minds, brains, and programs » (1980). Un individu ne parlant pas chinois est enfermé dans une pièce. On lui fournit un manuel permettant de répondre correctement à des phrases en chinois : un ensemble de règles parfaitement claires pour le protagoniste, basées exclusivement sur la syntaxe. L’opérateur reçoit alors des phrases en chinois – des questions posées par un véritable sinophone à l’extérieur de la chambre – et doit y répondre. Du point de vue du sinophone, les réponses peuvent être entièrement convaincantes, pour peu que les règles syntaxiques soient correctement appliquées : il aura l’impression d’échanger avec un autre sinophone. En réalité, dit Searle, l’opérateur qui applique les règles du manuel ne comprend absolument rien, ni des questions qu’il reçoit, ni des réponses qu’il fournit. Il ne parle pas chinois ; il se contente d’appliquer mécaniquement les règles syntaxiques.
➤ À lire aussi : Turing-Searle : une IA peut-elle se faire passer pour un humain ?
Une intelligence artificielle sophistiquée pourrait remplir le même rôle : convaincre le sinophone extérieur qu’elle parle vraiment chinois. Sa maîtrise des règles syntaxiques, sa capacité à employer les bons symboles au bon moment, ne signifie pas pour autant qu’elle sait parler chinois. Parler une langue implique une conscience du sens des symboles utilisés. Ici, « les manipulations formelles de symboles n’ont en elles-mêmes aucune intentionnalité ; elles sont tout à fait dénuées de sens ; ce ne sont même pas des manipulations de symboles, puisque les symboles ne symbolisent rien. Dans le jargon linguistique, elles n’ont qu’une syntaxe, mais aucune sémantique. L’intentionnalité que semblent avoir les ordinateurs n’existe que dans l’esprit de ceux qui les programment et de ceux qui les utilisent, de ceux qui envoient les données d’entrée et de ceux qui interprètent les données de sortie ». Le programme est syntaxique, pas sémantique. C’est un « système formel » dépourvu de « contenus mentaux », écrit encore Searle. « Pourquoi diable quelqu’un supposerait-il qu’une simulation informatique de la compréhension comprend réellement quelque chose ? »
Le cerveau, plus fort que tous les ordinateurs du monde ?
L’expérience de pensée de Searle s’oppose aux thèses fonctionnalistes et computationnalistes de son temps. Dans ces théories, l’esprit est un programme qui « tourne » sur une machine particulière, biologique : le cerveau. Si un programme est capable de remplir les mêmes fonctions qu’un esprit, alors il n’y a pas vraiment lieu de les distinguer : il faut les déclarer également intelligents. Pour Searle, l’esprit n’est justement pas un programme, une simple « instanciation » de certaines fonctionnalités que peut remplir un programme informatique. S’il « traite de l’information », c’est en un sens complètement différent de ce que fait l’ordinateur qui, au fond, ne « comprend » jamais ce qu’il traite. L’esprit met en jeu des états mentaux. Développer des programmes capables de simuler non pas une mais toutes les fonctionnalités de l’esprit (une IA dite « forte ») ne suffira jamais à créer un esprit artificiel. Pour y parvenir, il faudrait créer une machine capable de produire des états mentaux. Or en l’état, nous n’en connaissons qu’une seule dotée d’un tel « pouvoir causal » : le cerveau. Searle n’exclut pas totalement cette hypothèse, mais il rappelle que nos progrès en termes de programmation ne nous rapprochent pas de cet horizon.
“Ce n’est pas parce que je suis l’instanciation d’un programme informatique que je suis capable de comprendre l’anglais et d’avoir d’autres formes d’intentionnalité […] mais, pour autant que nous le sachions, c’est parce que je suis un certain type d’organisme doté d’une certaine structure biologique (c’est-à-dire chimique et physique) et que cette structure, dans certaines conditions, est causalement capable de produire la perception, l’action, la compréhension, l’apprentissage et d’autres phénomènes intentionnels. […] Seul quelque chose qui possède ces pouvoirs causaux peut avoir une intentionnalité. Peut-être que d’autres processus physiques et chimiques pourraient produire exactement ces effets ; peut-être, par exemple, que les Martiens ont-ils aussi une intentionnalité, mais que leur cerveau est fait d’une matière différente”
John Searle
L’expérience de pensée dite de « la chambre chinoise » a été abondamment commentée, discutée, critiquée. On ne saurait résumer ici les innombrables arguments avancées en faveur et en défaveur de la proposition de Searle. Une chose est certaine : avec son article « Minds, brains, and programs », le philosophe américain, mort le 17 septembre 2025 à l’âge de 93 ans, a marqué durablement les réflexions sur l’intelligence artificielle.
Ce texte vous a plu ? Découvrez d’autres articles de Philosophie magazine en vous inscrivant à notre infolettre gratuite ou en choisissant l’offre d’abonnement qui vous convient. Vous participerez ainsi au soutien d’un magazine 100% indépendant, qui propose une analyse originale et approfondie de l’actualité !
septembre 2025 https://www.philomag.com/articles/john-searle-et-lexperience-de-la-chambre-chinoise?utm_source=&utm_campaign=socialpilot