L’argument de La Chambre Chinoise de Searle

L’article de John Searle de 1980, Minds, Brains, and Programs, n’était pas une attaque générale contre l’intelligence artificielle, ni un plaidoyer mystique en faveur de l’ineffable humain. Il visait une thèse bien précise, qu’il a malheureusement baptisée « Strong AI », mais qui correspond à ce que l’on appelle plus clairement aujourd’hui le computationnalisme (« C = C »): l’idée que la cognition est rien de plus que de la computation, autrement dit que les états mentaux sont des états computationnels, indépendants du support matériel qui les implémente.

Dans le cadre du cours, il est crucial de formuler correctement la cible de Searle. Il ne s’agit pas de savoir si les ordinateurs sont utiles pour modéliser la cognition (ce que Searle accepte), ni si des machines peuvent faire des choses impressionnantes. La question est celle-ci : si un système purement computationnel réussissait le test de Turing verbal (T2) à l’échelle d’une vie entière, serait-il pour autant en train de comprendre ce qu’il dit ? Le test est radical : pas un jeu de cinq minutes, pas une démonstration de surface, mais une indiscernabilité verbale durable avec des interlocuteurs humains normaux, sur n’importe quel sujet.

L’expérience de pensée de la Chambre chinoise suppose précisément ce cas. Imaginons qu’un programme permette de passer avec succès un tel test en chinois. Searle, qui ne comprend pas le chinois, est placé dans une pièce et reçoit des chaînes de symboles chinois. À l’aide de règles formelles (un algorithme) exprimées en anglais, il manipule ces symboles et renvoie d’autres symboles chinois. De l’extérieur, le comportement est indistinguable de celui d’un locuteur chinois natif : questions, réponses, discussions prolongées sur n’importe quel sujet imaginable. Pourtant, du point de vue interne, Searle n’a aucune compréhension du chinois. Il ne sait pas ce que signifient les symboles qu’il manipule.

L’argument repose alors sur un principe central du computationnalisme : l’indĂ©pendance du logiciel (l’algorithme) de son implĂ©mentation matĂ©rielle. Si comprendre une langue Ă©tait une propriĂ©tĂ© purement computationnelle, alors tout système implĂ©mentant le bon programme devrait comprendre, indĂ©pendamment du matĂ©riau qui l’implĂ©mente. Or Searle implĂ©mente prĂ©cisĂ©ment ce programme. Et pourtant, il ne comprend rien. C’est ici qu’intervient ce qu’on a appelĂ© plus tard « le pĂ©riscope de Searle » : une rare occasion de franchir la barrière des autres esprits. Normalement, nous ne pouvons jamais savoir, de l’intĂ©rieur, si un autre système comprend ou ressent quelque chose. Mais si la cognition Ă©tait identique Ă  la computation, alors en devenant l’implĂ©mentation matĂ©rielle du programme, Searle devrait avoir accès direct Ă  l’état mental supposĂ©. Il n’y a rien Ă  voir. Donc la conclusion est inĂ©vitable : la cognition n’est pas identique Ă  la computation. Plus prĂ©cisĂ©ment, elle ne peut pas ĂŞtre entièrement computationnelle.

C’est là que commencent les malentendus, souvent entretenus par Searle lui-même. La réponse la plus célèbre est la « System Reply » : Searle ne serait qu’une partie du système, et c’est le système global — Searle plus les règles, les symboles, la pièce — qui comprendrait le chinois. Searle réplique en internalisant le système : il mémorise les règles et effectue toutes les manipulations dans sa tête. Rien ne change : il n’y a toujours aucune compréhension. Cette réplique est décisive contre l’idée que la simple agrégation de composants syntaxiques puisse engendrer du sens.

Mais beaucoup de critiques ont refusé la conclusion en raison de formulations confuses. D’abord, l’usage par Searle des termes « Strong AI » et « Weak AI » a brouillé le débat. « Weak AI » désigne en réalité la thèse forte de Church-Turing : que la computation peut simuler pratiquement n’importe quel processus. Cette thèse est compatible avec l’argument de Searle. L’argument ne montre pas que la cognition ne peut pas être simulée, mais qu’une simulation computationnelle n’est pas, en elle-même, une compréhension.

Deuxième confusion : l’idée que Searle aurait réfuté le test de Turing en tant que tel. C’est faux. L’argument montre seulement que T2, pris isolément et sous une interprétation strictement computationnelle, ne garantit pas la compréhension. Il ne dit rien contre T3 (ancrage sensorimoteur) ni contre T4 (duplication structurelle complète). En fait, l’argument laisse entièrement ouverte la possibilité qu’un système hybride — computationnel et non computationnel — puisse comprendre, ou qu’un système robotique ancré dans le monde puisse acquérir des significations que Searle, enfermé dans sa pièce, ne peut pas acquérir.

Troisième erreur fréquente : croire que Searle aurait montré que « la cognition n’est pas computationnelle du tout ». L’argument ne montre rien de tel. Il montre seulement que la cognition ne peut pas être uniquement computationnelle. La computation peut parfaitement jouer un rôle causal essentiel dans un système cognitif, sans en épuiser les propriétés sémantiques. Sur ce point, la « System Reply » avait une intuition juste, même si elle échouait comme réfutation : comprendre peut être une propriété d’un système global, mais pas d’un système purement syntaxique.

Enfin, Searle a lui-même surinterprété sa conclusion en suggérant que la solution devait nécessairement passer par la duplication des pouvoirs causaux du cerveau biologique. Rien dans l’argument n’impose un tel saut vers T4. Il reste une vaste gamme de possibilités intermédiaires : systèmes dynamiques non computationnels, architectures hybrides, réseaux neuronaux couplés au monde, agents sensorimoteurs apprenant par interaction. L’argument ne tranche pas en faveur des neurosciences contre la science cognitive. Il tranche uniquement contre le computationnalisme pur.

Malgré ces excès et ces confusions, l’importance historique de la Chambre chinoise est considérable. Elle a forcé la discipline à distinguer clairement syntaxe et sémantique, simulation et instanciation, performance verbale et compréhension. Elle a aussi préparé le terrain pour ce qui deviendra explicitement, quelques années plus tard, le problème de l’ancrage des symboles : comment des symboles formels peuvent-ils acquérir une signification intrinsèque pour un système, plutôt que seulement une interprétation extrinsèque par un observateur ?

La leçon méthodologique centrale est donc la suivante : passer un test comportemental, même très exigeant, n’explique pas en soi comment le sens est généré. L’argument de Searle ne ferme pas la route vers une science mécaniste de la cognition. Il ferme seulement une impasse : celle qui croyait pouvoir expliquer l’esprit par la manipulation de symboles non ancrés. En ce sens, loin d’être un obstacle, la Chambre chinoise a été un déclencheur. Elle a rendu inévitable la question qui structure la suite du cours : comment relier les symboles au monde, et le langage à l’action et à la perception.