Semaine 4 : Localisation cĂ©rĂ©brale et neurones miroirs : Du « oĂą et quand » Ă  l’architecture fonctionnelle

La critique de Fodor : Localiser n’est pas expliquer. Jerry Fodor pose une question dĂ©rangeante : pourquoi cette fascination pour la localisation des fonctions mentales dans le cerveau ? Les techniques d’imagerie cĂ©rĂ©brale nous rĂ©vèlent oĂą et quand certaines rĂ©gions s’activent durant des tâches cognitives spĂ©cifiques. Un secteur s’illumine quand on pense aux thĂ©ières, un autre quand on entend des noms plutĂ´t que des verbes, un autre encore quand on voit des lĂ©gumes. Mais quelle connaissance gagnons-nous vraiment ?

L’argument central de Fodor est simple mais dĂ©vastateur : savoir oĂą se produit une fonction ne nous dit rien sur comment elle se rĂ©alise. Son analogie avec le carburateur est parlante. Comprendre le fonctionnement d’un moteur exige de saisir que le carburateur aère l’essence, qu’il contribue ainsi au fonctionnement global. Mais pourquoi importe-t-il de savoir oĂą exactement le carburateur se situe dans le moteur ? Ă€ moins de vouloir le retirer chirurgicalement, cette information topographique n’ajoute rien Ă  la comprĂ©hension du mĂ©canisme. 

De mĂŞme pour le cerveau. Personne ne doute sĂ©rieusement que parler, faire du vĂ©lo ou construire un pont dĂ©pend de processus cĂ©rĂ©braux quelque part au nord du cou. Mais pourquoi prĂ©ciser Ă  quel point au nord ? Fodor souligne que les neuroscientifiques accumulent des cartes cĂ©rĂ©brales sans hypothèses claires sur ce qu’elles sont censĂ©es nous rĂ©vĂ©ler. Ce sont des scientifiques « qui ont une camĂ©ra mais pas d’hypothèse ».

La corrĂ©lation entre activitĂ© neuronale et fonction mentale ne constitue pas une explication causale du fonctionnement. Elle nous dit « quand » et « oĂą », mais reste muette sur le « comment » et le « pourquoi ». Cette critique mĂ©thodologique est redoutable : si la recherche la plus coĂ»teuse en neurosciences se contente de localiser sans expliquer, elle absorbe des ressources qui pourraient servir Ă  Ă©lucider les mĂ©canismes rĂ©els. (Attention : Fodor ne conteste aucunement la valeur de la localisation Ă  la neurologie ou Ă  la neuropsychologie cliniques.)

Les neurones miroirs : Un cas d’Ă©cole apparent. La dĂ©couverte de Rizzolatti des neurones miroirs semble, Ă  première vue, illustrer parfaitement la critique de Fodor. Ces neurones dans le cortex prĂ©central ventral du macaque s’activent aussi bien quand le singe exĂ©cute une action (saisir un objet) que lorsqu’il observe un autre individu exĂ©cuter la mĂŞme action. Des neurones aux propriĂ©tĂ©s similaires ont Ă©tĂ© localisĂ©s dans le lobule pariĂ©tal infĂ©rieur. Chez l’humain, les donnĂ©es d’EEG, MEG, TMS et d’imagerie (TEP, IRMf) confirment l’existence d’un système miroir.

Pendant des annĂ©es, cette dĂ©couverte semblait offrir peu plus qu’une cartographie sophistiquĂ©e : voici oĂą se produit l’activitĂ© miroir, voici quand elle s’active. L’imitation est une capacitĂ© comportementale que nous savions dĂ©jĂ  possĂ©der, partagĂ©e avec de nombreuses espèces, opĂ©rant dans plusieurs modalitĂ©s sensorielles et motrices. Mais identifier les corrĂ©lats neuronaux de cette capacitĂ© ne rĂ©vĂ©lait pas comment le cerveau la rĂ©alise. Aucun message utile pour les roboticiens cherchant Ă  rĂ©tro-ingĂ©nierier cette rĂ©ciprocitĂ© entre la perception sensorielle et la production motrice. Ce nr sont que des paramètres de localisation spatiotemporelle pour une fonction qui est dĂ©jĂ  connue. Cette lecture initiale inscrivait les neurones miroirs dans le paradigme que critique Fodor : beaucoup de technologie coĂ»teuse pour localiser ce que nous savions dĂ©jĂ  exister, sans avancer d’un pas vers la comprĂ©hension mĂ©canistique.

Le tournant : De la localisation Ă  l’architecture. Mais cette lecture Ă©tait trop rapide. Ce qui est important n’est pas la localisation d’un type de neurone en un lieu prĂ©cis, mais la dĂ©couverte d’un pattern systĂ©matique : la fonction miroir se rĂ©vèle ĂŞtre omniprĂ©sent, multimodal, et architecturalement canonique.

Rizzolatti montre que les neurones miroirs ne se contentent pas de coder des actes moteurs isolĂ©s. Certains sont « contraints par l’action » : ils ne s’activent que si l’acte moteur observĂ© s’inscrit dans une action spĂ©cifique. Un neurone peut dĂ©charger pour « saisir-pour-manger » mais pas pour « saisir-pour-placer ». Cette spĂ©cificitĂ© permet Ă  l’observateur non seulement de reconnaĂ®tre l’acte moteur observĂ©, mais aussi de coder ce que sera le prochain acte moteur, donc de comprendre l’intention de l’agent.

Au-delĂ  de l’action motrice, le mĂ©canisme miroir opère aussi pour les Ă©motions. L’insula antĂ©rieure et le cortex cingulaire antĂ©rieur s’activent Ă  la fois quand un sujet Ă©prouve du dĂ©goĂ»t directement (exposition Ă  des odeurs rĂ©pugnantes) et quand il observe l’expression faciale du dĂ©goĂ»t chez autrui. Des rĂ©sultats similaires Ă©mergent pour la douleur. Le mĂ©canisme miroir constitue ainsi la base neuronale de l’empathie.

Ce qui importe n’est donc pas qu’il existe un « module du dĂ©goĂ»t » localisĂ© dans l’insula, mais que la mĂŞme structure qui Ă©labore nos propres rĂ©ponses Ă©motionnelles s’active lors de l’observation des Ă©motions d’autrui. Le pattern rĂ©vèle un principe architectural : la comprĂ©hension d’autrui procède par transcription dans nos propres systèmes moteurs et Ă©motionnels.

Transcription sensori-motrice. Rizzolatti souligne un point crucial : l’observation visuelle seule, sans implication du système moteur, ne fournit qu’une description des aspects visibles du mouvement. Elle n’informe pas sur ce que signifie rĂ©ellement cette action. Cette information ne peut ĂŞtre obtenue que si la forme de l’action observĂ©e est aussi codĂ©e dans le système moteur de l’observateur. L’activation du circuit miroir devient ainsi essentielle pour donner Ă  l’observateur une comprĂ©hension rĂ©elle, expĂ©rientielle de la production de l’action perçue.

VoilĂ  ce qui Ă©chappe Ă  la critique de Fodor appliquĂ©e mĂ©caniquement. Il ne s’agit pas simplement de savoir oĂą se trouve un module d’imitation, mais de reconnaitre que l’apparence perceptive chez autrui est conforme avec sa production chez soi-mĂŞme. Le mĂ©canisme miroir relie le codage de ce que ça fait de voir l’action par les aires visuelles complexes, vers les aires motrices qui codent ce que ça fait de faire cette action. Ce n’est pas une simple corrĂ©lation topographique, c’est un principe fonctionnel : comprendre l’action d’autrui, c’est savoir comment (et pourquoi) la produire soi-mĂŞme.

Implications pour les origines du langage. Le mĂ©canisme miroir offre un cadre pour aborder les origines gestuelles de la parole (qui seront traitĂ©es dans les semaines 6 Ă  8). Depuis Condillac, plusieurs auteurs ont suggĂ©rĂ© que la voie menant Ă  la parole est nĂ©e des communications gestuelles et non des cris des animaux. Les neurones miroirs crĂ©ent un lien direct entre l’Ă©metteur du message et le receveur. Grâce au mĂ©canisme miroir, les actions exĂ©cutĂ©es par un sujet deviennent des messages compris par un observateur sans mĂ©diation cognitive.

L’observation d’un sujet saisissant une pomme est immĂ©diatement comprise puisqu’elle Ă©voque le mĂŞme codage moteur dans le système miroir de l’observateur. Rizzolatti et Arbib ont proposĂ© que le mĂ©canisme miroir soit le système basique Ă  partir duquel a Ă©voluĂ© le langage. Le mĂ©canisme miroir aurait rĂ©solu deux problèmes fondamentaux de la communication : la paritĂ© (ce qui compte pour l’Ă©metteur compte aussi pour le receveur) et la comprĂ©hension directe (aucun symbole arbitraire n’est nĂ©cessaire).

Évidemment, le mĂ©canisme miroir n’explique pas Ă  lui seul l’extrĂŞme complexitĂ© de la parole. Mais il aide Ă  rĂ©soudre une difficultĂ© fondamentale : comment un message valable pour l’Ă©metteur le devient Ă©galement pour le receveur. La rĂ©ciptocit.sensori-moteur fournit une base prĂ©-linguistique pour la communication intentionnelle.

De la simple localisation au pattern architectural. La portĂ©e des neurones miroirs dĂ©passe donc largement la simple localisation d’une fonction dans le cortex prĂ©moteur ventral. Ce qui compte, c’est le pattern : la capacitĂ© de mirroring est omniprĂ©sente (motrice, Ă©motionnelle), multimodale (vision-action, son-action, Ă©motion-expression), et distribuĂ©e Ă  travers plusieurs rĂ©gions interconnectĂ©es (cortex prĂ©moteur, lobule pariĂ©tal, insula, cortex cingulaire).

Ce pattern rĂ©vèle quelque chose d’architectural sur l’organisation fonctionnelle du cerveau : la comprĂ©hension d’autrui, qu’elle soit motrice, Ă©motionnelle ou communicative, procède par transcription dans les systèmes propres de l’observateur. Cette transcription n’est pas une simple « copie » passive, mais aussi une activation ressentie qui permet la comprĂ©hension.

Fodor a raison : savoir oĂą se trouvent les neurones miroirs ne constitue pas en soi une explication. Mais le pattern systĂ©matique de leur distribution multimodale et de leur fonctionnement rĂ©vèle un principe architectural : la perception et la production sont intimement couplĂ©es, la comprĂ©hension passe par la rĂ©ciprocitĂ© sensori-motrice.

L’imitation et l’apprentissage. Rizzolatti distingue deux aspects de l’imitation : la capacitĂ© de reproduire immĂ©diatement une action observĂ©e, et celle d’apprendre une nouvelle action par observation. La rĂ©pĂ©tition immĂ©diate est assurĂ©e par le système miroir seul. Mais l’apprentissage par imitation exige l’intervention du lobe prĂ©frontal, qui combine des actes moteurs Ă©lĂ©mentaires codĂ©s par le système miroir pour produire des configurations motrices nouvelles.

Cette distinction est cruciale. Le système miroir fournit les « copies motrices » d’actions observĂ©es, mais la composition de nouvelles sĂ©quences motrices requiert des mĂ©canismes combinatoires prĂ©frontaux supplĂ©mentaires. Encore une fois, ce n’est pas la localisation qui importe, mais la comprĂ©hension que diffĂ©rents niveaux de capacitĂ©s imitatives recrutent diffĂ©rentes architectures neuronales en interaction.

Implications cliniques et évolutives.

Les donnĂ©es montrent que les enfants autistes ont un dĂ©ficit dans leur système miroir, et que la sĂ©vĂ©ritĂ© de leur affection corrèle avec l’importance de ce dĂ©ficit. Ceci suggère que le système miroir joue un rĂ´le dans les capacitĂ©s sociales fondamentales, notamment la comprĂ©hension d’autrui et la communication.

D’un point de vue Ă©volutif, on peut voir le mĂ©canisme miroir comme une solution au problème de la communication interindividuelle et de la cognition sociale. L’Ă©volution darwinienne – le « Blind Watchmaker » – a rĂ©solu le problème de l’implĂ©mentation de cette capacitĂ©. Mais identifier ce que l’Ă©volution a construit ne dispense pas les sciences cognitives de leur tâche : la rĂ©tro-ingĂ©nierie de cette capacitĂ©. Comprendre comment le cerveau rĂ©alise le rĂ©ciprocitĂ© perception-production reste un dĂ©fi ouvert.

Conclusion : Au-delĂ  de Fodor. La critique de Fodor garde toute sa force contre une neuroscience qui se contenterait de cartographier sans thĂ©oriser. Savoir oĂą et quand certaines rĂ©gions s’activent ne suffit pas. Mais lorsque les donnĂ©es de localisation rĂ©vèlent un pattern systĂ©matique – la distribution multimodale et fonctionnellement cohĂ©rente du mĂ©canisme miroir – elles contraignent nos thĂ©ories sur l’architecture fonctionnelle.

Les neurones miroirs ne sont pas intĂ©ressants parce qu’ils sont dans le cortex prĂ©moteur plutĂ´t qu’ailleurs. Ils sont intĂ©ressants parce que leur pattern de distribution rĂ©vèle un principe : la comprĂ©hension sensori-motrice, Ă©motionnelle et communicative d’autrui procède par transcription dans nos propres systèmes. Cette transcription constitue le substrat expĂ©rientiel de la comprĂ©hension.

La question n’est plus « oĂą sont les neurones miroirs ? » mais « comment le cerveau implĂ©mente-t-il cette capacitĂ© de mirroring multimodale ? » VoilĂ  une question que mĂŞme Fodor pourrait peut-ĂŞtre juger digne d’investigation. Elle ne demande pas simplement une camĂ©ra, mais une hypothèse sur le mĂ©canisme qui permet Ă  la perception de se transcrire en reprĂ©sentation motrice, rĂ©ciproquement et d’ainsi fonder la comprĂ©hension.

L’Ă©volution a rĂ©solu le problème de l’implĂ©mentation. Aux sciences cognitives de faire leur travail de rĂ©tro-ingĂ©nierie.

Post-scriptum : La critique de Fodor Ă  propos de la neuro-imagerie et de la localisation ne concerne pas seulement le phĂ©nomène des neurones miroirs lui-mĂŞme, mais aussi le fait que la neuro-imagerie permet de poursuivre l’étude des capacitĂ©s miroirs chez l’humain de manière inoffensive, plutĂ´t que par des expĂ©riences invasives et cruelles sur les singes. La neuro-imagerie rend ce remplacement possible aussi dans beaucoup d’autres domaines de recherche neuroscientifique qui causent la souffrance aux animaux non humains.

L’argument de La Chambre Chinoise de Searle

L’article de John Searle de 1980, Minds, Brains, and Programs, n’était pas une attaque gĂ©nĂ©rale contre l’intelligence artificielle, ni un plaidoyer mystique en faveur de l’ineffable humain. Sa cible Ă©tait une thèse bien prĂ©cise, qu’il a maladroitement baptisĂ©e « Strong AI », mais qui correspond Ă  ce que l’on appelle plus clairement aujourd’hui le computationnalisme (« C = C »): l’hypothèse que la cognition n’est rien de plus que de la computation, autrement dit que les Ă©tats mentaux sont des Ă©tats computationnels, indĂ©pendants du support matĂ©riel qui les implĂ©mente.

Dans le cadre du cours, il est crucial de formuler correctement la cible de Searle. Il ne s’agit pas de savoir si les ordinateurs sont utiles pour modéliser la cognition (ce que Searle accepte), ni si des machines peuvent faire des choses impressionnantes. La question est celle-ci : si un système purement computationnel réussissait le test de Turing verbal (T2) à l’échelle d’une vie entière, serait-il pour autant en train de comprendre ce qu’il dit ? Le test est radical : pas un jeu de cinq minutes, pas une démonstration de surface, mais une indiscernabilité verbale durable avec des interlocuteurs humains normaux, sur n’importe quel sujet.

L’expérience de pensée de la Chambre chinoise suppose précisément ce cas. Imaginons qu’un programme permette à un ordinateur de passer avec succès un tel test en chinois. Searle, qui ne comprend pas le chinois, est placé dans une pièce et reçoit des chaînes de symboles chinois. À l’aide de règles formelles (un algorithme) exprimées en anglais, il manipule ces symboles et renvoie d’autres symboles chinois. De l’extérieur, à ces interlocuteurs chinois, le mots de Searle sont indistinguable de ceux d’un locuteur chinois natif : questions, réponses, discussions prolongées sur n’importe quel sujet imaginable. Pourtant, du point de vue interne, Searle n’a aucune compréhension du chinois. Il ne sait pas ce que signifient les symboles qu’il manipule.

L’argument repose alors sur un principe central du computationnalisme : l’indĂ©pendance du logiciel (l’algorithme) de son implĂ©mentation matĂ©rielle (la machine de Turing qui manipule les symboles (les mots chinois). Si comprendre une langue Ă©tait une propriĂ©tĂ© purement computationnelle, alors tout système implĂ©mentant le bon programme devrait comprendre, indĂ©pendamment du matĂ©riel qui exĂ©cute le logiciel (un Mac, un PC) . Or ici c’est Searle qui exĂ©cute ce logiciel qui rĂ©ussi le T2 chinois. Et pourtant, Searle ne comprend les symboles chinois qu’il est en train de manipuler. C’est ici qu’intervient ce qu’on a appelĂ© plus tard « le pĂ©riscope de Searle » : une occasion exceptionnelle de pĂ©nĂ©trer la barrière des autres esprits. Normalement, une personne ne peut aucunement savoir si une autre personne ressent quoi que ce soit: une idĂ©e, une humeur, une sensation. Mais si la cognition Ă©tait identique Ă  une computation, alors en devenant lui-mĂŞme l’implĂ©mentation matĂ©rielle du logiciel qui rĂ©ussit le T2 chinois, Searle devrait lui-mĂŞme ressentir la comprĂ©hension du chinois en exĂ©cutant toutes les manipulations de symboles qui font la comprĂ©hension du chinois (C=C). Mais il peut nous faire le tĂ©moignage: « Je manipule les symboles qu’on me donne comme entrĂ©es, selon les règles de manipulation qu’on me donne aussi, mais je n’en comprends absolument rien. Je ne comprends toujours pas le chinois. Donc la conclusion est inĂ©vitable : la cognition n’est pas de la computation (C≠C). Plus prĂ©cisĂ©ment, elle ne peut pas ĂŞtre exclusivement computationnelle.

C’est lĂ  que commencent les malentendus, souvent entretenus par Searle lui-mĂŞme. La rĂ©ponse la plus cĂ©lèbre est la « System Reply » selon laquelle Searle ne serait qu’une partie du système; pourtant c’est le système global — Searle + les règles, les symboles, la pièce — qui comprendrait le chinois. Searle rĂ©plique facilement en internalisant le système intĂ©gral : il n’aurait qu’Ă mĂ©moriser les règles et effectuer toutes les manipulations dans sa tĂŞte. Rien ne change : il n’y a toujours aucune comprĂ©hension. Cette rĂ©plique est dĂ©cisive contre l’idĂ©e que la simple agrĂ©gation de composants syntaxiques (la manipulation des symboles de forme arbitraire d’après les règles) puisse engendrer une comprĂ©hension du sens.

Mais beaucoup de critiques ont refusĂ© la conclusion en raison de formulations confuses. D’abord, l’usage par Searle des termes « Strong AI » et « Weak AI » a brouillĂ© le dĂ©bat. « Weak AI » ne dĂ©signe en rĂ©alitĂ© que la la thèse forte de Church-Turing : que la computation peut simuler pratiquement n’importe quel objet ou processus dans l’univers. Cette thèse est compatible avec l’argument de Searle. L’argument ne montre pas que la cognition ne peut pas ĂŞtre simulĂ©e, mais qu’une simulation computationnelle n’est pas, en elle-mĂŞme, l’objet simulĂ©: la bonne recette pour faire un gâteau vĂ©gane n’est pas elle mĂŞme le gâteau vĂ©gane; et l’exĂ©cution de la recette vĂ©gane n’est pas juste de la computation: c’est de l’impression 3D: On mĂ©lange les ingrĂ©dients, puis on fait cuire le gâteau au four. Ce qui n’est plus juste de la computation: Cuisiner n’est pas juste de la computation!

Deuxième confusion : l’idée que Searle aurait réfuté le test de Turing en tant que tel. C’est faux. L’argument montre seulement que T2, pris isolément et sous une interprétation strictement computationnelle, ne garantit pas la compréhension. Il ne dit rien contre T3 (ancrage sensorimoteur) ni contre T4 (duplication structurelle complète). En fait, l’argument laisse entièrement ouverte la possibilité qu’un système hybride — computationnel et non computationnel — puisse comprendre, ou qu’un système robotique ancré dans le monde puisse acquérir des significations que Searle, enfermé dans sa pièce, ne peut pas acquérir.

Troisième erreur fréquente : croire que Searle aurait montré que « la cognition n’est pas computationnelle du tout ». L’argument ne montre rien de tel. Il montre seulement que la cognition ne peut pas être uniquement computationnelle. La computation peut parfaitement jouer un rôle causal essentiel dans un système cognitif, sans en épuiser les propriétés sémantiques. Sur ce point, la « System Reply » avait une intuition juste, même si elle échouait comme réfutation : comprendre peut être une propriété d’un système global, mais pas d’un système purement syntaxique.

Enfin, Searle a lui-même surinterprété sa conclusion en suggérant que la solution devait nécessairement passer par la duplication des pouvoirs causaux du cerveau biologique. Rien dans l’argument n’impose un tel saut vers T4. Il reste une vaste gamme de possibilités intermédiaires : systèmes dynamiques non computationnels, architectures hybrides, réseaux neuronaux couplés au monde, agents sensorimoteurs apprenant par interaction. L’argument ne tranche pas en faveur des neurosciences contre la science cognitive. Il tranche uniquement contre le computationnalisme pur.

Malgré ces excès et ces confusions, l’importance historique de la Chambre chinoise est considérable. Elle a forcé la discipline à distinguer clairement syntaxe et sémantique, simulation et instanciation, performance verbale et compréhension. Elle a aussi préparé le terrain pour ce qui deviendra explicitement, quelques années plus tard, le problème de l’ancrage des symboles : comment des symboles formels peuvent-ils acquérir une signification intrinsèque pour un système, plutôt que seulement une interprétation extrinsèque par un observateur ?

La leçon méthodologique centrale est donc la suivante : passer un test comportemental, même très exigeant, n’explique pas en soi comment le sens est généré. L’argument de Searle ne ferme pas la route vers une science mécaniste de la cognition. Il ferme seulement une impasse : celle qui croyait pouvoir expliquer l’esprit par la manipulation de symboles non ancrés. En ce sens, loin d’être un obstacle, la Chambre chinoise a été un déclencheur. Elle a rendu inévitable la question qui structure la suite du cours : comment relier les symboles au monde, et le langage à l’action et à la perception.

Le test de Turing et la rétro-ingénierie de la capacité cognitive

L’article de Turing de 1950 ne proposait ni un tour de passe-passe, ni un concours de tromperie, ni un jeu d’imitation à court terme. Il proposait un tournant méthodologique pour une future science de l’esprit : cesser de demander ce qu’est la pensée et chercher plutôt à expliquer comment les penseurs peuvent faire ce qu’ils peuvent faire. Le remplacement de la question vague « Les machines peuvent-elles penser ? » par un critère opérationnel ne visait pas à banaliser la cognition, mais à l’ancrer dans la capacité de performance empirique. L’enjeu n’était pas de duper des juges, mais de rétro-ingénier la totalité des capacités cognitives humaines de manière à les rendre reproductibles par une explication causale dont nous comprenons le fonctionnement. La question centrale n’est pas de savoir si une machine peut passer pour un penseur, mais comment et pourquoi les humains pensants peuvent faire tout ce qu’ils peuvent faire.

La terminologie malheureuse de « jeu » et d’« imitation » a entretenu une confusion durable. L’intuition mĂ©thodologique de Turing est que la cognition est invisible, alors que la performance ne l’est pas. Nous ne pouvons pas observer la pensĂ©e directement, ni chez autrui ni chez les machines, mais nous pouvons observer ce que les penseurs ont la capacitĂ© de faire. Le test n’a donc jamais portĂ© sur la supercherie, mais sur l’indiscernabilitĂ© en capacitĂ© de faire (dites « l’indiscernabilitĂ© Turingienne »). L’interrogateur n’est pas un naĂŻf, mais n’importe quel penseur humain neurotypique. Le vĂ©ritable critère n’est pas que des personnes soient trompĂ©es, mais qu’il n’existe aucun moyen de distinguer le candidat d’un ĂŞtre humain normal Ă  partir de sa performance observable. S’il y a une diffĂ©rence discernable, le candidat Ă©choue. Sinon, alors la rĂ©troingĂ©nieurie a rĂ©ussi et le mĂ©canisme interne qui a produit le succès constitue une potentielle explication causale de la capacitĂ© cognitive humaine.

Cela soulève immédiatement la question de l’étendue et de la durée du Test de Turing. La remarque occasionnelle de Turing sur cinq minutes et des pourcentages a été interprétée de façon absurde. Il s’agit d’une prédiction démographique, non d’un critère scientifique. La science cognitive n’est pas l’art de tromper certaines personnes pendant un certain temps. Un test sérieux de la cognition rétro-ingéniérée doit être ouvert et, en principe, valable sur toute une vie. Le candidat doit pouvoir continuer à faire ce que les humains peuvent faire, à travers les domaines et les contextes, sans s’épuiser dans des astuces pré-programmées ou des bases finies de cas. Un système qui s’effondre lorsque la conversation s’aventure en terrain imprévu, ou lorsqu’il est soumis à des sondages persistants, ne révèle pas une capacité cognitive générale. Il révèle un artefact de performance borné.

Tout aussi importante est la restriction au canal verbal. Turing a introduit l’interaction dactylographiée comme un moyen de mettre entre parenthèses l’apparence et les indices physiques non pertinents, non comme une thèse selon laquelle la cognition serait épuisée par le langage. L’exclusion de la voix, du geste et de l’incarnation visait à neutraliser des indices superficiels, non à nier que les humains sont des agents sensorimoteurs dans un monde physique. Interpréter le test comme intrinsèquement verbal revient à confondre une commodité méthodologique avec un engagement théorique. La capacité cognitive humaine n’est pas un simple module de clavardage. Elle est ancrée dans la perception, l’action et l’interaction causale avec le monde. Un système qui ne peut qu’échanger des symboles, sans pouvoir voir, se déplacer, manipuler et être affecté par son environnement, manque une grande partie de ce que les humains peuvent faire.

C’est pourquoi la distinction entre une indiscernabilité purement verbale et une indiscernabilité robotique complète est cruciale. Un système qui réussirait une vie entière d’échanges par courriel serait déjà une prouesse d’ingénierie remarquable, mais il laisserait ouverte la question de savoir si ce même système pourrait, par exemple, sortir, regarder le ciel et dire si la lune est visible, apprendre à utiliser des outils inconnus, se déplacer dans un environnement encombré, ou acquérir de nouvelles catégories ancrées dans les choses qu’il y a dans le monde auxquelles réfèrent leurs noms, par essais et erreurs. Ce ne sont pas des options accessoires. Elles font partie du répertoire ordinaire de la performance cognitive humaine. Traiter le langage comme un module autonome, c’est risquer de confondre une interface puissante avec un esprit complet.

Cela conduit à la question de la computation. Le travail de Turing sur la calculabilité, et la thèse de Church-Turing, portent sur ce qui peut être calculé par manipulation de symboles selon des règles. Ils n’affirment pas que tous les processus causaux sont computationnels, ni que la cognition n’est rien d’autre que de la computation. Le test lui-même est agnostique quant aux mécanismes internes. Il n’exige pas que le candidat réussi soit un ordinateur numérique. Ce qu’il exige, c’est que nous l’ayons construit et que nous comprenions, au moins en principe, comment il fonctionne. L’objectif est l’explication, non la simple duplication. Cloner un être humain, même si cela produisait un performer indiscernable, ne constituerait pas une explication de la cognition, car nous n’aurions rien rétro-ingéniéré. Nous aurions simplement reproduit ce que nous cherchions à expliquer.

Turing semble parfois glisser vers une restriction aux ordinateurs numériques, en partie en raison de l’universalité de la computation. Mais l’universalité de la simulation n’est pas l’universalité de l’instanciation physique. Un avion simulé ne vole pas, et un robot simulé n’agit pas dans le monde. L’équivalence formelle ne confère pas de capacité causale dans le monde réel. Un agent sensorimoteur virtuel dans un environnement virtuel peut être utile pour la modélisation et les tests, mais il ne satisfait pas en lui-même à un critère de performance dans le monde réel. Si la cognition dépend en partie d’un couplage sensorimoteur réel avec l’environnement, alors un système purement computationnel, aussi sophistiqué soit-il, peut ne pas satisfaire au critère complet de performance.

Il ne s’agit pas d’une thèse métaphysique sur l’incarnation pour elle-même. Il s’agit d’une thèse empirique sur ce que les humains peuvent faire. La compétence verbale humaine est plausiblement ancrée dans l’expérience non verbale (sensori-motrice, robotique. Une grande partie de ce que nous pouvons dire présuppose ce que nous pouvons voir, toucher, reconnaitre, identifier, dénommer, décrire, manipuler et apprendre par interaction. Un système qui n’a jamais rencontré le monde autrement que par le texte est contraint de s’appuyer sur des descriptions verbales indirectes produites par d’autres. Ce n’est pas équivalent à un ancrage sensorimoteur propre. La différence est décisive si l’objectif n’est pas de mimer un comportement de surface dans des contextes restreints, mais de correspondre à la capacité humaine générique.

Le succès contemporain des grands modèles de langage rend ce point particulièrement saillant. Ces systèmes présentent une fluidité verbale et une étendue de connaissances apparentes extraordinaires. Ils peuvent soutenir de longs échanges, s’adapter à de nombreux sujets et paraître souvent étonnamment humains dans des interactions textuelles. Mais ils y parviennent en s’entraînant sur des corpus massifs de langage produit par des humains. Ils héritent, en effet, d’un immense réservoir de descriptions verbales du monde de seconde main . Ce n’est pas un ancrage au sens pertinent pour la rétro-ingénierie de la cognition. C’est une structure empruntée. Le système n’a pas appris ses catégories en agissant dans le monde et en recevant un retour correctif. Il a appris des régularités statistiques dans le texte qui reflètent la manière dont des humains ancrés parlent du monde.

C’est ce qui rend le phénomène de la « grosse gorgée » à la fois fascinant et méthodologiquement trompeur. Il peut produire des performances verbales impressionnantes sans que le système lui-même ait l’histoire causale qui, chez les humains, sous-tend normalement cette performance. Il devient alors plus difficile de déterminer, à partir du seul comportement verbal, si le système possède une capacité générale ou s’il exploite un proxy massif mais en fin de compte fini de l’expérience. Une sonde de type Turing purement verbale devient donc de plus en plus vulnérable à des facteurs de confusion. Le système peut réussir de nombreux tests conversationnels non pas parce qu’il peut faire ce que les humains peuvent faire, mais parce qu’il a absorbé un enregistrement massif de ce que les humains ont dit sur ce qu’ils peuvent faire.

Cela ne montre pas que Turing avait tort avec son test. Cela montre que le canal verbal n’est plus un test de résistance suffisant. Si le test doit conserver son rôle comme critère de cognition rétro-ingéniérée, il doit être compris dans son sens complet, non abrégé. Le véritable étalon n’est pas une interface de clavardage, mais un système qui peut vivre dans le monde comme nous, acquérir de nouvelles catégories, apprendre des conséquences, corriger ses erreurs et intégrer perception, action et langage dans une seule capacité de performance cohérente.

La discussion par Turing des objections reste ici instructive. L’objection de Lady Lovelace, selon laquelle les machines ne peuvent faire que ce que nous leur disons de faire, repose sur une conception erronée des règles et de la nouveauté. Des systèmes gouvernés par des règles peuvent néanmoins produire des résultats imprévisibles en pratique, et le comportement humain n’est pas moins régi causalement par des régularités. La question profonde n’est pas de savoir si les machines peuvent nous surprendre, mais si nous pouvons expliquer comment un système en vient à posséder les capacités flexibles et ouvertes qui caractérisent les humains. La surprise est bon marché ; la compétence générique ne l’est pas.

De même, les arguments fondés sur Gödel concernant l’intuition mathématique manquent la cible s’ils sont interprétés comme montrant que la pensée humaine transcende mécaniquement toute explication causale. Savoir qu’une proposition est vraie n’est pas la même chose qu’avoir une preuve formelle, et aucun de ces faits n’établit, à lui seul, que la cognition ne puisse être mécanisée au sens de la performance pertinent pour le test. Le test de Turing ne tranche pas les questions métaphysiques sur l’esprit ou la conscience. Il fournit un critère d’adéquation explicative en science cognitive.

Cela conduit Ă  la distinction cruciale entre faire et ressentir. MĂŞme un système qui satisferait pleinement au critère de performance ne serait pas, pour autant, connu comme ressentant. C’est le « problème des autres esprits », qui s’applique aussi bien aux humains qu’aux machines. Le test n’est pas une solution au problème de la conscience. C’est une solution au problème mĂ©thodologique de l’Ă©valuation de l’explication de la capacitĂ© cognitive: le succès de la rĂ©tro-ingĂ©nierie. Un candidat rĂ©ussi nous donnerait, au mieux, une explication de la manière dont le faire est gĂ©nĂ©rĂ©. La question de savoir s’il y a du ressenti, et comment le ressenti surgit, resterait un problème distinct, et peut-ĂŞtre insoluble.

Dans cette perspective, les affirmations selon lesquelles les LLM actuels auraient « réussi le test de Turing » confondent une indiscernabilité locale, à court terme et textuelle, avec une capacité cognitive générique, incarnée et valable sur toute une vie. Elles confondent également la tromperie démographique avec l’explication scientifique. Un système qui peut induire en erreur une fraction de juges pendant quelques minutes n’a pas, pour autant, été montré comme possédant une cognition de niveau humain. Il a montré que nos intuitions verbales (et nos capacités neurones-mirroir) sont faillibles et que la fluidité de surface est plus facile à obtenir qu’une compétence profonde et ancrée.

La contribution durable de Turing n’a pas été de nous donner un jeu de société, mais de fixer un programme empirique de recherche. La science cognitive, dans cette optique, consiste à rétro-ingénier la capacité de faire ce que les penseurs peuvent faire. Le test est le critère d’aboutissement de cette entreprise, non un raccourci pour la contourner. Si l’on prend cela au sérieux, le véritable défi n’est pas de construire de meilleurs bavards, mais de construire des systèmes capables d’agir, d’apprendre et de vivre dans le monde d’une manière indiscernable, en principe et en pratique, de ce que les humains peuvent faire au cours d’une vie. Ce n’est qu’alors qu’il serait raisonnable de dire que le projet de rétro-ingénierie a réellement abouti.

Turing, A. M. (1950/1990). Machines informatiques et intelligence. Mind, 49, 433-460.

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

Qu’est-ce que la computation?

Depuis le début du XXe siècle, une question apparemment technique a joué un rôle fondateur bien au-delà de la logique et des mathématiques : qu’est-ce que de « calculer » ? Lorsque nous disons qu’un mathématicien calcule, que fait‑il exactement ? Quelles opérations sont légitimes, lesquelles ne le sont pas, et comment les caractériser sans faire appel à l’intuition vague du « bon raisonnement » ou de l’ingéniosité humaine ? C’est ce problème précis qui a mobilisé, dans les années 1930, plusieurs logiciens – Church, Turing, Post, Kleene, Gödel – et qui a conduit à une clarification conceptuelle dont les retombées structurent encore aujourd’hui les sciences cognitives.

Il est essentiel de rappeler que le but initial n’était pas de construire des ordinateurs, ni d’expliquer l’esprit humain, mais de formaliser ce que font effectivement les mathématiciens lorsqu’ils effectuent un calcul rigoureux. Il s’agissait de cerner la notion de « procédure effective » : une suite d’étapes finies, explicites, mécaniquement applicables, qui transforment des symboles initiaux en symboles finaux. Autrement dit, il fallait rendre explicite ce qui, jusque‑là, était implicitement confié à l’intelligence humaine.

Ce qui est frappant rĂ©trospectivement, c’est que ces auteurs ont proposĂ© des modèles très diffĂ©rents en apparence. Church a introduit le Î»â€‘calcul, Gödel des fonctions rĂ©cursives, Post des systèmes de production, Kleene des schĂ©mas formels, et Turing sa cĂ©lèbre machine abstraite « la machine de Turing ». Pourtant, malgrĂ© leurs diffĂ©rences de prĂ©sentation, tous ces modèles se sont rĂ©vĂ©lĂ©s complètement Ă©quivalents : tout ce qui est calculable dans l’un l’est aussi dans les autres. Cette convergence inattendue a donnĂ© un poids considĂ©rable Ă  l’idĂ©e qu’ils avaient tous, chacun Ă  sa manière, capturĂ© la mĂŞme notion fondamentale : la computation.

Parmi ces modèles, la machine de Turing s’est imposée non parce qu’elle serait plus puissante, mais parce qu’elle est conceptuellement la plus simple et la plus parlante. Elle permet de voir, presque physiquement, ce qu’est une computation. Une machine de Turing se compose d’un ruban potentiellement infini, divisé en cases, sur lesquelles sont inscrits des symboles discrets pris dans un alphabet fini. Une tête de lecture‑écriture parcourt ce ruban, une case à la fois. À chaque étape, la machine se trouve dans un état interne déterminé, parmi un ensemble fini d’états possibles.

Le fonctionnement est entièrement rĂ©gi par une table de règles. Chaque règle dit : si la machine est dans tel Ă©tat interne et si le symbole actuellement lu sur le ruban a telle forme, alors il faut accomplir exactement trois choses : Ă©ventuellement remplacer ce symbole par un autre, dĂ©placer la tĂŞte d’une case vers la gauche ou vers la droite, et passer dans un nouvel Ă©tat interne. Rien de plus. Il n’y a ni comprĂ©hension, ni interprĂ©tation, ni « prise de dĂ©cision » au sens psychologique. Tout est dĂ©terminĂ© par la forme du symbole et par l’état courant de la machine. Et ceci est ce que veut dire « la manipulation des symboles Â» .

La computation est:

la manipulation des symboles:

suivant des règles (algorithmes)

qui ne portent que sur la forme (arbitraire) des symboles

(pas sur leur sens)

et qui sont independents du matĂ©riel mais….

interprĂ©table sĂ©mantiquement (par l’utilisateur)

Il est crucial d’insister sur la forme arbitraire des symboles. Les symboles manipulĂ©s par une machine de Turing n’ont aucune signification « intrinsèque ». Ils peuvent ĂŞtre des 0 et des 1, des lettres, des traits, ou n’importe quelle autre marque distincte. Ce qui compte, ce n’est pas ce qu’ils reprĂ©sentent Ă©ventuellement pour un observateur humain, mais uniquement leurs diffĂ©rences de forme, car ce sont ces diffĂ©rences qui dĂ©clenchent les règles de transition (manipulation). La computation est donc, par dĂ©finition, une manipulation syntaxique (formelle) : elle opère sur des formes, non sur des significations.

Les règles elles‑mĂŞmes sont ce qu’on appelle des algorithmes. Un algorithme est une procĂ©dure formelle, finiment spĂ©cifiĂ©e, qui dĂ©termine sans ambiguĂŻtĂ© quelles opĂ©rations doivent ĂŞtre effectuĂ©es Ă  chaque Ă©tape. Un point fondamental, souvent mal compris, est que l’algorithme ne « sait » pas ce qu’il fait. Il ne calcule pas parce qu’il vise un rĂ©sultat ou comprend un problème, mais parce que ses règles sont suivies mĂ©caniquement. Le fait que le rĂ©sultat puisse ensuite ĂŞtre interprĂ©tĂ© comme la solution d’une Ă©quation ou la rĂ©ponse Ă  une question est entièrement externe Ă  la computation elle‑mĂŞme.

Cette distinction conduit Ă  une autre propriĂ©tĂ© centrale de la computation : son indĂ©pendance par rapport Ă  l’implĂ©mentation matĂ©rielle. Une mĂŞme machine de Turing abstraite peut ĂŞtre rĂ©alisĂ©e de multiples façons physiques : avec des engrenages, des relais Ă©lectromĂ©caniques, des circuits Ă©lectroniques, ou mĂŞme, en principe, avec du papier et un crayon, pourvu qu’un humain suive les règles Ă  la lettre. Tant que la mĂŞme suite d’états et de manipulations symboliques est respectĂ©e, c’est exactement la mĂŞme computation qui est effectuĂ©e. Les diffĂ©rences matĂ©rielles n’affectent pas la nature du calcul, seulement sa vitesse, sa fiabilitĂ© ou son coĂ»t.

Cette indĂ©pendance est dĂ©cisive pour les sciences cognitives, car elle implique que la computation, en tant que telle, est dĂ©finie au niveau formel, non au niveau physique. Le matĂ©riel rĂ©alise l’algorithme, mais ne le dĂ©finit pas. Inversement, l’algorithme n’inclut aucune rĂ©fĂ©rence Ă  ce que le matĂ©riel est ou Ă  ce qu’il reprĂ©sente. Il n’y a lĂ  aucune place pour la sĂ©mantique, sauf comme interprĂ©tation ajoutĂ©e par un observateur externe.

C’est dans ce contexte qu’il faut comprendre la thèse dite de Church‑Turing, dans sa version « faible ». Elle affirme que tout ce qu’un mathématicien humain peut calculer par une procédure effective peut, en principe, être calculé par une machine de Turing. Il ne s’agit pas d’une hypthèse empirique au sens habituel, ni d’un théorème formel qu’on peut démontrer mathématiquement, mais d’une thèse conceptuelle : une conjecture qu’on peut falsifier, mais pas proouver vraie. Elle repose sur l’argument que les différentes tentatives de formalisation du calcul effectif convergent toutes vers la même classe de fonctions calculables, et que jusqu’à présent, aucune contre‑exemple convaincant n’a été proposé.

Il est important de ne pas surinterpréter cette thèse. Elle ne dit pas que tout ce qui existe est calculable, ni que l’esprit humain se réduit à une machine de Turing. Elle dit quelque chose de beaucoup plus précis et plus modeste : si une activité mérite le nom de calcul effectif, alors elle est Turing‑calculable. Cette précision sera essentielle lorsque nous aborderons, plus tard dans le cours, les questions de cognition, de langage et de compréhension.

On parle parfois d’une version « forte » de la thèse de Church‑Turing, selon laquelle presque tout processus physique peut ĂŞtre simulĂ© par une machine de Turing avec une prĂ©cision arbitraire. Cette idĂ©e est largement acceptĂ©e dans les sciences physiques contemporaines, mais elle est souvent mal comprise. Simuler un phĂ©nomène n’est pas le rĂ©aliser. Une simulation numĂ©rique d’un ouragan ne mouille personne, et une simulation de digestion ne produit aucune calorie. De la mĂŞme façon, une simulation informatique d’un cĹ“ur ne pompe pas de sang.

L’analogie avec « l’impression 3D Â» est Ă©clairante. Un programme peut dĂ©crire formellement la structure d’un objet ; cette description peut ĂŞtre utilisĂ©e pour en simuler le comportement, par exemple dans un environnement virtuel. Mais pour produire l’objet rĂ©el, il faut un dispositif physique supplĂ©mentaire, capable de transformer la description en matière. La computation fournit la description et la simulation, non la rĂ©alisation matĂ©rielle. Confondre les deux conduit Ă  des erreurs conceptuelles profondes.

Ces distinctions – entre syntaxe et sémantique, entre algorithme et interprétation, entre simulation et réalité – ne sont pas de simples subtilités philosophiques. Elles constituent l’armature conceptuelle qui permettra, dans les semaines à venir, de poser correctement les questions sur la cognition, le langage, le test de Turing, l’argument de la pièce chinoise, et le problème de l’ancrage symbolique. Avant de se demander si la cognition est computationnelle, ou si une machine peut comprendre, il faut d’abord savoir, avec précision, ce que la computation est, et ce qu’elle n’est pas.

Et qu’est-ce qui est une « machine » ?  Il faut aussi dissiper une autre confusion, plus gĂ©nĂ©rale encore, qui revient sans cesse dans les discussions sur l’esprit, la cognition et l’intelligence artificielle. On entend souvent des dĂ©clarations du genre : « Ça, c’est quelque chose qu’une machine ne pourra jamais faire. » Mais, prise littĂ©ralement, cette phrase est presque toujours vide. Tout système dynamique qui Ă©volue conformĂ©ment aux lois de la causalitĂ© est, en ce sens minimal et non mĂ©taphorique, une machine — un mĂ©canisme. Qu’il soit conçu par des humains ou qu’il se trouve tel quel dans la nature n’y change rien. Une horloge, une automobile, un ordinateur, un robot, une imprimante 3D, un système autonome, un cerveau humain, un organisme biologique, une colonie de bactĂ©ries, un système planĂ©taire ou une constellation stellaire sont tous des systèmes causaux : Ă  un Ă©tat donnĂ© succède un autre Ă©tat, selon des rĂ©gularitĂ©s dĂ©terminĂ©es par leur structure et par les lois physiques. Dire qu’un humain n’est « pas une machine » mais qu’un ordinateur en est une, ce n’est pas une thèse scientifique ; c’est une façon de parler. La vraie question n’est jamais de savoir si quelque chose est ou n’est pas une machine, mais de quel type de mĂ©canisme il s’agit, et de quelles capacitĂ©s ce mĂ©canisme peut ou ne peut pas gĂ©nĂ©rer. Si une capacitĂ© est causale — si elle consiste Ă  faire quelque chose dans le monde — alors, par dĂ©finition, elle doit ĂŞtre produite par un mĂ©canisme. Affirmer qu’« une machine » ne pourrait jamais faire X revient donc soit Ă  une hypothèse empirique prĂ©cise (Ă  discuter), soit Ă  une erreur conceptuelle. En cas de doute, il vaut mieux suspendre l’affirmation et examiner de quel mĂ©canisme on parle rĂ©ellement.