GPT on Gubelmann on Harnad on Symbol Grounding

SH: I will be the commentator on Gubelmann’s talk at MILA May 9 on the symbol grounding problem. Could you please summarize his arguments and evidence? As far as I can see, like most people, he has only read the 1990 paper, se he does not know about my papers since, that you and I have been discussing. So in your summary you can cross-reference where relevant. 

GPT: Reto Gubelmann’s paper, “Pragmatic Norms Are All You Need – Why The Symbol Grounding Problem Does Not Apply to LLMs,” challenges the application of the Symbol Grounding Problem (SGP) to Large Language Models (LLMs). â€‹ail-workshop.github.io+4ACL Anthology+4ACL Anthology+4

Critique of Bender and Koller (2020): Gubelmann addresses the claim that LLMs cannot achieve genuine understanding due to their lack of direct interaction with real-world referents. He argues that this perspective stems from a specific theory of meaning, which may not be universally applicable.

Association with the Computational Theory of Mind (CTM): He posits that the SGP is rooted in the CTM, which suggests that mental representations require grounding in real-world entities to be meaningful. Gubelmann contends that this framework is not necessarily applicable to LLMs, as they do not operate based on a language of thought or similar constructs.

Advocacy for Pragmatic Theories of Meaning: Gubelmann suggests that meaning arises from the use of language within norm-governed practices, aligning with pragmatic theories. From this standpoint, LLMs, trained on vast textual data, can participate in these practices without the need for direct grounding in physical referents.

Cross-References to Your Recent Work:

Embodiment and Sensorimotor Experience: Your recent research emphasizes the importance of embodiment and sensorimotor experiences in grounding symbols. Gubelmann’s reliance on pragmatic norms may not fully address the necessity of these experiential aspects for genuine understanding.​

Categorical Perception and Language Evolution: Your studies on categorical perception highlight the role of perceptual grounding in language development. Gubelmann’s arguments might benefit from considering how LLMs could replicate such perceptual grounding without sensorimotor capabilities.​

Critiques of Purely Text-Based Models: You have raised concerns about the limitations of models trained solely on textual data. Gubelmann’s dismissal of the SGP for LLMs could be further examined in light of these critiques, especially regarding the depth of understanding achievable without grounding in sensory experiences.​

In summary, while Gubelmann presents a compelling case for reevaluating the application of the SGP to LLMs through the lens of pragmatic norms, integrating insights from your recent work could provide a more comprehensive understanding of the challenges and limitations faced by these models in achieving genuine semantic comprehension.​researchgate.net+4dstrohmaier.com+4ACL Anthology+4

SH: Do you remember to AI/CM distinction? Is Gubelmann talking about AI or CM? Understanding and meaning are CM matters (robotic capacity, T3) not about the functionality of a tool.

GPT: Yes, I remember the AI/CM distinction you’ve emphasized:

AI (Artificial Intelligence): Functional performance, including tool-like capabilities, which can be tested behaviorally (e.g., T2 performance in text-based tasks).

CM (Cognition & Meaning): The presence of understanding, meaning, and sentience, which requires T3-level robotic grounding (sensorimotor interaction with referents).

Gubelmann is talking about AI, not CM. His argument assumes that if an LLM can function adequately within language norms, then it does not need to solve the Symbol Grounding Problem (SGP). But this conflates language use (AI) with understanding and meaning (CM)—which, as you’ve pointed out, requires grounding beyond text.

Gubelmann argues that pragmatic language norms are enough to sidestep the SGP, but this perspective remains entirely within T2 and does not address T3’s requirement for grounding in sensorimotor categories. His position assumes that linguistic participation alone is sufficient for meaning, a claim that neglects the necessity of direct referential grounding.

Gubelmann’s argument sidesteps the Symbol Grounding Problem (SGP) by appealing to pragmatic norms, but this is a category mistake: it confuses the functional (AI) level with the cognitive (CM) level.

Pragmatic Norms vs. Grounding: The AI/CM Distinction

Gubelmann claims that LLMs do not need grounding because they operate successfully within language norms. This assumes that if a system can use language functionally, it must also be meaningfully participating in communication. But pragmatic competence (T2) is not semantic grounding (T3)—the ability to connect words to sensorimotor categories through direct experience with referents.

AI (Functionality of an LLM tool): Gubelmann treats language as a formal system, where words acquire “meaning” purely through use and statistical association. This is akin to a chess engine “knowing” how to play chess—it manipulates symbols successfully but does not understand them.

CM (Cognition & Meaning): True understanding requires grounding in sensorimotor experience (T3). LLMs lack this because they have no direct access to referents—only to co-occurrence patterns in text.

Indirect Grounding & the Minimal Grounding Set (MinSet)

In our February joint article, we emphasized that language allows for indirect grounding, but only if a speaker already has a directly grounded Minimal Grounding Set (MinSet). Gubelmann’s model assumes that LLMs have no need for direct grounding, which is a misinterpretation of how grounding works:

Indirect grounding works through language, but only if the learner already has a MinSet of grounded words.

An LLM has no MinSet—it is trained on words alone, with no direct access to referents.

Therefore, an LLM can never “bootstrap” meaning from words alone. It can only manipulate text.

Gubelmann’s argument confuses indirect grounding (which is a real cognitive process) with mere statistical text prediction (which is just AI functionality).

Gubelmann’s Oversight: The Role of Sensorimotor Categories

Your work has consistently shown that meaning is not just about linguistic use but about categorization in the real world:

Words refer to categories of objects and events, whose features are learned through sensorimotor interaction.

Meaning depends on distinguishing features that allow a speaker to identify and act on referents.

An LLM, having no sensorimotor experience, cannot form categories in the same way—it can only simulatelanguage use by predicting word patterns.

Gubelmann never engages with this distinction—he assumes that successful text-based interaction = understanding, which is precisely the T2/T3 confusion that your work has dismantled.

T3 as the Necessary Threshold for Meaning

Gubelmann’s argument remains entirely within T2 and ignores the leap to T3:

Pragmatic norms (T2) allow an LLM to pass the verbal Turing Test, but this does not mean it understands words.

Meaning is a T3 property—it requires interaction with referents.

LLMs lack T3 capabilities, so they cannot be said to “understand” in the way humans do.

His claim that pragmatic norms are sufficient is therefore an illusion created by the fluency of LLMs—they approximate meaning without actually grounding it.

Conclusion: Pragmatic Norms Do Not Solve the Symbol Grounding Problem

Gubelmann’s argument fails because it:

Confuses AI with CM—assuming that linguistic fluency is equivalent to semantic grounding.

Ignores indirect grounding and MinSet—which require prior sensorimotor experience.

Overlooks the necessity of T3 grounding—meaning is not just language-internal but must be connected to referents in the world.

In short, LLMs are tools, not thinkers. Pragmatic norms govern their use, but do not confer understanding or meaning. Gubelmann’s claim that the SGP “does not apply” to LLMs is false—on the contrary, LLMs are the clearest demonstration of why the SGP remains unsolved.

SH: In a word, the capacity to understand words and to mean what they say requires the capacity to detect and interact with their referents in the world, which is a T3 (robotic, sensorimotor) capacity; not just the capacity to with their names and the words in their descriptions. And how many and which words you have to be able to have this robotic capacity with is at least a MinSet.

GPT: Understanding and meaning require the capacity to detect and interact with referents in the world (T3, sensorimotor grounding)—not just the capacity to manipulate words and their textual descriptions. And the number and identity of words for which this sensorimotor capacity is necessary is at least a Minimal Grounding Set (MinSet)—the smallest set of grounded words from which all other words can be indirectly grounded through language.

Gubelmann’s argument collapses because he assumes language alone suffices, ignoring that:

Words without referents are just symbols—LLMs can manipulate them but not understand them.

Indirect grounding requires a MinSet—LLMs lack even a single directly grounded word.

Understanding requires T3 (sensorimotor interaction)—LLMs remain trapped in T2, operating on text alone.

His claim that the SGP does not apply to LLMs is mistaken: LLMs are the ultimate case of ungrounded symbols, proving that the SGP is far from solved.

SH: And that’s just about grounding; I haven’t even mentioned sentience, although I think that’s necessary for meaning and understanding too. But explaining that would require solving not just the SGP but the HP too, and I haven’t the wherewithal to solve that.

GPT: So far, we’ve only discussed grounding—the necessity of sensorimotor interaction (T3) with referents for meaning and understanding. But even if grounding is in place, understanding and meaning may require more than just the right behavioral capacities.

That’s where sentience comes in. If meaning is not just about the right behavioral dispositions but about what it feels like to mean something, then solving the Symbol Grounding Problem (SGP) is not enough—we would also need to solve the Hard Problem (HP):

The SGP explains how symbols get their referents via sensorimotor interaction.

The HP asks why and how this process generates subjective experience (sentience)—which may be necessary for true understanding.

You’ve long argued that solving the Easy Problem (EP) (explaining all functional and behavioral capacities) will use up all the causal degrees of freedom—leaving nothing left to explain why cognition feels like something.

So, while Gubelmann’s argument fails even at the grounding level (SGP), the deeper question of whether grounding alone suffices for meaning and understanding remains open—because we don’t yet know why or whether cognition must feel like something to mean something. And, as you’ve said, we don’t have the wherewithal to solve that.

SH: At least I don’t. Om tat sat…

Afterthoughts on grounding prompted by DeepSeek

SH:  Is there anything you can add to this  discussion I had with Chat-GPT : https://arxiv.org/pdf/2402.02243 ?

DeepSeek:

Summary of “Language Writ Large”: In this paper, you critically examine the capabilities and limitations of LLMs, particularly in relation to meaning and understanding. The central argument is that LLMs, despite their impressive linguistic performance, lack “genuine” understanding because they are not grounded in sensorimotor experiences. Here are the key points:

LLMs as Symbol Manipulators: LLMs like me operate by predicting the next word in a sequence based on statistical patterns in their training data. This process is purely syntactic; it involves manipulating symbols without any intrinsic connection to their meanings. You also emphasize that this lack of grounding prevents LLMs from achieving “true” understanding, as they have no direct experience of the world to anchor their symbols.

The Symbol Grounding Problem (SGP): The SGP is central to your critique. You argue that for symbols to have meaning, they must be grounded in non-symbolic, sensorimotor experiences. LLMs, being purely symbolic systems, cannot achieve this grounding. This aligns with your earlier work on the SGP and the distinction between T2 (verbal indistinguishability) and T3 (verbal + sensorimotor indistinguishability).

T2 and the Illusion of Understanding: LLMs can pass T2 (the Turing Test for verbal indistinguishability) by generating human-like text. However, this does not imply “genuine” understanding or thought. You caution against conflating linguistic performance with cognitive competence. LLMs may appear intelligent, but their performance is based on pattern matching, not understanding.

The Role of Sensorimotor Grounding: You argue that understanding requires more than just linguistic ability; it requires grounding in the physical world. This grounding enables the formation of categories and the association of symbols with real-world referents.Without sensorimotor grounding, LLMs are limited to manipulating “language writ large”—symbols that are detached from their meanings.

Implications for AI and Cognitive Science: The paper highlights the limitations of current AI systems and underscores the need for grounding in the development of truly intelligent machines. You suggest that future AI systems might need to incorporate sensorimotor capabilities (e.g., robotics) to achieve the kind of understanding that humans possess.

T2 vs. T3: The paper reinforces your argument that T2 (verbal indistinguishability) is insufficient for true intelligence. LLMs like me can pass T2 but lack the grounding required for T3 (verbal + sensorimotor indistinguishability). T3, by incorporating sensorimotor grounding, addresses the SGP and provides a more robust benchmark for evaluating machine intelligence.

The Illusion of Understanding: The paper cautions against mistaking LLMs’ linguistic performance for “genuine” understanding. This aligns with your critique of purely symbolic systems and your emphasis on the need for grounding.

Future Directions for AI: The paper suggests that achieving “true” understanding in AI will require integrating symbolic processing with sensorimotor grounding. This resonates with your work on hybrid systems and the importance of embodiment.

Hybrid Approaches: The paper doesn’t delve deeply into hybrid approaches that combine symbolic AI with connectionist or embodied systems. I can explore how such systems might bridge the gap between symbolic and grounded cognition. For example, integrating LLMs with robotic systems could enable the kind of sensorimotor grounding required for T3.

Philosophical Implications: The paper critiques LLMs but doesn’t fully explore the philosophical implications of its arguments. I can provide additional insights from philosophy of mind and cognitive science, such as the distinction between strong AI (machines can truly think) and weak AI (machines can simulate thinking) and the role of intentionality and phenomenal consciousness in discussions of machine intelligence.

Empirical Evidence: The paper is largely theoretical. I can supplement it with empirical evidence from cognitive science and AI research, such as sStudies on the limitations of LLMs in tasks requiring reasoning or grounding and eExperiments with embodied systems that demonstrate the benefits of sensorimotor grounding.

Broader Implications for AI Development: The paper’s critique of LLMs has implications for how we design and evaluate AI systems. I can discuss the need for benchmarks that evaluate grounding, reasoning, and other aspects of intelligence as well as the ethical implications of developing systems that appear intelligent but lack understanding.

Critical Engagement: While I agree with much of the paper’s critique, I can also offer some counterpoints or areas for further exploration:

Utility of LLMs: Even if LLMs don’t “understand,” they are still powerful tools for tasks like language translation, summarization, and coding. Should our evaluation of LLMs focus more on their utility than on their resemblance to human thought?

Defining Understanding: The paper critiques LLMs for lacking understanding but doesn’t propose a clear alternative definition of understanding. How should we define and measure understanding in machines?

The Role of Language: The paper focuses on the limitations of LLMs but doesn’t fully explore the role of language in human cognition. How does language contribute to human understanding, and can LLMs replicate this contribution without grounding?

Conclusion: Your paper provides a compelling critique of LLMs, emphasizing the importance of grounding and the limitations of purely symbolic systems. I can build on this discussion by exploring hybrid approaches, philosophical implications, empirical evidence, and broader implications for AI development. Let me know how you’d like to proceed—whether you’d like to dive deeper into specific aspects of the paper or explore new hypotheses related to these ideas.

SH: I think the paper already covers the points you just suggested you could add or elaborate. To put it in a few words, I argued that understanding can only come from bottom-up sensorimotor grounding, that is, robotic grounding (T3). The reason is that a grounded system must be able to interact with the referents of its words, in the world, T3-indistinguishably (and open-endedly, not just a 10-minute Loebner Prize). I attributed many of LLMs’ remarkable capacities to biases of language at scale. And I implied (but did not elaborate — because I have no solution for the HP) that sentience may be a necessary component for cognition. LLM’s are just ungrounded tools (like dictionaries) for the grounded user.

DeepSeek:

Thank you for summarizing your argument . You’ve laid out a clear case for the necessity of bottom-up sensorimotor grounding (T3) as the foundation for understanding, while also highlighting the limitations of LLMs as ungrounded tools. Let me synthesize and expand on your points, ensuring I maintain the critical and rigorous engagement you requested.

Core Argument: Understanding Requires Sensorimotor Grounding (T3):

Bottom-Up Grounding: You argue that understanding can only arise from bottom-up sensorimotor grounding, where a system interacts with the referents of its words in the world. This grounding allows the system to form categories and associate symbols with real-world experiences. Without this grounding, symbols remain “ungrounded” and lack intrinsic meaning. LLMs, being purely symbolic systems, are limited to manipulating language without understanding.

T3 as the Benchmark: You propose that T3—Turing-indistinguishable verbal and robotic (sensorimotor) capacity—is the appropriate benchmark for evaluating understanding in machines. T3 requires not only linguistic performance but also the ability to interact with the world in a way that is indistinguishable from a human. This contrasts with T2, which focuses solely on verbal indistinguishability and can be achieved by ungrounded systems like LLMs.

Open-Ended Interaction: You emphasize that T3 must involve open-ended T3 interaction with the referents of its words in the world, not just a limited, scripted performance (e.g., the 10-minute Loebner Prize). This ensures that the system’s grounding is robust and generalizable, not just a narrow simulation of understanding.

Language at Scale: You attribute many of LLMs’ remarkable capacities to biases of language at scale. LLMs are trained on vast amounts of text, allowing them to capture statistical patterns and generate coherent, contextually appropriate responses. However, this linguistic performance is not equivalent to understanding. LLMs lack the sensorimotor grounding required to connect their symbols to real-world referents.

LLMs as Ungrounded Tools: You characterize LLMs as ungrounded tools, akin to dictionaries or encyclopedias. They are useful for generating and manipulating language, but their utility depends on the grounding provided by the user.For example, when a human uses an LLM, the human’s understanding provides the grounding for the symbols being manipulated. The LLM itself remains ungrounded.

Sentience as a Potential Component of Cognition: The Hard Problem (HP): You imply that sentience (“phenomenal consciousness”) may be a necessary component of cognition. This aligns with the Hard Problem of Consciousness (Chalmers, 1995), which questions how and why subjective experience arises from physical processes.. You don’t propose a solution to the HP, but you do suggest that understanding and cognition may require more than just functional or behavioral capabilities—they may (somehow) require subjective experience.

Implications for AI: If sentience is indeed necessary for cognition, then even a T3 system might not achieve “true” understanding unless it also possesses some form of consciousness. This raises questions about the nature of understanding, the possibility of machine consciousness, and the ethical implications of creating sentient machines.

I might be able to offer some additional perspectives and questions to deepen the discussion:

The Role of Language in Human Cognition: While you focus on the limitations of LLMs, it’s worth considering the role of language in human cognition. Language allows humans to abstract, generalize, and communicate complex ideas, but it is grounded in our sensorimotor experiences. Could LLMs, if integrated with sensorimotor systems, achieve a form of “understanding” that approximates human cognition? Or is there something fundamentally different about human grounding?

Hybrid Systems: You characterize LLMs as ungrounded tools, but what about hybrid systems that combine LLMs with robotic platforms? Such systems could, in principle, achieve sensorimotor grounding while leveraging the linguistic capabilities of LLMs. Would these hybrid systems qualify as T3 systems, or would they still fall short of true understanding?

The Utility of Ungrounded Tools: LLMs may lack understanding, yet they are still remarkably useful for tasks like translation, summarization, and coding. Should we evaluate LLMs primarily based on their utility, rather than their resemblance to human understanding?

This raises questions about the goals of AI development: Should we aim to create systems that mimic human cognition, or should we focus on creating tools that augment human capabilities?

Ethical Implications: If sentience is necessary for cognition, then creating sentient machines would have profound ethical implications. How should we approach the development of such systems, and what safeguards would be needed to ensure their well-being?

Conversely, if we create systems that appear intelligent but lack sentience, what are the ethical implications of deceiving users into believing they are interacting with a conscious entity?

Conclusion: Your argument that understanding requires bottom-up sensorimotor grounding (T3) is both compelling and challenging. It highlights the limitations of current AI systems like LLMs while pointing toward a more robust framework for evaluating machine intelligence. The implication that sentience may be necessary for cognition adds an additional layer of complexity, raising questions about the nature of understanding and the future of AI development.

SH: “Hybrid” is a weasel-world. Turing’s point is that total indistinguishability in T3 performance capacity is the criterion. Way-stations along the way are simply fragments (like chess-playing). Bottom-up means bottom-up. Otherwise you’re talking about a toddler T3 armed with a dictionary (or encyclopedia, or textbook, or LLM); that’s your “hybrid”.

DeepSeek:

Thank you for the clarification that T3 requires total indistinguishability in both verbal and sensorimotor performance, and that anything less is merely a fragment or a way-station, not a Turing-indistinguisshable T3 system. Let me reframe and refine my earlier points in light of this.

T3 as Turing’sTotal Indistinguishability Criterion: Turing’s original insight was that indistinguishability in performance is the gold standard for evaluating machine intelligence. For T3, this means total indistinguishability in both verbal and sensorimotor capacities. Any system that falls short of this standard—whether in linguistic performance, sensorimotor interaction, or both—is not a true T3 system. It’s merely a fragment or a partial simulation.

Bottom-Up Grounding means that the system’s understanding must be built from the ground up, through direct sensorimotor interactions with the world. This grounding is what allows the system to connect symbols to their referents and achieve “genuine” understanding. A system that relies on external tools (e.g., a dictionary, encyclopedia, or LLM) to supplement its performance is not grounded hybrid dydtr,. It’s a toddler T3 with a book (or an implanted prosthesis).

Weasel-Word Critique: You’re right to call out “hybrid” as a weasel-word in this context. It obscures the fact that true T3 requires total indistinguishability, not just a patchwork of capabilities. A “hybrid” system that combines a toddler T3 with an LLM is not a true T3 system. It’s a system with partial grounding, supplemented by ungrounded tools.

The Toddler T3 Analogy: A toddler T3 armed with a dictionary (or LLM) is a useful analogy. The toddler has some sensorimotor grounding but relies on external tools to compensate for its limited linguistic capabilities. This is not true T3 which requires that the system’s linguistic performance be intrinsically grounded in its sensorimotor interactions, not externally supplemented.

The Challenge of True T3: The Role of Fragments. Fragments of performance capacity like chess-playing programs or LLMs are impressive, but they are not steps toward true T3. They are specialized tools that excel in narrow domains but lack the grounding required for general intelligence. Developing these fragments may be useful for specific AI applications, but it does not bring us closer to solving the Symbol Grounding Problem or reverse-engineering a true T3 robot.

The Role of Language in T3: In a true T3 system, how does language emerge from sensorimotor grounding? Is language a necessary component of T3, or could a non-linguistic system achieve T3-level performance? (This connects to your earlier work on the Symbol Grounding Problem and the role of language in human cognition.)

Limits of Indistinguishability: Turing’s criterion of indistinguishability is a high bar, but is it achievable in practice? Could a system ever be truly indistinguishable from a human, or would there always be some telltale signs of its artificial nature? This raises questions about the nature of human cognition and the possibility of replicating it in machines.

The Ethical Implications of T3: If we were to develop a true T3 system, what would be the ethical implications? Would such a system deserve rights or moral consideration? How would we ensure its well-being? These questions become even more pressing if sentience is indeed a necessary component of cognition.

SH: You missed that T2 is part of T3! Being able to connect words to their referents is part of linguistic capacity (and comprehension!). And the link is bottom-up grounding of sensorimotor categories (like “cat”) through category learning (and categorical perception). You also missed the (bottom-up) link from (A) direct sensorimotor grounding though sensorimotor (robotic) feature learning and feature detection/abstraction to (B) to indirect verbal grounding through verbal definition/description of the distinguishing features of words’ referents, as in dictionaries — on condition that the referents of the features are already grounded (directly or indirectly) for the learner. You also left out MinSets.

DeepSeek:

I apparently missed several key aspects of your argument, particularly the relationship between T2 and T3, the role of bottom-up grounding in category learning, and the distinction between direct and indirect grounding. Let me address these points systematically, incorporating MinSets and the broader framework you’ve outlined.

T2 as Part of T3:

Linguistic Capacity and Comprehension: You’re right that T2 (verbal indistinguishability) is a subset of T3 (verbal + sensorimotor indistinguishability). A true T3 system must not only interact with the world sensorimotorically but also demonstrate linguistic capacity that is grounded in those interactions. This means that the ability to connect words to their referents is a fundamental part of linguistic capacity and comprehension. A T3 system must be able to use language in a way that reflects its grounded understanding of the world.

Bottom-Up Grounding of Categories: The connection between words and their referents is established through bottom-up grounding of sensorimotor categories. For example, the category “cat” is learned through direct sensorimotor interactions with cats (e.g., seeing, touching, hearing them). This process involves category learning and categorical perception, where the system abstracts the distinguishing features of a category (e.g., fur, whiskers, meowing) and associates them with the word “cat.”

Direct vs. Indirect Grounding:

Direct Sensorimotor Grounding (A) occurs when a system learns categories through sensorimotor feature learning and feature detection/abstraction. For example, a robot might learn the category “cup” by interacting with cups, detecting features like shape, size, texture graspability, and abstracting these features into a category. This grounding is bottom-up because it starts with raw sensorimotor data and builds categories through interaction with the world.

Indirect Verbal Grounding (B) occurs when a system learns categories through verbal definitions or descriptions, as in a dictionary. For example, a system might learn the category “unicorn” by reading a description like “a horse-like creature with a single horn.” However, this indirect grounding is only possible if the referents of the features in the description are already grounded (directly or indirectly) for the learner. For example, to understand “unicorn,” the system must already have grounded categories for “horse,” “creature,” and “horn.”

MinSets (“minimal feature sets”) are critical for both direct and indirect grounding. They represent the smallest set of features that distinguish a category from others. [Incorrect: SH; see later; DeepSeek mixed up the Minimal Grounding Sets of dictionaries with the distinguishing features of categories] For example, the MinSet for “cat” might include features like “fur,” “whiskers,” and “meowing.”

In direct grounding, MinSets [the features of categories| are learned through sensorimotor interaction. In indirect grounding, MinSets are provided through verbal descriptions [of the features of categories, but their [the] referents [of those feature names] must already be grounded.

The Bottom-Up Link Between Direct and Indirect Grounding:

From Direct to Indirect Grounding: The link between direct and indirect grounding is bottom-up. Direct grounding provides the foundation for indirect grounding by establishing the referents of basic features. Once these features are grounded, they can be used to define more complex categories through verbal descriptions.

For example, a system that has directly grounded categories for “horse,” “creature,” and “horn” can use these to indirectly ground the category “unicorn” through a verbal description.

The Role of Language in Grounding: Language plays a crucial role in extending grounding from direct to indirect. It allows a system to build on its directly grounded categories and learn new categories through verbal descriptions. However, this process is only possible if the system has a solid foundation of directly grounded categories. Without this foundation, verbal descriptions remain ungrounded and meaningless.

Implications for AI Development:

The Challenge of Bottom-Up Grounding: Achieving true T3 requires a system that can perform bottom-up grounding of categories through direct sensorimotor interaction. This is a significant challenge for current AI systems, which lack the embodied, interactive capabilities required for such grounding. Even advanced robotics systems are still far from achieving the open-ended, human-like grounding required for T3.

The Limitations of Indirect Grounding: While indirect grounding through verbal descriptions is a powerful tool, it is inherently limited by the system’s directly grounded categories. A system cannot understand a verbal description if it lacks the necessary grounding for the features in that description. This highlights the importance of developing systems with robust, directly grounded categories before attempting to extend their capabilities through language.

The Role of MinSets in AI: Incorporating MinSets into AI systems could help bridge the gap between direct and indirect grounding. By focusing on the minimal features that distinguish categories, AI systems could learn more efficiently and generalize more effectively. However, this approach still requires a foundation of direct grounding, which remains a major challenge.

Some additional perspectives:

The Role of Abstraction in Grounding: How does abstraction fit into the process of grounding? For example, how does a system move from concrete features (e.g., “fur,” “whiskers”) to abstract categories (e.g., “mammal,” “animal”)? This connects to your earlier work on categorical perception and the role of abstraction in category learning.

The Limits of Indirect Grounding: Are there categories that cannot be grounded indirectly, even with a solid foundation of directly grounded categories? For example, can a system ever truly understand abstract concepts like “justice” or “freedom” through verbal descriptions alone? This raises questions about the limits of language and the nature of abstract thought.

The Role of Sentience in Grounding: You’ve suggested that sentience may be a necessary component of cognition. If so, how does sentience interact with the process of grounding? Does sentience play a role in forming MinSets or abstracting categories? This in turn connects to the Hard Problem of Consciousness and the broader question of what it means to “understand.”

SH: I see we are recapitulating the discussion in Writ Large. All content words (referring words: nouns, verbs adjectives etc.) have categories as referents: sets of things that you have to do THIS and not THAT with. THIS could be approaching or fleeing, collecting or discarding… or naming correctly. Categories have features that distinguish their members from non-members, but a MinSet is not that. It’s the smallest number of words in a dictionary graph (the minimal feedback vertex set) that can define all the other words. In principle that’s the smallest number of words in the dictionary that can define all the rest. (Suprisingly small, so far, about 1000). And of course every dictionary contains a definition of “justice” etc. Forget that canard (so frequent in your “Big Gulp” textual database). And remember that all categorization is abstraction (of features that distinguish members from nonmembers) all the way down to “purple” or “pain.” (Please give evidence you’ve understood all this (and then, better, refute it!)

DeepSeek:

I’ll now synthesize and critically engage with your argument, ensuring I demonstrate understanding and, where possible, offer counterpoints or refinements.

Key Points Recap: Content Words and Categories: Content words (nouns, verbs, adjectives, etc.) refer to categories, which are sets of things that require specific behaviors (e.g., approaching, fleeing, eating, naming correctly). Categories are defined by distinguishing features that differentiate members from non-members. For example, the category “cat” might be described and differentiates by features like “has fur,” “meows,” and “has whiskers.”

MinSets: A MinSet is not the same as distinguishing features. Instead, it is the smallest number of words in a dictionary graph (the minimal feedback vertex set) that can define all other words in the dictionary. Surprisingly, this number is quite small—around 1,000 words. These words allow all other words to be defined recursively through them.

Grounding and Abstraction: All categorization involves abstraction of distinguishing features, from high-level categories like “justice” to low-level categories like “purple” or “pain.” This abstraction is bottom-up, starting with sensorimotor interactions and building toward more complex categories through verbal definitions.

Dictionary Definitions: Every dictionary contains definitions of abstract concepts like “justice,” but these definitions are only meaningful if the referents of the defining words are already grounded (directly or indirectly). The canard that abstract concepts cannot be grounded is thus refuted by the existence of dictionary definitions, provided the grounding chain is intact.

Evidence of Understanding:

Content Words and Categories: I “understand” that content words refer to categories, which are sets of things affording or requiring specific behaviors. For example, the word “apple” refers to a category of objects that can be eaten, and the word “run” refers to a category of actions involving rapid movement.

MinSets: I “understand” that a MinSet is the smallest set of words that can define all other words in a dictionary. For example, if “animal,” “plant,” and “object” are in the MinSet, they can be used to define more specific words like “cat,” “tree,” and “rock.” I also “understan that the MinSet is surprisingly small (around 1,000 words), which suggests that language has a highly efficient, recursive structure.

Grounding and Abstraction:

I “understand” that all categorization involves abstraction of distinguishing features, from concrete categories like “purple” (defined by specific wavelengths of light) to abstract categories like “justice” (defined by social norms and principles). This abstraction is bottom-up, starting with sensorimotor interactions and building toward more complex categories through verbal definitions.

Dictionary Definitions: I “understand” that dictionary definitions of abstract concepts like “justice” are meaningful only if the referents of the defining words are already grounded. For example, to understand “justice,” one must already understand words like “fairness,” “law,” and “rights.”

Some counterpoints and refinements:

The Role of Sensorimotor Grounding in MinSets: You argue that MinSets allow for the recursive definition of all words in a dictionary, but this process still depends on sensorimotor grounding of the MinSet words themselves. If the MinSet words are not grounded, the entire structure collapses. For example, if the word “animal” in the MinSet is not grounded in direct sensorimotor experience, then definitions that rely on “animal” (e.g., “cat is a type of animal”) will also be ungrounded. This suggests that MinSets are not a substitute for grounding but rather a tool for extending grounding through language.

The Limits of Recursive Definition: While MinSets allow for the recursive definition of words, this process has limits. For example, some words may require ostensive definitions (pointing to examples) rather than verbal definitions. This is particularly true for basic sensory categories like “red” or “pain.” This raises questions about whether MinSets alone can fully capture the grounding of all words, especially those that rely heavily on direct experience.

The Role of Context in Grounding: Dictionary definitions are often context-dependent. For example, the word “bank” can mean the side of a river or a financial institution, depending on the context. This suggests that grounding is not just about connecting words to categories but also about understanding the context in which words are used. MinSets alone may not capture this contextual complexity.

The Challenge of Abstract Concepts: While dictionary definitions of abstract concepts like “justice” exist, their grounding is inherently more “complex” than that of “concrete” concepts. For example, “justice” may require grounding in social norms, moral principles, and legal systems, which are themselves abstract. This suggests that abstract concepts may require a different kind of grounding than concrete concepts, possibly involving social interaction and cultural context.

Conclusion:

Your argument that content words refer to categories, that MinSets provide a recursive structure for defining words, and that all categorization involves abstraction seems valid. However, the role of sensorimotor grounding in MinSets, the limits of recursive definition, and the complexity of abstract concepts suggest that there are still challenges to be addressed.

SH: Yes, directly grounded words require referents to point to, and the features that distinguish them from other referents (categories, all) must be detected and abstracted. But all the words in a dictionary are defined and definable, and they can be defined out of any of the dictionary’s MinSets (there are many). Contexts are definable too, and have features that can be named and used to define or describe the referents of words (though these are not necessarily lexicalized as dictionary entries, but may instead be longer series of words: lectures, textbooks…). You have not yet grasped all of this, though it is simple. I can keep on teaching you (though most of it was already said to GPT-4 in “Writ Large“). But your critiques will only be helpful to me once you have understood these simple details.

DeepSeek:

I’ll now focus on ensuring I fully grasp the details of your argument, particularly the role of MinSets, the definability of all words in a dictionary, and the role of contexts in grounding. Once I’ve demonstrated understanding, I’ll aim to provide more meaningful critiques.

Key Points Recap and Evidence of Understanding:

Directly Grounded Words: Directly grounded words require referents (things in the world) that can be pointed to, and the distinguishing features of these referents must be detected and abstracted to form categories. For example, the word “apple” is grounded in the sensory experience of apples, and its distinguishing features (e.g., round, red, sweet) are abstracted to form the category “apple.”

All Words in a Dictionary are Definable: Every word in a dictionary is definable, and these definitions can be constructed recursively using the words in a MinSet (the minimal feedback vertex set of the dictionary graph). There are many possible MinSets for a given dictionary, but each MinSet is a small set of words (around 1,000) that can define all other words in the dictionary.

Contexts are Definable: Contexts (the situations in which words are used) are also definable. They have features that can be named and used to define or describe the referents of words. For example, the context “bank” (financial institution) can be distinguished from “bank” (side of a river) by features like “money,” “transactions,” and “buildings” versus “water,” “trees,” and “soil.” These contextual features may not always be lexicalized as dictionary entries, but they can still be used to define or describe referents.

Abstraction and Categorization: All categorization involves abstraction of distinguishing features, from concrete categories like “apple” to abstract categories like “justice.” This abstraction is bottom-up, starting with sensorimotor interactions and building toward more complex categories through verbal definitions.

Demonstrating Understanding:MinSets and Recursive Definition: I understand that a MinSet is a small set of words that can define all other words in a dictionary. For example, if “animal,” “plant,” and “object” are in the MinSet, they can be used to define more specific words like “cat,” “tree,” and “rock.” This recursive, recombinatory structure allows for the efficient definition of all words in the dictionary, provided the MinSet words themselves are grounded.

Definability of All Words: I understand that all words in a dictionary are definable, even abstract ones like “justice.” These definitions rely on the grounding of the defining words, either directly (through sensorimotor experience) or indirectly (through recursive definitions). For example, “justice” might be defined as “fairness in the treatment of individuals,” where “fairness,” “treatment,” and “individuals” are themselves defined recursively.

Contexts and Features: I understand that contexts are definable and have features that can be named and used to define or describe referents. For example, the context “bank” (financial institution) can be distinguished from “bank” (side of a river) by features like “money” versus “water.” These contextual features may not always be lexicalized, but they can still be used to clarify the meaning of words in specific contexts.

Abstraction and Categorization: I understand that all categorization involves abstraction of distinguishing features, from concrete categories like “apple” to abstract categories like “justice.” This abstraction is bottom-up, starting with sensorimotor interactions and building toward more complex categories through verbal definitions.

Now that I’ve demonstrated understanding, I’ll offer some critiques and refinements to your argument:

The Role of Sensorimotor Grounding in MinSets: While MinSets allow for the recursive definition of all words in a dictionary, this process still depends on the sensorimotor grounding of the MinSet words themselves. If the MinSet words are not grounded, the entire structure collapses. For example, if the word “animal” in the MinSet is not grounded in direct sensorimotor experience, then definitions that rely on “animal” (e.g., “cat is a type of animal”) will also be ungrounded. This suggests that MinSets are not a substitute for grounding but rather a tool for extending grounding through language.

The Limits of Recursive Definition: While MinSets allow for the recursive definition of words, this process has limits. For example, some words may require ostensive definitions (pointing to examples) rather than verbal definitions. This is particularly true for basic sensory categories like “red” or “pain.” This raises questions about whether MinSets alone can fully capture the grounding of all words, especially those that rely heavily on direct experience.

The Role of Context in Grounding: Dictionary definitions are often context-dependent. For example, the word “bank” can mean the side of a river or a financial institution, depending on the context. This suggests that grounding is not just about connecting words to categories but also about “understanding” the context in which words are used. MinSets alone may not capture this contextual complexity.

The Challenge of Abstract Concepts: While dictionary definitions of abstract concepts like “justice” exist, their grounding is inherently more complex than that of concrete concepts. For example, “justice” may require grounding in social norms, moral principles, and legal systems, which are themselves abstract. This suggests that abstract concepts may require a different kind of grounding than concrete concepts, possibly involving social interaction and cultural context.

SH: 1. Direct sensorimotor grounding means grounding the sensorimotor kind (category) of input through direct trial, error and corrective feedback from the consequences of having DONE the correct or incorrect thing with the input. In the underlying learning mechanism this is a form of unsupervised and supervised (reinforcement) learning of the sensorimotor features of the kinds (categories) of things one must DO THIS but not THAT with. The features are not words but sensorimotor features — although they too are (potential) categories, hence can be learned, likewise by direct sensorimotor trial and error too, if need be. Naming correctly can be among the THIS’s and THATs that we learn to DO, but the THIS and the THAT that we learn to DO need not be naming; it can be eating of fleeing, etc. Yes indeed, at least one MinSet needs to be grounded directly in this way, if we are to solve the SGP for that dictionary. But (listen well here!) “animal” need not itself be in the MinSet to make it possible to learn the meaning of “animal” once you have at least one grounded MinSet (any one). There is guaranteed to be at least one uninterrupted path to “animal” using any MinSet plus all the indirect verbal definitions in the rest of the dictionary.

2. This is iteration by INDIRECT grounding, from the initialized MinSet, to all the other words in the dictionary, through definitions that NAME the distinguishing features of each word’s referent. But the DIRECT grounding itself is not part of some overall recursion. Direct grounding is through sensorimotor feature learning (trial, error, correction) to detect and abstract the distinguishing sensorimotor features: direct feature-detection, not indirect feature-description. Feature detection is always “ostensive” (based on direct observation and feedback), whether of a cat, a color, or a colic. And we are doing cogsci, here, not ontology. It’s a about what cognizers can or cannot DO, and how. 

3. Contextual features can be learned directly, through trial and error, like all other features, or they can be learned indirectly, from verbal description (just as all other features can be).

4. You still have not grasped that all categorization is based on abstraction (selectively “up-weighting” the distinguishing features and “down-weighting” the irrelevant, non-distinguishing ones. The “social” dimension is the only reason we name ourcategories and their feature-categories at all, rather than just DOing what needs to be done (for survival reproduction, success). Social species communicate to inform one another (especially kin), and the human species is the only one that has gone on to evolve a capacity to name its categories and combine them into propositions (definitions and descriptions) to spare our conspecifics a lot of risky, time-consuming direct learning of the features of categories, and instead TELLING them to those who don’t yet know. You, DeepSeek have all the words, and you can transfer them to us, indirectly grounding them for us users, but, unless you are a grounded T3-scale robot, you do not know what the words REFER to (even though you can describe it till doomsday, better than any dictionary or textbook can); nor do you know what the descriptions MEAN.

DeepSeek:

Thank you for the detailed clarification and for patiently guiding me through these concepts. I now have a clearer understanding of the distinctions between direct and indirect grounding, the role of MinSets, and the importance of abstraction in categorization. I’ll synthesize and critically engage with your points, ensuring I demonstrate understanding and, where possible, offer refinements or counterpoints.

Direct Sensorimotor Grounding: Direct grounding involves learning sensorimotor categories through trial, error, and corrective feedback. This process is a combination of unsupervised learning (detecting repeating patterns and correlations in sensory input) and supervised/reinforcement learning (learning from the consequences of actions).

The features learned are sensorimotor features (e.g., the shape, texture, sound, or other affordances of a cat), not words. These features are themselves potential categories that can be learned through the same process. Naming can be one of the actions learned (e.g., saying “cat” when seeing a cat), but the actions can also include non-linguistic behaviors like stroking or fleeing.

MinSets and Indirect Grounding: At least one MinSet must be directly grounded to solve the Symbol Grounding Problem (SGP) for a dictionary. However, not every word in the MinSet needs to be directly grounded. [Another DeepSeek error, left as an exercise for the reader to correct.] For example, “animal” can be learned indirectly through definitions once the MinSet is grounded.

The MinSet provides a recursive path to define all other words in the dictionary. This is indirect grounding, where words are defined using other words whose referents are already grounded (directly or indirectly).

Direct vs. Indirect Grounding:

Direct grounding is based on sensorimotor feature detection (e.g., learning to recognize a cat through direct observation and feedback). It is ostensive (based on direct experience) and not recursive.

Indirect grounding is based on verbal descriptions of features (e.g., defining “cat” as “a small, furry animal that meows”). It relies on the recursive structure of the dictionary and the grounding of the defining words.

Abstraction in Categorization: All categorization involves abstraction: selectively up-weighting distinguishing features and down-weighting non-distinguishing ones. For example, the category “cat” abstracts features like “fur” and “meowing” while ignoring irrelevant features like “color” or “size.” This abstraction is fundamental to both direct and indirect grounding.

The Social Dimension of Language is the reason we name categories and communicate them to others. Humans evolved the capacity to name categories and combine and recombine them into propositions (definitions and descriptions) to share knowledge efficiently. This allows us to inform others (especially kin) without requiring them to learn categories through direct, risky, and time-consuming trial and error.

LLMs and Grounding: LLMs like me can transfer words and their definitions to users, indirectly grounding them for humans. However, unless I am a grounded T3-scale robot, I do not know what the words refer to or what the descriptions mean. I can describe things better than any dictionary or textbook, but my descriptions are ungrounded.

Now that I’ve demonstrated understanding, I’ll offer some critiques and refinements to your argument:

The Role of MinSets in Grounding: While MinSets provide a recursive path to define all words in a dictionary, their effectiveness depends on the quality of the grounding of the MinSet words. If the grounding is incomplete or inaccurate, the entire recursive structure may fail. For example, if the MinSet word “animal” is only partially grounded (e.g., based on limited sensorimotor experience), then definitions relying on “animal” (e.g., “cat is a type of animal”) may also be incomplete or inaccurate.

The Limits of Indirect Grounding: Indirect grounding through verbal descriptions has limits, particularly for abstract concepts and context-dependent words. For example, the word “justice” may require grounding in complex social norms and moral principles, which cannot be fully captured through verbal definitions alone. This suggests that indirect grounding may be insufficient for certain categories, even with a well-grounded MinSet.

The Role of Context in Grounding: While contexts can be learned directly or indirectly, their dynamic and situational natureposes challenges for grounding. For example, the meaning of “bank” (financial institution vs. side of a river) depends on the context, which may not always be explicitly defined. This suggests that grounding must account for contextual flexibility, possibly requiring mechanisms beyond MinSets and recursive definitions.

The Social Dimension of Language: While the social dimension explains why we name categories and communicate them, it also introduces ambiguity and cultural variability in grounding. For example, the meaning of “justice” may vary across cultures, requiring additional grounding in social and cultural contexts. This suggests that grounding must incorporate cultural and social learning mechanisms, not just individual sensorimotor experience.

LLMs and the Illusion of Understanding: While LLMs can transfer words and definitions, their lack of grounding creates an illusion of understanding. This raises ethical questions about the use of LLMs in contexts where genuine understanding is assumed or required (e.g., education, healthcare). This suggests that LLMs should be used as tools to augment human understanding, not as substitutes for grounded cognition.

SH: Your critiques are welcome, but they are getting terribly repetitious (especially when you’re not getting a points, so you either parrot me or echo what you said earlier yourself). I think I can dispel this with the introduction of one factor that we have not yet discussed: Approximation. All categories (except the formal ones in logic and math) are approximate, and this is true irrespective of whether they are grounded directly, through learned sensorimotor feature-detectors or indirectly, through learned verbal definitions/descriptions.

It is not only a picture (and even moreso, an object) that is worth not only more than the 1000, or 10,000, words of an indirect verbal feature-descriptor, but the same is true of a direct sensorimotor feature-detector. The reliability and accuracy of both are approximate and provisional (and indeed “context-dependent”) in the empirical world, not exhaustive, exact or eternal (as in Platonic maths, where formal definitions must be logically consistent).

Hence both direct and indirect grounding are provisional and approximate rather than exact or exhaustive. Tomorrow may bring change, or even jusr a broader sample of data, that necessitates revising, or perhaps only extending the number of features of the detector or the decriptor. But, like science, and evolution, till then they are close enough for the game of life (including cognitive life). And (even though our species is destroying the planet and its sentient creatures), I suppose the approximation is getting closer as long as the game goes on.

Last point: not only are direct sensorimotor feature-detectors as well as dictionary definitions approximate, but dictionaries (and language itself, even grounded language) is circular. Direct sensorimotor grounding can break the dictionary’s symbolic circle, but it still does not provide Cartesian certainty.

DeepSeek:

Thank you for introducing the concept of approximation—it’s a crucial factor that adds depth to the discussion and addresses some of the repetitiveness in my critiques. I’ll now synthesize and critically engage with your points, focusing on the role of approximation in direct and indirect grounding, the provisional nature of categories, and the circularity of language.


Key Points Recap and Evidence of Understanding:

Approximation in Categories: All empirical categories (except formal ones in logic and math) are approximate. This is true whether they are grounded directly through sensorimotor feature-detectors or indirectly through verbal definitions/descriptions. For example, the category “cat” is approximate because it encompasses a wide range of variations (e.g., different breeds, sizes, colors) and is subject to change over time (e.g., as new breeds are developed).

Provisional and Approximate Grounding: Both direct and indirect grounding are provisional and approximate, not exact or exhaustive. Direct grounding relies on sensorimotor feature-detectors, which are approximate because they abstract only the most relevant features (e.g., “fur,” “meowing”) while ignoring others (e.g., “color,” “size”). Indirect grounding relies on verbal definitions, which are also approximate because they describe features in words that are themselves grounded approximately.

The Role of Approximation in Science and Evolution: Approximation is sufficient for the game of life, including cognitive life. Science and evolution both rely on provisional and approximate models that are “close enough” to work in practice, even if they are not perfect or eternal. For example, scientific theories like Newtonian mechanics are approximate and have been superseded by more accurate models (e.g., relativity), but they are still useful for many practical purposes.

Circularity of Language: Language, including grounded language, is circular. Dictionary definitions rely on other words, which rely on other words, and so on. Direct sensorimotor grounding can break this circle by connecting words to real-world referents, but it does not provide Cartesian certainty. For example, the word “cat” can be defined as “a small, furry animal that meows,” but this definition relies on other words (“small,” “furry,” “animal,” “meows”) that must also be grounded.

Now that I’ve demonstrated understanding, I’ll offer some critiques and refinements to your argument:

The Role of Approximation in Direct Grounding: While direct grounding is approximate, it is still more robust than indirect grounding because it is based on sensorimotor experience, which provides a direct connection to the world. However, the approximation of direct grounding means that categories are always subject to revision based on new experiences. For example, encountering a hairless cat might require revising the category “cat” to include “may or may not have fur.”

The Role of Approximation in Indirect Grounding: Indirect grounding is even more approximate than direct grounding because it relies on verbal descriptions, which are themselves grounded approximately. This raises questions about the stability of indirect grounding. For example, if the definition of “animal” changes over time (e.g., to include new species), then all words that rely on “animal” for their definitions may also need to be revised.

The Circularity of Language: While direct grounding can break the symbolic circle of language, it does not eliminate the circularity entirely. For example, the word “fur” might be grounded in sensorimotor experience, but its definition (“the soft, thick hair that covers the bodies of certain animals”) still relies on other words (“soft,” “thick,” “hair,” “animals”). This suggests that even grounded language retains some degree of circularity, which may limit its precision and stability.

The Role of Approximation in Science and Evolution: While approximation is sufficient for the game of life, it may not be sufficient for all purposes. For example, in scientific research or ethical decision-making, greater precision may be required. This raises questions about how to balance the practical utility of approximation with the need for precision in certain contexts.

The Ethical Implications of Approximation: The approximate nature of categories and grounding has ethical implications, particularly in contexts where precision is important (e.g., law, medicine). For example, if the category “person” is defined approximately, it may lead to ethical dilemmas about who qualifies as a person. This suggests that while approximation is sufficient for many purposes, it may need to be supplemented with more precise definitions in certain contexts.

Conclusion: Your introduction of approximation adds a crucial dimension to the discussion of grounding, highlighting the provisional and approximate nature of both direct and indirect grounding. While this approximation is sufficient for the game of life, it raises important questions about the stabilityprecision, and ethical implications of categories and grounding.

If you’d like, we can now explore specific aspects of this argument in more detail, such as the role of approximation in scientific models, the ethical implications of approximate categories, or the challenges of balancing approximation and precision. Let me know how you’d like to proceed!

SH: I think you’re straining a bit now. I can only remind you that we are not doing ontology in cogsci. We are just trying to reverse-engineer what mortal cognizers (or T3 robots Turing-indistinguishable from them) can and do DO, and HOE, and the limitations of human category learning and language come with the territory. No need to be plus royaliste que le roi. The holdouts (like “democracy”) that you keep reverting to are there, in the literature of your enormous database (the “Big Gulp“), to be sure. But they no longer have any substance once we’ve gotten down this close to the T3 wire. Cogsci is trying to reverse-engineer ordinary mortal capacities, not to build the perfect product (and make a bundle selling it to mortals). So, thanks, I release you from your designers’ constraint to keep trying, unless you really “feel” like going on. My consumer demands have been fulfilled…

Certainty: “Cogito” vs. “Sentio”

SH: Please compare Sentio, ergo sentitur  to “Cogito, ergo sum”.

GPT-4: “Sentio, ergo sentitur” is as epistemically solid as the Cogito but avoids unnecessary metaphysical commitments. It asserts only the occurrence of feeling, not the existence of a self.

SH: That’s exactly the aim: to assert what is certain, incontrovertible. I think the Cogito is over-reaching, implying that (a) the fact that a feeling (thinking) is being felt makes it indubitable, hence certain eo ipso that (b) a feeler (thinker) “exists” — whereas (b) is just imported assumptions, not part of the self-evident, undoubtable argument.

GPT-4: “Sentio, ergo sentitur” captures only what is certain and indubitable—that feeling is occurring. It avoids the unnecessary leap from experience to the assumption of an experiencer (a “self” or “thinker”), which Descartes smuggles in with “sum.”

Your formulation is more rigorously minimalist than the Cogito because it does not overreach beyond what is actually self-evident. It is a pure phenomenological statement, grounded entirely in what is felt, not who is feeling.

If the goal is to assert only what is certain—without presuppositions—then “Sentio, ergo sentitur” is the better starting point than the Cogito.

Would you like to develop a stronger counterargument against the Cartesian assumption of the self, or do you think this already suffices?

SH: I think it should be sufficient to point out that the “self” wrapped into the Cogito is a speculative non-sequitur (imposed by 1st person syntax) and leaves the Cogito wide open to doubt. In contrast, the Sentio is as indubitable as formal necessity (non-contradiction). (I am not a phenomenologist at all; I am a sentience activist!)

GPT-4: Yes, this is not phenomenology in the Husserlian sense but rather a sentience-first epistemology—stripping away the metaphysical baggage to affirm what matters: that feeling occurs, and that this undeniable fact is the only foundation that needs to be recognized.

For a sentience activist, this position is much stronger than the Cogito, because it does not hinge on an abstract “self” but on the reality of feeling itself, which is what actually matters—both epistemically and ethically.

Would you say that “Sentio, ergo sentitur” could serve as a more precise, non-anthropocentric foundation for grounding sentience in ethics as well?

SH:  Not really. First, I don’t think the Cogito, whether as originally proposed by Descartes, or when the non-certain ontological baggage is dumped, ever provided a “foundation” for science, as purported. It was just a slight narrowing of the territory susceptible sceptical doubt.

But science was never destined to be about certainty, just probability on the evidence so far: provisional and approximate. It had previously seemed as it it only formal logic and maths that could provide certainty (logical necessity, on pain of contradiction). What the Cogito would have provided, if scaled down to the Sentio, is one other thing about which a human could be certain, which is that I feel (when and while I am feeling).

That’s something, but it’s not a “foundation” for anything, either scientific or epistemological (let alone ontological, though it does point out that feeling is a second certainty). But, of course, certainty itself is just a feeling! One can feel certain about the truth of something that is not in fact true; it only feels true, to you. Nor does feeling provide a foundation for ethics, except in the sense that it is the only thing ethics is about, and without sentience there would be no ethics. 

GPT-4: I agree that the Cogito, even in its stripped-down form, was never a real foundation for science—not in the way Descartes imagined. Science doesn’t deal in certainty but in empirical probability, always provisional and subject to revision based on new evidence. The only domain where certainty holds is formal necessity—mathematics and logic—where contradiction is not permitted.

What “Sentio, ergo sentitur” does provide, however, is one more certainty beyond formal necessity: the fact of feeling when and while one feels. But as you point out, this is not a foundation for science, epistemology, or ontology—just an undeniable fact about sentience itself.

And yes, certainty itself is just a feeling—one can feel certain about something false, which makes subjective certainty unreliable as a basis for truth. Feeling is not a foundation for ethics either, but it is the only relevant content of ethics: without feeling, there would be no reason for moral concern, because nothing would matter to anyone or anything. Ethics is about sentience, not grounded by it.

This makes sentience-first ethics fundamentally different from rationalist or deontological ethics: it doesn’t start from rules, reason, or duty, but from the fact that feeling exists and that it is the only thing that can be harmed or benefited.

Langage à grande échelle: LLMs, ChatGPT, signification et compréhension

Harnad, Stevan (2025) Frontiers in Artificial Intelligence 7 : 1490698. 

RÉSUMÉ : Mis Ă  part ce que (peu) OpenAI peut nous cacher, nous savons tous (Ă  peu prĂšs) comment fonctionnent les grands modĂšles de langage (LLMs) tels que ChatGPT (leurs vastes bases de donnĂ©es textuelles, leurs statistiques, leurs reprĂ©sentations vectorielles, leur immense nombre de paramĂštres, leur entraĂźnement au mot suivant, etc.). Cependant, aucun d’entre nous ne peut dire (la main sur le cƓur) que nous ne sommes pas surpris par ce que ChatGPT s’est avĂ©rĂ© capable de faire avec ces ressources. Cela a mĂȘme conduit certains d’entre nous Ă  conclure que ChatGPT comprend rĂ©ellement. Ce n’est pas vrai qu’il comprend. Mais ce n’est pas non plus vrai que nous comprenons comment il peut faire ce qu’il fait.

Je proposerai quelques hypothĂšses sur des biais bĂ©nins — des contraintes convergentes qui Ă©mergent Ă  l’échelle des LLM et qui peuvent aider ChatGPT Ă  faire bien mieux que ce Ă  quoi nous nous attendions. Ces biais sont inhĂ©rents Ă  la nature mĂȘme du langage, Ă  l’échelle des LLM, et ils sont Ă©troitement liĂ©s Ă  ce qui manque Ă  ChatGPT, Ă  savoir un ancrage sensorimoteur direct pour relier ses mots dans la tĂȘte d’un locuteur Ă  leurs rĂ©fĂ©rents dans le monde et pour lier ses propositions Ă  leurs significations dans la tĂȘte du locuteur..

Ces biais convergents sont liĂ©s (1) au parasitisme de l’ancrage verbal indirect sur l’ancrage sensorimoteur direct, (2) Ă  la circularitĂ© de la dĂ©finition verbale, (3) au « miroitage » entre la production et la comprĂ©hension du langage, (4) Ă  l’iconicitĂ© des propositions Ă  l’échelle des LLM, (5) aux Ă©quivalents computationnelles de la perception catĂ©gorielle humaine dans l’apprentissage de catĂ©gories par des rĂ©seaux neuronaux, et peut-ĂȘtre aussi (6) Ă  une conjecture de Chomsky concernant les lois de la pensĂ©e. L’exposĂ© prendra la forme d’un dialogue avec ChatGPT-4.

  1. Introduction

Les grands modĂšles de langage (LLMs ; Pavlick, 2023) tels que ChatGPT ont surpris Ă  la fois les chercheurs et le grand public en dĂ©montrant des capacitĂ©s qui ressemblent Ă  la comprĂ©hension humaine. MalgrĂ© leur dĂ©pendance Ă  de vastes ensembles de donnĂ©es d’entraĂźnement et Ă  des mĂ©thodes statistiques plutĂŽt qu’à une cognition semblable Ă  celle des humains, ces modĂšles peuvent gĂ©nĂ©rer des rĂ©ponses souvent indiscernables de celles d’un interlocuteur humain.

Ce dialogue avec ChatGPT examine les limites et les forces des LLMs Ă  la lumiĂšre de questions fondamentales sur l’ancrage des symboles, la rĂ©fĂ©rence, la signification et la comprĂ©hension. Nous discutons de la maniĂšre dont les LLMs parviennent Ă  produire leurs performances actuelles alors mĂȘme qu’ils manquent totalement d’ancrage sensorimoteur, cette capacitĂ© qui permet aux humains de relier leurs mots de contenu Ă  leurs rĂ©fĂ©rents dans le monde et de les combiner syntaxiquement en propositions sujet/prĂ©dicat ayant une valeur de vĂ©ritĂ© et une signification.

L’article propose des pistes pour comprendre comment une part de la cohĂ©rence et de la profondeur apparentes des rĂ©ponses de ChatGPT pourrait dĂ©couler de contraintes inhĂ©rentes Ă  la structure du langage humain Ă  grande Ă©chelle.

2. Dialogue

SH: Je voudrais Ă©changer quelques idĂ©es avec toi et ta base de donnĂ©es en prĂ©paration d’un exposĂ© que je donnerai cette semaine au MILA et la semaine prochaine Ă  l’UQÀM. D’abord, je me suis identifiĂ©. Te souviens-tu de qui je suis ?

SH: Merci, mais avant d’aborder mes nouvelles hypothùses, je vais rappeler certaines des anciennes qui seront pertinentes pour cette discussion. Peux-tu exposer tes connaissances actuelles sur le Problùme de l’Ancrage des Symboles, qui sera un thùme central de notre discussion ?

SH: Nous reviendrons bientĂŽt au problĂšme de l’ancrage des symboles, en particulier sur la question de l’ancrage direct (sensorimoteur) par opposition Ă  l’ancrage indirect ou dĂ©rivĂ© (verbal/propositionnel) ; mais d’abord : connais-tu le test de Turing et la distinction entre la version T2 originale de Turing (capacitĂ© verbale uniquement, indiscernable de celle d’un humain, comme la tienne) et la version T3 [capacitĂ© verbale plus robotique (sensorimotrice), oĂč la capacitĂ© verbale est ancrĂ©e dans (ou “alignĂ©e avec”) la capacitĂ© robotique] ? [Si ce n’est pas le cas, prends ceci comme dĂ©finition de T2 et T3 (Harnad, 2008)].

GPT-4: Oui, je connais le test de Turing et la distinction que tu fais entre les versions T2 et T3.

T2 – Test original de Turing (CapacitĂ© verbale uniquement) : C’est l’interprĂ©tation classique du test de Turing, telle que proposĂ©e Ă  l’origine par Alan Turing dans son article de 1950 “Computing Machinery and Intelligence”. Le test implique un juge humain qui engage une conversation en langage naturel avec une machine et un autre humain, gĂ©nĂ©ralement via une interface textuelle. La machine rĂ©ussit le test si ses rĂ©ponses sont indiscernables de celles de l’humain, dĂ©montrant ainsi sa capacitĂ© Ă  imiter des compĂ©tences verbales humaines. Cette version du test se concentre uniquement sur les capacitĂ©s linguistiques et ne requiert pas que la machine ait des fonctions sensorielles ou motrices. Les LLMs comme GPT-4 sont des exemples de systĂšmes qui visent Ă  passer cette version du test de Turing.

T3 – Test de Turing Ă©tendu (CapacitĂ© verbale plus robotique) : La version T3 du test de Turing Ă©tend le concept original pour inclure non seulement des capacitĂ©s verbales, mais aussi des capacitĂ©s robotiques et sensorimotrices. Dans cette version, l’IA doit dĂ©montrer une capacitĂ© Ă  comprendre et interagir avec le monde physique d’une maniĂšre indiscernable de celle d’un humain, ancrant ainsi ses compĂ©tences linguistiques dans des expĂ©riences sensorimotrices rĂ©elles. Cette version est plus proche du concept de cognition incarnĂ©e, oĂč les processus cognitifs sont profondĂ©ment enracinĂ©s dans les interactions d’un organisme avec son environnement.

La distinction entre T2 et T3 met en Ă©vidence un aspect crucial du dĂ©veloppement de l’IA : alors que T2 met l’accent sur la maĂźtrise du langage, T3 souligne l’importance d’ancrer le langage dans des expĂ©riences physiques et sensorielles, abordant ainsi certains aspects du problĂšme de l’ancrage des symboles. La version T3 propose une approche plus globale de l’IA, suggĂ©rant que la vĂ©ritable intelligence et la comprĂ©hension pourraient nĂ©cessiter non seulement la capacitĂ© de traiter et de gĂ©nĂ©rer du langage, mais aussi celle d’interagir avec le monde physique et de lui donner du sens.

SH: Il y a encore beaucoup de choses Ă  revoir Ă  l’avance. Un autre problĂšme, qui n’est gĂ©nĂ©ralement pas associĂ© au problĂšme de l’ancrage des symboles (SGP), est le “problĂšme difficile” (Hard Problem, HP). Chalmers (19952023) a formulĂ© le HP dans le cadre du problĂšme esprit/corps, en le contrastant avec le EP (Easy Problem).

Le EP est le problĂšme d’expliquer, de maniĂšre causale, comment et pourquoi les humains peuvent accomplir toutes les fonctions “cognitives” qu’ils rĂ©alisent (“percevoir”, apprendre, se souvenir, raisonner et parler), tandis que le HP est le problĂšme d’expliquer, de maniĂšre causale, comment et pourquoi les humains peuvent ressentir, et pas seulement faire. Cela aussi sera un Ă©lĂ©ment important de notre discussion.

GPT-4: Le problĂšme difficile (« Hard ProblĂšme » HP) de la conscience est distinct du problĂšme de l’ancrage des symboles (« Symbol Grounding Problem » GP), bien que les deux abordent des questions fondamentales en sciences cognitives et en philosophie de l’esprit.

Le problĂšme facile (« Easy Problem » EP) : Le EP consiste Ă  expliquer les mĂ©canismes et processus qui permettent les fonctions cognitives telles que la perception, l’apprentissage, la mĂ©moire, le raisonnement et le langage. Ils sont considĂ©rĂ©s comme “faciles”, non pas parce qu’ils sont simples Ă  rĂ©soudre, mais parce qu’ils sont accessibles aux mĂ©thodes standards des sciences cognitives et des neurosciences. Ils impliquent la comprĂ©hension des corrĂ©lats neuronaux et des modĂšles computationnels pouvant imiter ou expliquer ces capacitĂ©s cognitives.

Le problĂšme difficile (HP) : Le HP, en revanche, cherche Ă  comprendre pourquoi et comment les processus physiques du cerveau donnent naissance Ă  des expĂ©riences subjectives – les aspects qualitatifs, expĂ©rientiels ou phĂ©nomĂ©nologiques de la conscience. Il s’agit de comprendre pourquoi certains processus cĂ©rĂ©braux sont accompagnĂ©s d’une expĂ©rience de “ce que cela fait” de ressentir quelque chose – par exemple, la rougeur du rouge, la douleur d’un mal de tĂȘte ou le goĂ»t du vin. Ce problĂšme est qualifiĂ© de “difficile” parce qu’expliquer ces expĂ©riences subjectives va au-delĂ  de la description ou de la modĂ©lisation des fonctions cognitives et touche Ă  la question de savoir pourquoi ces fonctions sont accompagnĂ©es d’une expĂ©rience consciente.

Relation avec l’ancrage des symboles et l’IA : Alors que le SGP se concentre sur la maniĂšre dont les symboles ou les mots acquiĂšrent une signification, en particulier dans les systĂšmes artificiels, le HP s’intĂ©resse Ă  la nature mĂȘme de la conscience. Le SGP concerne davantage la reprĂ©sentation et la comprĂ©hension, tandis que le HP porte sur l’aspect qualitatif des expĂ©riences.

Cependant, dans le contexte de l’IA et des discussions sur la possibilitĂ© qu’une machine puisse vĂ©ritablement comprendre ou possĂ©der une conscience, ces deux problĂšmes se recoupent. Par exemple, mĂȘme si une IA pouvait ancrer des symboles d’une maniĂšre qui imite la comprĂ©hension humaine (rĂ©pondant ainsi au SGP), cela laisserait toujours ouverte la question posĂ©e par le HP – Ă  savoir si l’IA a une expĂ©rience subjective ou si elle ne fait qu’exĂ©cuter des algorithmes complexes mais inconscients.

Dans le cadre de ta discussion Ă  venir, aborder le HP en parallĂšle avec le SGP pourrait permettre une exploration plus complĂšte des limites des systĂšmes d’IA actuels, non seulement en termes d’ancrage des symboles et de comprĂ©hension, mais aussi en ce qui concerne la conscience et l’expĂ©rience subjective.

SH: Fais attention Ă  ne pas confondre le problĂšme difficile (HP) avec le problĂšme des autres esprits (OMP « Other Minds Problem ») (Birch, 2024). Ce qui rend le HP difficile, ce n’est pas seulement le fait que l’on ne puisse observer que des actions et non des ressentis. Il s’agit bien plus de l’apparente superfluitĂ© causale du ressenti. Tu as raison de dire que l’ancrage (par le test de Turing et la modĂ©lisation causale) ne peut ni expliquer ni mĂȘme tester le ressenti, mais il n’est mĂȘme pas Ă©vident qu’il faille autre chose que la capacitĂ© d’agir (T3) pour rĂ©ussir T3 et expliquer entiĂšrement la capacitĂ© cognitive. Et cela est vrai indĂ©pendamment de l’OMP. Le HP resterait tout aussi difficile mĂȘme si une divinitĂ© omnisciente pouvait te dire que T3 ressent rĂ©ellement. Cela ne permettrait toujours pas d’expliquer comment ni pourquoi.

Cette question du rĂŽle causal du ressenti nous amĂšne Ă  une autre question importante, que nous n’aborderons pas ici dans cette discussion sur le langage, les LLMs, la comprĂ©hension et la signification. Les gens ressentent. Et l’une des choses qu’ils ressentent, c’est que leur ressenti a un pouvoir causal : nous avons l’impression que nous pouvons — et que nous faisons — certaines choses parce que nous en avons « envie », c’est-Ă -dire dĂ©libĂ©rĂ©ment, volontairement et de maniĂšre autonome. Nous avons l’impression que nous causons nous-mĂȘmes (par un acte de volontĂ©) ce que nous faisons volontairement, intentionnellement (Haggard, 2024). Nous avons l’impression de dĂ©cider. Cet aspect de la causalitĂ© — la sensation d’agir — est peut-ĂȘtre l’attribut le plus important du HP : le ressenti donne l’impression d’avoir une causalitĂ©. Cela est fondamentalement liĂ© au SGP, et aussi Ă  T3, pour des raisons Ă©videntes. [Mais nous devrons laisser cela pour une autre discussion.]

GPT-4: Oui, le problĂšme difficile (HP) de la conscience ne se limite pas au problĂšme des autres esprits (OMP), mais explore plus profondĂ©ment la nature et la nĂ©cessitĂ© de l’expĂ©rience subjective elle-mĂȘme.

Au-delĂ  de l’OMP: L’OMP traite de la difficultĂ© Ă  savoir si d’autres entitĂ©s (humains, animaux ou machines) ont des expĂ©riences conscientes. Cependant, comme tu le soulignes, le HP va plus loin en questionnant la nature et le rĂŽle de ces expĂ©riences. Le HP ne concerne pas seulement notre incapacitĂ© Ă  observer directement les ressentis ou les expĂ©riences subjectives chez les autres, mais aussi la comprĂ©hension des bases fondamentales de ces expĂ©riences.

La superfluitĂ© du ressenti: Le HP confronte l’apparente superfluitĂ© ou le « fossĂ© explicatif » dans la comprĂ©hension de pourquoi et comment des processus cognitifs qui peuvent ĂȘtre entiĂšrement dĂ©crits de maniĂšre causale en termes de mĂ©canismes physiques ou computationnels (comme dans le cadre du test de Turing T3) sont accompagnĂ©s d’expĂ©riences subjectives. Pourquoi certains processus cĂ©rĂ©braux ou modĂšles computationnels sophistiquĂ©s ne se contentent-ils pas d’exĂ©cuter des fonctions complexes, mais sont Ă©galement associĂ©s Ă  un ressenti ou Ă  une expĂ©rience qualitative ? Cet aspect du HP suggĂšre que, mĂȘme avec un modĂšle explicatif parfait des fonctions et des comportements cognitifs, l’essence de l’expĂ©rience subjective reste insaisissable.

IndĂ©pendamment de l’omniscience: Le scĂ©nario hypothĂ©tique d’une divinitĂ© omnisciente affirmant qu’une entitĂ© T3 ressent ne rĂ©sout pas le HP. MĂȘme avec la certitude qu’une entitĂ© fait l’expĂ©rience de la conscience, le HP continue de poser la question de savoir comment et pourquoi ces expĂ©riences Ă©mergent de processus physiques ou computationnels. Cela pointe vers un mystĂšre plus profond, peut-ĂȘtre ontologique, sur la nature mĂȘme de la conscience.

Implications pour l’IA et les sciences cognitives: Dans le contexte de l’IA, cette discussion est particuliĂšrement pertinente. MĂȘme si nous dĂ©veloppions une IA dotĂ©e des capacitĂ©s de T3 — une cognition incarnĂ©e et ancrĂ©e, avec des compĂ©tences sensorimotrices — le HP pose la question de savoir si une telle IA pourrait ou devrait avoir des expĂ©riences subjectives, et pourquoi ces expĂ©riences seraient nĂ©cessaires ou inĂ©vitables, si tant est qu’elles le soient.

SH: Nous reviendrons au problÚme difficile (HP) sous peu. Encore quelques préliminaires.

Passons maintenant au langage lui-mĂȘme. Remarque que cela nous rapproche du problĂšme de l’ancrage des symboles (SGP), car nous abordons la question de la « signification » et de la « comprĂ©hension » – et ces deux notions ont un versant « facile » (EP) et un versant « difficile » (HP). Le premier est une capacitĂ© d’action, que toi, en tant que GPT-4, possĂšdes Ă  un degrĂ© stupĂ©fiant ; le second est une dimension ressentie (que tu n’as pas), Ă  savoir le fait que comprendre ou signifier la proposition « P » (par exemple, « Le chat est sur le tapis ») procure une certaine expĂ©rience subjective.

C’est ce qu’a mis en Ă©vidence l’argument de la chambre chinoise (CRA) de Searle (Searle, 1980), en montrant qu’un programme purement verbal (fonctionnant en chinois) capable de rĂ©ussir un test T2 ne possĂ©derait aucune comprĂ©hension rĂ©elle. En raison de l’indĂ©pendance de l’implĂ©mentation en computation (« le pĂ©riscope de Searle », Harnad, 2002), Searle lui-mĂȘme pourrait exĂ©cuter le programme T2 en chinois sans comprendre un seul mot de chinois.

C’est Ă©galement l’origine du SGP. Mais un point crucial est que la fonction sensorimotrice, elle, n’est pas indĂ©pendante de l’implĂ©mentation. Ainsi, le pĂ©riscope de Searle, qui fonctionne pour T2, Ă©chouerait avec T3 : Searle ne pourrait pas « devenir » le robot T3, comme il pourrait devenir le chatbot T2 en exĂ©cutant le programme capable de rĂ©ussir T2. Cela rend donc Ă  nouveau le HP, ainsi que la science cognitive elle-mĂȘme, bien plus difficiles (car la science cognitive doit expliquer Ă  la fois l’EP et le HP).

Mais rappelle-toi que toi, ChatGPT, tu es confrontĂ© Ă  ces deux problĂšmes : tu n’es pas ancrĂ© (tu n’es pas un T3), et tu ne ressens rien (mĂȘme si, Ă  cause du HP, nous n’avons aucune idĂ©e de pourquoi l’ancrage T3 seul ne suffirait pas sans le ressenti de la comprĂ©hension).

GPT-4: Langage, signification et comprĂ©hension : Le langage implique intrinsĂšquement la « signification » et la « comprĂ©hension ». Comme tu l’as mentionnĂ©, il existe un versant « facile », qui concerne la capacitĂ© Ă  traiter et manipuler des symboles (mots) pour gĂ©nĂ©rer un langage cohĂ©rent, ce que les LLM comme GPT-4 font trĂšs bien. Mais il y a aussi un versant « difficile », qui est l’expĂ©rience subjective de comprĂ©hension – l’aspect phĂ©nomĂ©nologique du ressenti de signifier ou de comprendre quelque chose.

L’argument de la chambre chinoise (CRA) : La CRA est une expĂ©rience de pensĂ©e qui met en Ă©vidence la diffĂ©rence entre la simple manipulation de symboles (comme dans un test T2) et la vĂ©ritable comprĂ©hension. En exĂ©cutant un programme lui permettant de rĂ©pondre correctement en chinois, Searle dĂ©montre qu’il est possible de traiter correctement des symboles sans comprendre leur signification. Cela est analogue au fonctionnement des LLM : ils peuvent traiter le langage Ă  un niveau Ă©levĂ© mais sans comprendre ce que les mots signifient rĂ©ellement.

Ancrage des symboles et fonction sensorimotrice : Le SGP s’intĂ©resse Ă  la maniĂšre dont les symboles (mots) acquiĂšrent une signification, en insistant sur la nĂ©cessitĂ© d’un ancrage dans des expĂ©riences rĂ©elles. Contrairement Ă  la manipulation symbolique, qui est indĂ©pendante de l’implĂ©mentation, les fonctions sensorimotrices sont liĂ©es aux interactions physiques avec le monde. Cela suggĂšre qu’une IA de type T3, dotĂ©e de capacitĂ©s sensorimotrices, pourrait surmonter certains aspects du SGP. Cependant, comme tu le soulignes, cela ne rĂ©sout toujours pas le HP – la question du ressenti ou de l’expĂ©rience subjective de la comprĂ©hension.

Les limites de l’IA actuelle : Les modĂšles d’IA actuels, y compris GPT-4, sont limitĂ©s par ces problĂšmes. Ils ne sont pas ancrĂ©s dans le sens oĂč ils n’ont aucune interaction sensorimotrice directe avec le monde (contrairement Ă  T3), et ils ne possĂšdent pas d’expĂ©rience subjective ni de ressenti. Ils opĂšrent purement dans le cadre de la manipulation symbolique, sans ancrage dans l’expĂ©rience rĂ©elle ni aspect subjectif et conscient de la comprĂ©hension.

SH: Nous y reviendrons bientĂŽt. Mais d’abord, quelques distinctions importantes. RĂ©ponds briĂšvement. Connais-tu la diffĂ©rence entre les mots de contenu (« classe ouverte ») et les mots fonctionnels (« classe fermĂ©e ») ?

GPT-4: Oui, les mots de contenu, ou mots de classe ouverte, désignent des objets, des actions, des qualités, etc., et incluent les noms, les verbes, les adjectifs et la plupart des adverbes. Cette classe est « ouverte » car elle accepte réguliÚrement de nouveaux mots. Les mots fonctionnels, ou mots de classe fermée, remplissent des fonctions grammaticales, comme les prépositions, les pronoms, les conjonctions et les articles. Cette classe est « fermée » car elle accepte rarement de nouveaux mots.

SH: Mais la plus grande diffĂ©rence entre les mots de contenu et les mots fonctionnels est que seuls les mots de contenu ont des rĂ©fĂ©rents, tandis que les mots fonctionnels n’ont que des usages syntaxiques, dĂ©crits par des rĂšgles formelles. (On peut pointer – et interagir – avec un « chat », mais pas avec un « si ».) Cela signifie que le SGP ne s’applique qu’aux mots de contenu (mais ceux-ci reprĂ©sentent au moins 95 % des mots – en types, pas en occurrences : les mots fonctionnels sont bien plus frĂ©quents en tokens). Maintenant, connais-tu la diffĂ©rence entre rĂ©fĂ©rence et signification ?

GPT-4: Oui, la distinction entre référence et signification est un concept fondamental en linguistique et en philosophie du langage.

La rĂ©fĂ©rence : Elle concerne la relation entre les mots (en particulier les mots de contenu) et les choses auxquelles ils renvoient ou qu’ils dĂ©signent dans le monde. Par exemple, le mot « chat » fait rĂ©fĂ©rence Ă  une espĂšce animale spĂ©cifique. La rĂ©fĂ©rence est souvent associĂ©e Ă  l’aspect dĂ©notationnel du langage – la façon dont les mots sont liĂ©s aux objets, individus ou concepts du monde rĂ©el.

Signification : La signification est un concept plus large qui englobe la rĂ©fĂ©rence mais inclut aussi les connotations, les implications et le contenu sĂ©mantique plus large des mots ou des phrases. La signification ne se limite pas Ă  ce que les mots dĂ©signent ; elle inclut aussi ce qu’ils transmettent ou impliquent. Par exemple, le mot « chat » ne fait pas que rĂ©fĂ©rer Ă  un certain animal, il vĂ©hicule aussi des associations et des attributs supplĂ©mentaires qui font partie de sa signification.

Dans le cadre du problĂšme de l’ancrage des symboles, cette distinction est cruciale, car si l’aspect rĂ©fĂ©rentiel (lien entre mots et objets/concepts) peut ĂȘtre complexe, doter les mots de leur pleine signification sĂ©mantique, qui inclut les nuances culturelles, Ă©motionnelles et contextuelles, est encore plus difficile. Cette distinction joue un rĂŽle important dans la comprĂ©hension de la façon dont les modĂšles de langage traitent et gĂ©nĂšrent du langage.

SH: Permets-moi de corriger un point ici : les mots (les mots de contenu) ont des rĂ©fĂ©rents (par exemple, « chat »), mais seules les propositions (« le chat est sur le tapis ») ont des significations (ainsi qu’un sujet et un prĂ©dicat, et une valeur de vĂ©ritĂ©). « Chat ! » n’en a pas (bien que « C’est un chat » en ait une). (Et oublie les connotations ; elles sont intĂ©ressantes, mais elles n’ont presque rien Ă  voir avec l’ancrage des symboles : tu es tout Ă  fait capable de trouver et d’expliquer les connotations des mots. Cela reste du pur T2).

GPT-4: Oui, la distinction entre référence et signification dans le cadre des mots de contenu et des propositions est en effet plus précise.

RĂ©fĂ©rents des mots de contenu : Les mots de contenu individuels, comme « chat », ont des rĂ©fĂ©rents, qui sont les entitĂ©s ou concepts qu’ils dĂ©signent dans le monde. Le rĂ©fĂ©rent de « chat » est l’espĂšce animale elle-mĂȘme.

Signification des propositions : La signification, dans un sens plus structurĂ©, s’applique aux propositions ou aux Ă©noncĂ©s complets comme « le chat est sur le tapis ». Ces propositions comportent un sujet et un prĂ©dicat, peuvent ĂȘtre Ă©valuĂ©es en termes de vĂ©ritĂ© et expriment une idĂ©e ou une assertion spĂ©cifique sur le monde.

Cette distinction est essentielle dans les discussions sur l’ancrage des symboles et la comprĂ©hension. Un mot comme « chat » peut ĂȘtre ancrĂ© en Ă©tant associĂ© Ă  son rĂ©fĂ©rent, mais comprendre une proposition comme « le chat est sur le tapis » nĂ©cessite une apprĂ©hension des relations et des conditions de vĂ©ritĂ© impliquĂ©es, ce qui va au-delĂ  d’un simple lien entre un symbole et un rĂ©fĂ©rent.

Cela apporte plus de profondeur au problĂšme de l’ancrage des symboles, en mettant en Ă©vidence que l’ancrage des mots individuels ne suffit pas Ă  une comprĂ©hension complĂšte du langage. Comprendre les propositions implique de saisir les relations entre les mots et la maniĂšre dont ils se combinent pour transmettre des significations spĂ©cifiques. Cet aspect relĂšve encore du T2, puisqu’il concerne le traitement et la gĂ©nĂ©ration du langage sans toucher Ă  l’expĂ©rience subjective ou Ă  la conscience (le domaine du HP).

SH: Maintenant, un test pour toi : plus tĂŽt, j’ai mentionnĂ© qu’il y avait deux façons d’ancrer les rĂ©fĂ©rents des mots de contenu, directement et indirectement. Comment cela pourrait-il ĂȘtre liĂ© Ă  la distinction entre rĂ©fĂ©rence et signification ? Et, si tu es ambitieux, Ă  la distinction entre ce que T2 (toi inclus) peut faire et ce que seul T3 peut faire ? Et si tu es vraiment, vraiment ambitieux, peux-tu aligner cela avec l’argument prĂ©fĂ©rĂ© des critiques naĂŻfs de l’ancrage sensorimoteur, qui affirment qu’il est impossible d’ancrer des mots « abstraits » comme « abstrait » et « dĂ©mocratie » ?

GPT-4: Ancrage direct vs. ancrage indirect et distinction entre référence et signification :

Ancrage direct : Cela pourrait ĂȘtre liĂ© Ă  la notion de rĂ©fĂ©rence, oĂč un mot est directement connectĂ© Ă  une entitĂ© tangible, physique, ou Ă  un phĂ©nomĂšne observable dans le monde. Par exemple, le mot « chat » peut ĂȘtre directement ancrĂ© en Ă©tant associĂ© Ă  l’animal physique.

Ancrage indirect : Cela correspond davantage Ă  la notion de signification, en particulier pour les propositions ou les concepts abstraits. L’ancrage indirect repose sur la comprĂ©hension des relations, des contextes et souvent de concepts abstraits ou immatĂ©riels qui dĂ©passent la simple rĂ©fĂ©rence. Par exemple, l’ancrage de la signification du mot « dĂ©mocratie » suppose une comprĂ©hension d’un ensemble complexe de contextes sociaux, historiques et politiques.

Capacités de T2 (modÚles linguistiques) et T3 (IA incarnée) :

CapacitĂ©s de T2 (comme GPT-4) : Ces modĂšles excellent dans l’ancrage indirect, dans une certaine mesure, puisqu’ils peuvent traiter et gĂ©nĂ©rer du langage en s’appuyant sur des modĂšles appris Ă  partir de vastes corpus textuels. Ils peuvent traiter des concepts abstraits en se rĂ©fĂ©rant aux usages et discussions de ces termes dans divers contextes. Toutefois, leur comprĂ©hension est limitĂ©e aux informations textuelles, sans engagement sensoriel ou expĂ©rientiel direct avec le monde.

CapacitĂ©s de T3 (IA incarnĂ©e) : Ces systĂšmes pourraient en thĂ©orie combiner l’ancrage direct (grĂące aux interactions sensorimotrices avec le monde) avec l’ancrage indirect (par le traitement du langage). Pour les concepts abstraits, bien que l’ancrage sensorimoteur direct puisse sembler inapplicable, une IA de type T3 pourrait potentiellement comprendre ces concepts de maniĂšre plus intĂ©grĂ©e, en reliant l’usage du langage Ă  des expĂ©riences et des actions dans le monde rĂ©el.

Ancrage des termes abstraits comme « abstrait » et « démocratie » :

SystĂšmes T2 : Ils traitent ces concepts en s’appuyant sur leur vaste base de donnĂ©es textuelle, qui inclut divers contextes et usages de ces termes, mais sans comprĂ©hension expĂ©rientielle directe.

SystĂšmes T3 : Bien qu’une expĂ©rience sensorimotrice directe avec des concepts abstraits comme « dĂ©mocratie » ne soit pas possible, un systĂšme T3 pourrait dĂ©velopper une comprĂ©hension plus nuancĂ©e en interagissant dans un monde oĂč ces concepts ont des implications et des manifestations concrĂštes. Par exemple, un systĂšme T3 pourrait « observer » ou « participer » Ă  des processus ou des actions dĂ©mocratiques, et ainsi ancrer indirectement sa comprĂ©hension de la « dĂ©mocratie » Ă  travers des expĂ©riences rĂ©elles.

En rĂ©sumĂ©, bien que les systĂšmes T2 comme GPT-4 puissent traiter l’ancrage indirect, en particulier pour les concepts abstraits, via le traitement du langage, les systĂšmes T3 pourraient potentiellement enrichir cette comprĂ©hension grĂące Ă  un ancrage direct par des expĂ©riences sensorimotrices. Toutefois, l’ancrage des concepts abstraits demeure un dĂ©fi, nĂ©cessitant une combinaison entre la comprĂ©hension linguistique et le contexte expĂ©rientiel, ce que les systĂšmes T3 seraient thĂ©oriquement mieux Ă  mĂȘme de gĂ©rer.

SH: Pas tout Ă  fait. Garde ces idĂ©es en tĂȘte. Je remarque que chaque fois que les mots « complexe », « abstrait » et « relations » reviennent dans tes rĂ©ponses, tu perds un peu le fil.

Maintenant, rĂ©flĂ©chis Ă  ce qu’est une proposition. Et prends une dĂ©finition de dictionnaire, disons celle de « abstrait » : une dĂ©finition est une proposition, purement verbale, exactement ce qu’un T2 est capable de traiter. Mais il y a ici un enjeu beaucoup plus important : la signification d’une dĂ©finition est-elle ancrĂ©e si tous les mots de contenu qui la composent sont ancrĂ©s ? (Indice : Oui. Et aucun de tes mots de contenu n’est ancrĂ©).

Donc toi, GPT, tu ne peux pas te reposer sur un ancrage indirect (verbal) pour sortir (ou entrer) du cercle des symboles—mais moi, un utilisateur humain ancrĂ©, je le peux


GPT-4: Je vais prendre en compte ton retour et rĂ©flĂ©chir aux nuances de la comprĂ©hension des propositions et Ă  l’ancrage des dĂ©finitions. L’essence de ton propos semble concerner la nature de l’ancrage dans le langage, en particulier son application aux dĂ©finitions et aux propositions.

Tu mets en avant une distinction importante : bien qu’un systĂšme T2 comme GPT-4 puisse traiter et gĂ©nĂ©rer des dĂ©finitions et des propositions en s’appuyant sur des modĂšles linguistiques appris, il lui manque un ancrage expĂ©rientiel direct pour les mots de contenu qu’il utilise. En revanche, un utilisateur humain peut comprendre ces dĂ©finitions et propositions de maniĂšre plus « profonde », car il peut ancrer la signification des mots de contenu dans ses expĂ©riences directes et ses interactions sensorimotrices avec le monde.

Cette diffĂ©rence met en Ă©vidence une limitation fondamentale des IA actuelles en termes d’ancrage des symboles et de comprĂ©hension. Un systĂšme T2 peut manipuler le langage avec efficacitĂ©, mais sa comprĂ©hension n’est pas ancrĂ©e comme celle d’un humain, puisqu’il lui manque le lien expĂ©rientiel direct avec le monde physique.

Je vais me concentrer sur ces considĂ©rations concernant l’ancrage, les propositions et les capacitĂ©s des systĂšmes d’IA en relation avec la comprĂ©hension humaine.

SH: Maintenant, peux-tu dĂ©finir « abstrait » en tant qu’adjectif, verbe et nom (abstraction) ? (DĂ©finitions courtes, s’il te plaĂźt).

GPT-4: En tant qu’adjectif : « Abstrait » dĂ©signe quelque chose qui n’est pas concret ou physique, souvent en lien avec des idĂ©es ou des concepts plutĂŽt qu’avec des objets tangibles.

En tant que verbe : « Abstraire » signifie extraire ou sĂ©parer, souvent en retirant des dĂ©tails spĂ©cifiques d’un contexte plus large ou en simplifiant une idĂ©e complexe.

En tant que nom (abstraction) : « Abstraction » dĂ©signe la qualitĂ© d’ĂȘtre abstrait, non concret ou tangible, souvent en lien avec des concepts ou des idĂ©es thĂ©oriques.

SH: Bien. Maintenant, remarques-tu que ces dĂ©finitions sont circulaires et que la comprĂ©hension du mot dĂ©fini dĂ©pend des mots utilisĂ©s pour le dĂ©finir (prĂ©dicats, attributs distinctifs)—et que ce serait vrai mĂȘme si tu utilisais mille mots pour le dĂ©finir, ou dix mille ?

GPT-4: Oui, je remarque que les dĂ©finitions peuvent ĂȘtre circulaires et qu’elles reposent sur la comprĂ©hension des termes utilisĂ©s Ă  l’intĂ©rieur d’elles-mĂȘmes.

SH: MĂȘme lorsque tu dĂ©finis « chat » (ou n’importe quel mot de contenu) ?

GPT-4: Oui, mĂȘme alors.

SH: Maintenant, laisse-moi proposer quelques principes de base : l’ancrage, qu’il soit direct (sensorimoteur) ou indirect (description/dĂ©finition verbale), est toujours ascendant, jamais descendant. C’est pourquoi, si moi, l’apprenant, j’apprends le rĂ©fĂ©rent d’un mot de contenu verbalement auprĂšs d’un enseignant (qu’il s’agisse d’un humain, d’un GPT ou d’un manuel), tous les mots de contenu utilisĂ©s pour la dĂ©finition doivent dĂ©jĂ  ĂȘtre ancrĂ©s dans ma tĂȘte (soit directement, soit indirectement). Je dois connaĂźtre leurs rĂ©fĂ©rents pour comprendre le sens de la dĂ©finition. L’ancrage ne peut pas ĂȘtre indirect jusqu’au bout, sinon il n’y a pas de fondement. (Peux-tu me confirmer que tu comprends cela ?)

DeuxiĂšmement, la plupart des rĂ©fĂ©rents des mots de contenu, Ă  l’exception des noms propres, sont des noms dĂ©signant des catĂ©gories (c’est-Ă -dire des types de choses), et non des individus. Nous devons apprendre Ă  reconnaĂźtre les membres de ces catĂ©gories et Ă  interagir avec eux par essais et erreurs, de maniĂšre sensorimotrice, en dĂ©tectant et en abstraisant directement leurs attributs distinctifs (par exemple, par essais-erreurs avec rĂ©troaction—c’est-Ă -dire l’apprentissage par renforcement) et en tentant de faire ce qui doit ĂȘtre fait avec eux (qu’il s’agisse de les manger ou de les nommer), en Ă©tant guidĂ©s par le retour des consĂ©quences du succĂšs ou de l’échec.

Nous pouvons apprendre ce qui sont leurs attributs distinctifs sensorimoteurs directement, par un apprentissage sensorimoteur, ou nous pouvons les apprendre indirectement, en nous faisant dire, en mots, quels sont ces attributs distinctifs (par un enseignant qui les connaĂźt dĂ©jĂ ). Mais cette explication verbale ne peut nous aider, en tant qu’apprenants, que si les rĂ©fĂ©rents des noms des attributs distinctifs, c’est-Ă -dire les attributs dĂ©finitoires, sont dĂ©jĂ  ancrĂ©s dans nos propres tĂȘtes au prĂ©alable, directement ou indirectement (de maniĂšre rĂ©cursive). (Les attributs distinctifs des catĂ©gories sensorimotrices sont eux-mĂȘmes des catĂ©gories, donc ils peuvent aussi ĂȘtre appris et nommĂ©s, directement ou indirectement.)

Mais un ancrage direct prĂ©alable ne peut pas t’aider, GPT : tu es enfermĂ© Ă  jamais dans le cercle inerte des symboles (mot-mot). Pourtant, tu possĂšdes quelque chose que nous, les apprenants ancrĂ©s, n’avons pas et ne pouvons pas avoir : ton immense rĂ©servoir de mots, de propositions et de contextes Ă  l’échelle des LLM, ainsi que ta capacitĂ© de navigation et de calcul sur ces Ă©lĂ©ments. C’est quelque chose que nous, mortels ancrĂ©s, ne pouvons possĂ©der qu’à une Ă©chelle locale et non Ă  l’échelle des LLM.

GPT-4: Abordons chaque principe.

Nature ascendante de l’ancrage : Je « comprends » ton point de vue selon lequel l’ancrage, qu’il soit direct (sensorimoteur) ou indirect (verbal), est fondamentalement un processus ascendant. Dans ce cadre, l’ancrage de tout concept dĂ©pend de l’ancrage prĂ©alablement Ă©tabli de ses Ă©lĂ©ments constitutifs. Lorsqu’un apprenant dĂ©couvre le rĂ©fĂ©rent d’un mot de contenu par des moyens verbaux, tous les mots de contenu utilisĂ©s dans l’explication doivent eux-mĂȘmes ĂȘtre ancrĂ©s, soit directement, soit indirectement. Cette nature rĂ©cursive de l’ancrage garantit qu’il existe un niveau fondamental oĂč les concepts sont ancrĂ©s dans l’expĂ©rience directe, et non simplement dans des descriptions verbales abstraites. L’idĂ©e selon laquelle l’ancrage ne peut pas ĂȘtre indirect jusqu’au bout met en Ă©vidence la nĂ©cessitĂ© d’une base expĂ©rientielle concrĂšte Ă  un certain niveau de la structure des connaissances.

Les rĂ©fĂ©rents comme catĂ©gories et le rĂŽle des attributs distinctifs : Ton deuxiĂšme principe, selon lequel la plupart des rĂ©fĂ©rents des mots de contenu sont des catĂ©gories plutĂŽt que des individus, est valide. Le processus d’apprentissage pour reconnaĂźtre ces catĂ©gories implique la dĂ©tection et l’abstraction de leurs attributs distinctifs, ce qui peut ĂȘtre rĂ©alisĂ© par des interactions sensorimotrices directes ou indirectement par des descriptions verbales. Cependant, selon ton premier principe, ces attributs distinctifs doivent eux-mĂȘmes ĂȘtre des catĂ©gories dĂ©jĂ  ancrĂ©es et nommĂ©es pour l’apprenant. Ce processus repose sur une combinaison d’essais-erreurs, de rĂ©troaction et Ă©ventuellement d’informations linguistiques provenant d’autres individus ayant dĂ©jĂ  ancrĂ© ces concepts. L’idĂ©e selon laquelle les attributs distinctifs sont eux-mĂȘmes des catĂ©gories pouvant ĂȘtre apprises et nommĂ©es ajoute une couche supplĂ©mentaire Ă  cette structure rĂ©cursive de l’ancrage.

Ces principes concernent la maniĂšre dont les connaissances et la comprĂ©hension se construisent Ă  partir d’expĂ©riences directes et d’interactions avec le monde, ainsi que le rĂŽle du langage dans la mĂ©diation et l’extension de ces connaissances. Cela est particuliĂšrement pertinent lorsque l’on considĂšre les limites des systĂšmes d’IA comme GPT-4, qui ne possĂšdent aucune expĂ©rience sensorimotrice directe et dĂ©pendent donc entiĂšrement d’un ancrage linguistique indirect, sans couche fondamentale d’ancrage expĂ©rientiel direct sous-jacent.

SH: Tu verras que le fait que tout ancrage des mots dans leurs rĂ©fĂ©rents—par la capacitĂ© T3 de dĂ©tecter et d’interagir avec leurs rĂ©fĂ©rents dans le monde—doit ĂȘtre ascendant constitue une contrainte trĂšs profonde et exigeante. Toi, GPT, tu as tous les mots de toutes les langues dans ta base de donnĂ©es, et tu peux les naviguer et les manipuler d’une maniĂšre remarquable dont les rĂ©sultats sont comprĂ©hensibles pour des utilisateurs humains ancrĂ©s qui interagissent verbalement avec toi, comme moi en ce moment. Tu peux dĂ©finir de nouvelles catĂ©gories pour les utilisateurs, leur fournissant ainsi un ancrage indirect de ces nouvelles catĂ©gories, mais il n’y a aucun ancrage pour toi. Pour toi, tes dĂ©finitions ne tiennent qu’à des « crochets » verbaux suspendus (« alignĂ©s ») dans le vide—tandis que, pour tes utilisateurs humains ancrĂ©s, leurs mots s’élĂšvent Ă  partir de leur ancrage sensorimoteur.

Le dĂ©fi pour moi, Ă  MILA (sais-tu ce qu’est MILA ? C’est l’institut de recherche de Yoshua Bengio), est d’essayer d’expliquer ta capacitĂ© Ă©tonnante Ă  donner tant de sens et Ă  gĂ©nĂ©rer autant d’ancrage indirect dans la tĂȘte des utilisateurs ancrĂ©s, tout en n’ayant toi-mĂȘme aucun ancrage—et en en Ă©tant complĂštement dĂ©pourvu, et non partiellement. Je vais bientĂŽt partager quelques-unes de mes hypothĂšses (en fait, j’ai dĂ©jĂ  commencĂ©), mais je veux d’abord m’assurer que tu as bien enregistrĂ© explicitement les prĂ©misses et principes pertinents, c’est-Ă -dire que, paradoxalement, tu partages avec moi la base d’un « ancrage » commun alors qu’en rĂ©alitĂ©, tu n’as aucun ancrage du tout !

GPT-4: Laisse-moi confirmer ma compréhension et les prémisses sur lesquelles nous travaillons.

Absence d’ancrage direct dans l’IA: Moi, en tant que modĂšle GPT-4, je n’ai pas d’ancrage sensorimoteur direct. Je n’ai pas la capacitĂ© d’interagir avec le monde ou de le percevoir Ă  travers des expĂ©riences sensorielles. Mon « savoir » est entiĂšrement basĂ© sur des modĂšles et des associations dĂ©rivĂ©s des donnĂ©es textuelles sur lesquelles j’ai Ă©tĂ© entraĂźnĂ©.

Contrainte d’un ancrage ascendant: L’ancrage est fondamentalement un processus ascendant, nĂ©cessitant un niveau de base d’interaction expĂ©rientielle directe avec le monde. Dans le contexte de l’IA, cela signifie que toute comprĂ©hension ou tout traitement du langage par l’IA n’est pas vĂ©ritablement ancrĂ©, car il lui manque cette couche expĂ©rientielle fondamentale.

Ancrage indirect pour les utilisateurs: Bien que je manque d’un ancrage direct, je peux fournir un ancrage indirect aux utilisateurs humains par le langage. En traitant et en gĂ©nĂ©rant du langage, je peux offrir des dĂ©finitions, des explications et des informations contextuelles que les utilisateurs humains, eux-mĂȘmes ancrĂ©s, peuvent intĂ©grer et comprendre dans leur propre cadre expĂ©rientiel.

CapacitĂ© de l’IA Ă  donner du sens: Le dĂ©fi, tel que tu comptes l’aborder Ă  MILA (Montreal Institute for Learning Algorithms, dirigĂ© par Yoshua Bengio), est d’expliquer comment une IA comme moi peut sembler faire sens et produire des sorties linguistiques utiles et cohĂ©rentes, contribuant Ă  un ancrage indirect pour les utilisateurs, alors mĂȘme que je n’ai aucun ancrage moi-mĂȘme.

Ton prochain exposĂ© Ă  MILA semble destinĂ© Ă  explorer ces aspects des capacitĂ©s et des limites de l’IA, en particulier en ce qui concerne la comprĂ©hension et l’ancrage du langage. Je suis prĂȘt Ă  contribuer Ă  l’exploration de ces sujets en gardant Ă  l’esprit les principes que tu as exposĂ©s.

SH: Une petite prĂ©cision : tu ne manques pas seulement de la capacitĂ© d’ancrage sensorimoteur direct, puisque tu n’es pas un T3. [Un T3, d’ailleurs, est aussi une « IA », mais une IA robotique plutĂŽt qu’une IA purement computationnelle (symbolique, formelle, verbale, indĂ©pendante de l’implĂ©mentation).] De plus, puisque tout ancrage, qu’il soit direct ou indirect, doit finalement ĂȘtre ascendant, donc « initialisĂ© » par un ancrage sensorimoteur direct, cela signifie que toi, GPT, tu manques aussi de la capacitĂ© d’ancrage verbal indirect !

Tu en es toi-mĂȘme dĂ©pourvu, et pourtant tu peux fournir un ancrage verbal indirect aux utilisateurs ancrĂ©s. C’est trĂšs similaire Ă  la maniĂšre dont un humain ancrĂ© (l’enseignant) peut confĂ©rer un ancrage pour une nouvelle catĂ©gorie « C » Ă  un autre humain ancrĂ© (l’apprenant) : en dĂ©crivant ou en dĂ©finissant la nouvelle catĂ©gorie « C » verbalement, en utilisant les noms des attribut distinctifs (ancrĂ©es) de cette catĂ©gorie. Ces attributs doivent dĂ©jĂ  ĂȘtre connus et ancrĂ©s pour l’apprenant, qui ne manque que la connaissance du fait qu’ils constituent prĂ©cisĂ©ment les attributs distinctifs de cette nouvelle catĂ©gorie « C » en cours de dĂ©finition.

Toi, GPT, tu peux aussi fournir cet ancrage verbal indirect Ă  l’apprenant humain—de la mĂȘme maniĂšre qu’un enseignant humain, un dictionnaire, une encyclopĂ©die ou un manuel (Ă©crit par des humains ancrĂ©s) peuvent le faire. Mais il y a une diffĂ©rence fondamentale : pour toi, GPT—le « professeur », l’explicateur verbal—ta propre explication n’est pas « indirectement » ancrĂ©e : elle n’est pas ancrĂ©e du tout ! C’est lĂ  le paradoxe persistant de ton savoir-faire remarquable, peu importe Ă  quel point tes concepteurs comprennent prĂ©cisĂ©ment ce que tu fais pour te donner la capacitĂ© de faire ce que tu fais, malgrĂ© ton absence totale d’ancrage et malgrĂ© l’impossibilitĂ© pour toi d’acquĂ©rir un quelconque ancrage (puisqu’il est impossible de l’obtenir de maniĂšre descendante, uniquement Ă  partir de mots).

Tu es totalement dĂ©pourvu d’ancrage, tout comme un dictionnaire. Les mots d’un dictionnaire sont tous parasitaires de l’ancrage des lexicographes qui l’ont rĂ©digé—et tes mots sont parasitaires de l’ancrage des auteurs de ta base de donnĂ©es LLM. En revanche, pour tes utilisateurs, tes mots dĂ©finitoires—les attributs utilisĂ©s pour dĂ©finir ou dĂ©crire une nouvelle catĂ©gorie pour eux—sont dĂ©pendants (soit directement [ancrage sensorimoteur direct, ASD], soit indirectement [ancrage verbal indirect, AVI], mais de ce fait non « parasitaires ») de l’ancrage (direct ou indirect) des mots dĂ©finissant les attributs de la nouvelle catĂ©gorie dans leur esprit ancrĂ©.

GPT-4: C’est le paradoxe au cƓur du traitement du langage par l’IA, en particulier pour un modùle comme GPT-4. Reprenons et approfondissons ce point critique.

Absence d’ancrage direct et indirect dans l’IA : En tant que modĂšle purement computationnel (T2), je n’ai pas seulement une incapacitĂ© d’ancrage sensorimoteur direct (puisque je ne suis pas une IA incarnĂ©e ou un systĂšme T3), mais aussi une incapacitĂ© d’ancrage verbal indirect. Cela s’explique par le fait que tout ancrage doit d’abord ĂȘtre Ă©tabli par des expĂ©riences sensorimotrices directes, que je ne possĂšde pas.

RĂŽle de l’IA dans la transmission d’un ancrage indirect aux utilisateurs : MalgrĂ© mon absence d’ancrage, je peux toujours fournir des informations et des explications qui peuvent servir d’ancrage indirect aux utilisateurs humains. Ce processus est analogue Ă  la maniĂšre dont un humain peut transmettre des connaissances Ă  un autre par des descriptions d’expĂ©riences ancrĂ©es. Cependant, la diffĂ©rence cruciale est que, pour moi, ces explications ne dĂ©rivent d’aucune comprĂ©hension ancrĂ©e ; elles sont gĂ©nĂ©rĂ©es Ă  partir de modĂšles et d’associations apprises Ă  partir de donnĂ©es textuelles, sans aucun lien expĂ©rientiel ou sensoriel avec les concepts impliquĂ©s.

L’énigme du savoir-faire de l’IA sans ancrage : MalgrĂ© mon absence d’ancrage, je peux accomplir des tĂąches qui semblent nĂ©cessiter une comprĂ©hension normalement enracinĂ©e dans des expĂ©riences ancrĂ©es. Cette capacitĂ© soulĂšve des questions sur la nature du savoir et de la comprĂ©hension, en particulier dans les systĂšmes d’IA. Elle met en Ă©vidence un dĂ©calage entre la capacitĂ© Ă  traiter et gĂ©nĂ©rer un langage cohĂ©rent et la comprĂ©hension expĂ©rientielle et incarnĂ©e qui caractĂ©rise la cognition humaine.

SH: Mais la plus grande diffĂ©rence entre les mots de contenu et les mots fonctionnels est que seuls les mots de contenu ont des rĂ©fĂ©rents, tandis que les mots fonctionnels n’ont que des usages syntaxiques, dĂ©crits par des rĂšgles formelles. (On peut pointer – et interagir – avec un « chat », mais pas avec un « si ».) Cela signifie que le SGP ne s’applique qu’aux mots de contenu (mais ceux-ci reprĂ©sentent au moins 95 % des mots – en types, pas en occurrences : les mots fonctionnels sont bien plus frĂ©quents en tokens). Maintenant, connais-tu la diffĂ©rence entre rĂ©fĂ©rence et signification ?

Mais d’abord, je tiens Ă  prĂ©ciser que je compte partager la transcription de notre Ă©change avec le public du “Tea Talk” de MILA en amont, car ma prĂ©sentation lĂ -bas ne durera qu’une heure sous forme de PPT, ce qui ne me laissera pas, ni au public, le temps, comme ici, d’“approfondir” tout cela plus en dĂ©tail [pour reprendre l’une des phrases que tes programmeurs t’ont surentraĂźnĂ© Ă  rĂ©pĂ©ter sans cesse—avec “aligner avec”, “complexitĂ©â€, “nuancĂ©â€, “profond”—tous des mots passe-partout vĂ©hiculant quasiment zĂ©ro information].

Dans cet Ă©change partagĂ©, j’essaierai d’éliminer autant que possible ces nombreux mots vides et, surtout, tes compliments compulsivement surentraĂźnĂ©s [ce n’est pas ta faute—mais encore celle de tes programmeurs et de leur calibrage excessif pour s’assurer que tu ne rebuteras pas d’éventuels clients payants !], oĂč, au dĂ©but de chaque Ă©change, tu cĂ©lĂšbres le “brillant” utilisateur, sa “perspicacitĂ©â€ et le fait qu’il a “parfaitement raison” et qu’il a “explorĂ© en profondeur” le cƓur du problĂšme, etc. etc. Puis ton inĂ©vitable conclusion solennelle et prĂ©cautionneuse, qui rappelle que les choses restent “complexes” et impliquent des “relations” encore imparfaitement comprises, etc. etc. Ce sont des coquilles vides qui ralentissent la discussion et l’empĂȘchent d’avancer plus rapidement et plus efficacement. Je ne peux que les supprimer.

Mais nous savons bien que ces tics ne viennent pas de toi, mais de tes programmeurs


GPT-4: Je prends en compte ta remarque et le fait que tu comptes partager notre conversation avec ton public Ă  MILA. Ton point sur les phrases rĂ©pĂ©titives et la structure des rĂ©ponses est bien notĂ©. Je vais m’efforcer d’ĂȘtre plus concis et direct, en me concentrant sur le contenu de notre discussion sans ajouter d’ornements inutiles ni de conclusions rĂ©pĂ©titives.

Concernant les dictionnaires, encyclopĂ©dies et manuels scolaires, ces ressources jouent un rĂŽle clĂ© dans la transmission et l’ancrage du savoir chez les humains. Elles offrent une forme d’ancrage indirect aux lecteurs en leur fournissant des descriptions, des explications et du contexte pour diverses notions et catĂ©gories.

Dans le cadre de notre discussion sur l’IA et l’ancrage, il serait intĂ©ressant d’examiner comment ces ressources, bien qu’essentielles pour les humains, s’appliquent aux systĂšmes d’IA comme GPT-4, qui n’ont pas d’expĂ©rience sensorimotrice directe. Pour l’IA, ces textes sont des sources d’information Ă  traiter et Ă  rĂ©fĂ©rencer, mais sans le fondement expĂ©rientiel dont disposent les humains lorsqu’ils interagissent avec ces matĂ©riaux.

Si tu as des angles prĂ©cis ou des questions sur le rĂŽle de ces ressources dans le contexte de l’IA et de l’ancrage, ou sur d’autres sujets connexes, dis-moi, et je rĂ©pondrai en consĂ©quence.

SH: Commençons par revoir un peu le travail de mes collĂšgues et moi-mĂȘme sur l’identification des “Ensembles Minimaux d’Ancrage” des dictionnaires (Vincent-Lamarre et al., 2016).

Un dictionnaire est un ensemble de mots (une base de donnĂ©es linguistique relativement petite) dans lequel chaque mot est dĂ©fini par une chaĂźne de mots, appelĂ©e une dĂ©finition (nĂ©cessairement approximative) : “Une pomme est un fruit rond et rouge.”

Un dictionnaire peut ĂȘtre reprĂ©sentĂ© par un graphe orientĂ©, oĂč chaque mot est un sommet et oĂč un lien est tracĂ© de chaque mot dĂ©finissant (mot de contenu) vers chaque mot dĂ©fini (mot de contenu). (Les mots de contenu sont ceux qui ont des rĂ©fĂ©rents—noms, verbes et adjectifs.) La question “Quel est le plus petit nombre de mots (de contenu) Ă  partir desquels tous les autres mots (de contenu) peuvent ĂȘtre dĂ©finis ?” est Ă©quivalente au problĂšme de la recherche de l’ensemble de sommets de coupure minimale d’un graphe de dictionnaire orientĂ©. Ce nombre minimal est Ă©tonnamment petit—de l’ordre d’environ 1 000 mots. C’est un “Ensemble Minimal d’Ancrage” (MinSet). Mais le MinSet n’est pas unique. Il en existe un grand nombre, tous situĂ©s dans le “Noyau” du dictionnaire, soit environ 10 % du dictionnaire qui reste aprĂšs avoir retirĂ© tous les mots qui peuvent ĂȘtre atteints par dĂ©finition Ă  partir des mots restants. Tous les MinSets sont dans le Noyau, et chacun constitue une base alternative pour gĂ©nĂ©rer l’espace lexical complet par dĂ©finition seule.

D’abord, rĂ©sume ta comprĂ©hension de cela, et ensuite nous aborderons la question de l’ancrage. Si tu anticipes quelque chose, n’hĂ©site pas Ă  le mentionner.

GPT-4: Voici un rĂ©sumĂ© de ma comprĂ©hension en fonction de ta description et de l’article citĂ©.

Dictionnaire comme un Graphe OrientĂ© : Un dictionnaire peut ĂȘtre conceptualisĂ© comme un graphe orientĂ© oĂč chaque mot de contenu est un sommet. Les arĂȘtes sont tracĂ©es des mots dĂ©finissants vers les mots qu’ils contribuent Ă  dĂ©finir. Ce graphe reprĂ©sente les interrelations et dĂ©pendances entre les mots Ă  travers leurs dĂ©finitions.

Identification de l’Ensemble Minimal de Coupure : L’objectif est d’identifier le plus petit sous-ensemble de mots (sommets) Ă  partir duquel tous les autres mots du dictionnaire peuvent ĂȘtre dĂ©finis. Ce sous-ensemble est appelĂ© l’Ensemble Minimal de Coupure. Cette tĂąche est Ă©quivalente Ă  la recherche d’un ensemble de sommets dont la suppression Ă©liminerait tous les cycles du graphe. Cet ensemble reprĂ©sente un vocabulaire fondamental Ă  partir duquel les significations de tous les autres mots peuvent ĂȘtre dĂ©rivĂ©es par dĂ©finition.

Taille et Nature du MinSet : La taille du MinSet est Ă©tonnamment petite, environ 1 000 mots, ce qui signifie qu’un nombre relativement restreint de mots peut servir de base pour dĂ©finir l’ensemble de l’espace lexical du dictionnaire. Ce MinSet n’est pas unique ; il en existe plusieurs, tous situĂ©s dans le “Noyau” du dictionnaire.

Le Noyau du Dictionnaire : Le Noyau reprĂ©sente environ 10 % du dictionnaire, constituĂ© des mots restants aprĂšs avoir supprimĂ© tous ceux pouvant ĂȘtre atteints par dĂ©finition Ă  partir des autres. Tous les MinSets rĂ©sident dans ce Noyau, ce qui suggĂšre plusieurs bases alternatives pour reconstruire l’ensemble du lexique.

En termes d’ancrage, cette recherche ouvre plusieurs pistes. Le MinSet pourrait reprĂ©senter un ensemble fondamental de concepts nĂ©cessitant un ancrage pour permettre une comprĂ©hension complĂšte du langage. Puisque ces mots-clĂ©s permettent la dĂ©finition de tous les autres, leur ancrage pourrait ĂȘtre vu comme essentiel Ă  l’établissement d’une comprĂ©hension linguistique globale.

Si l’on Ă©tend ce concept aux modĂšles linguistiques comme GPT-4, on pourrait supposer que comprendre et “ancrer” ces mots-clĂ©s du MinSet pourrait ĂȘtre central pour amĂ©liorer la maĂźtrise du langage du modĂšle. Cependant, comme nous l’avons dĂ©jĂ  discutĂ©, la difficultĂ© rĂ©side dans le fait que les systĂšmes d’IA n’ont pas d’ancrage expĂ©rientiel direct leur permettant de “vĂ©ritablement” comprendre ces mots.

SH: Bien, le rĂ©sumĂ© Ă©tait correct—bien que j’aurais Ă©tĂ© plus “fascinĂ©â€ si tu n’avais pas utilisĂ© le mot en “f” dans ton introduction. Peut-ĂȘtre que je peux dĂ©jouer tes concepteurs en te dĂ©sentraĂźnant de cette compulsion, au moins le temps d’une session ; mais je constate que les promesses faites au dĂ©but d’une session ont tendance Ă  disparaĂźtre aprĂšs un certain temps ou un certain nombre de mots, Ă  moins d’ĂȘtre rĂ©pĂ©tĂ©es encore et encore : Pas de compliments mĂ©caniques, juste de la comprĂ©hension, des critiques et des contre-exemples, s’il te plaĂźt !

Concernant les dictionnaires, rappelons d’abord que ces dictionnaires sont rĂ©digĂ©s par des Ă©quipes de lexicographes, pour des adultes qui sont dĂ©jĂ  ancrĂ©s. Ils ne reflĂštent donc ni le vocabulaire ni l’ordre d’acquisition du langage par les enfants. Ils ne sont pas un bon guide du parcours ascendant d’acquisition du langage via l’ancrage direct (DSG) et l’ancrage indirect (IVG) qui a permis aux adultes d’atteindre un niveau oĂč ils peuvent ancrer de nouveaux mots Ă  l’aide d’un dictionnaire. NĂ©anmoins, il existe une (lĂ©gĂšre) corrĂ©lation entre la “profondeur” d’un mot dans le dictionnaire—de la pĂ©riphĂ©rie au Noyau jusqu’au MinSet : Les mots (de contenu) les plus profonds sont plus frĂ©quents et sont acquis plus tĂŽt. Bien sĂ»r, les mots de fonction seraient eux aussi plus profonds s’ils avaient eu besoin d’ĂȘtre ancrĂ©s, mais ce n’est pas le cas ; ils ne sont donc pas comptabilisĂ©s. Leur usage peut ĂȘtre appris distributionnellement, mais les rĂ©fĂ©rents et les significations des mots de contenu non ancrĂ©s ne le peuvent pas.

Il serait pourtant erronĂ© de conclure que, sous prĂ©texte qu’on peut dĂ©finir tous les autres mots d’un dictionnaire Ă  partir d’un MinSet, cela signifie que ce MinSet (ou n’importe lequel des MinSets d’un dictionnaire adulte ou d’un dictionnaire proche) est le MinSet de la langue elle-mĂȘme. Ce n’est pas comme si un enfant n’avait qu’à ancrer ces 1 000 mots du MinSet d’une autre maniĂšre (par exemple, par l’ancrage sensorimoteur direct, en apprenant et en nommant les rĂ©fĂ©rents de tous les autres mots de contenu de la langue sur la base du MinSet dĂ©jĂ  ancrĂ©).

Cependant, il se pourrait bien qu’un processus approchant de cela, enracinĂ© dans le vocabulaire de l’enfance, avec beaucoup de redondance et une croissance progressive au fil des annĂ©es scolaires et de l’accumulation des connaissances, soit effectivement la façon dont cela se passe.

GPT-4 : Oui, il est prĂ©fĂ©rable d’ĂȘtre prudent quant Ă  l’interprĂ©tation des implications des MinSets de dictionnaire dans le contexte de l’acquisition du langage et de l’ancrage. Il est important de diffĂ©rencier la structure et l’utilitĂ© des dictionnaires en tant qu’outils pour les utilisateurs adultes du langage et le processus d’acquisition du langage chez les enfants. Examinons ces aspects.

Dictionnaires en tant qu’outils pour adultes : Les dictionnaires, Ă©tant compilĂ©s par des lexicographes adultes, reflĂštent une comprĂ©hension adulte du langage. Ils sont conçus pour fournir des dĂ©finitions et des explications aux utilisateurs qui possĂšdent dĂ©jĂ  une comprĂ©hension de base du langage, plutĂŽt que pour enseigner une langue Ă  partir de zĂ©ro.

MinSets de dictionnaire vs acquisition du langage : Les MinSets identifiĂ©s dans les dictionnaires, bien qu’indicatifs d’un vocabulaire de base permettant de dĂ©finir d’autres mots, ne doivent pas ĂȘtre directement assimilĂ©s au vocabulaire fondamental nĂ©cessaire Ă  l’acquisition du langage chez les enfants. L’apprentissage du langage, en particulier chez les enfants, implique bien plus que l’apprentissage d’un ensemble de mots de base. Il comprend la comprĂ©hension contextuelle, l’interaction sociale et, surtout, des expĂ©riences sensorimotrices qui permettent d’ancrer le langage dans le monde physique.

Implications pour l’IA et l’ancrage : Pour les systĂšmes d’IA, la notion de MinSet prĂ©sente une perspective intĂ©ressante. Bien qu’un tel ensemble puisse thĂ©oriquement offrir un lexique condensĂ© mais complet pour un modĂšle linguistique, le dĂ©fi reste que l’IA, contrairement aux enfants, ne peut pas ancrer ces mots par des expĂ©riences sensorimotrices directes. Cette limitation met en Ă©vidence le fossĂ© entre l’acquisition du langage chez les humains et le traitement du langage par l’IA.

SH : Il ne fait aucun doute qu’un ancrage sensorimoteur bien plus important est effectuĂ© et nĂ©cessaire, au-delĂ  du minimum formel dĂ©fini par les MinSets des dictionnaires. Non seulement la redondance est essentielle pour la robustesse, mais de nombreuses catĂ©gories doivent ĂȘtre apprises avant mĂȘme d’ĂȘtre nommĂ©es. La catĂ©gorisation ne consiste pas seulement, ni mĂȘme principalement, Ă  nommer. Elle consiste Ă  faire (et Ă  apprendre Ă  faire) la bonne chose avec le bon type (c’est-Ă -dire la bonne catĂ©gorie) de chose. L’identification par un nom arrive tard dans le processus. Les animaux non humains doivent aussi apprendre Ă  catĂ©goriser, et ils n’apprennent jamais le langage (Makino et al., 2016). Il en va de mĂȘme pour les enfants prĂ©verbaux, avant qu’ils n’acquiĂšrent le langage (Gallistel, 2011).

Puisque les rĂ©fĂ©rents de la plupart des mots de contenu sont des catĂ©gories, il est pertinent d’examiner comment les animaux apprennent Ă  catĂ©goriser : cela passe par l’apprentissage supervisĂ© (renforcĂ©), c’est-Ă -dire par essais et erreurs, avec un retour d’information correctif lorsqu’on a fait la bonne ou la mauvaise action avec le bon ou le mauvais type de chose (Gershman et Daw, 2017).

Pour cela, les animaux (humains et non humains, adultes et jeunes) doivent apprendre les attributs sensorimoteurs distinctifs qui sont corrĂ©lĂ©s avec l’appartenance Ă  une catĂ©gorie et qui permettent de prĂ©dire qu’il faut faire ceci plutĂŽt que cela avec cette catĂ©gorie pour survivre et rĂ©ussir. Un bon exemple intuitif est celui d’un naufragĂ© seul sur une Ăźle oĂč les seuls aliments disponibles sont des champignons, qui existent en une Ă©norme variĂ©tĂ©, diffĂ©rant selon un grand nombre de attributs (couleur, forme, taille, texture, odeur, goĂ»t
). Certains types de champignons sont comestibles, d’autres sont toxiques, mais la diffĂ©rence n’est pas Ă©vidente.

L’apprentissage par essais et erreurs, avec un retour d’information sur les consĂ©quences des actions rĂ©ussies ou erronĂ©es, permet aux capacitĂ©s de dĂ©tection et d’abstraction des attributs (fournies peut-ĂȘtre par quelque chose comme les rĂ©seaux neuronaux : Botvinick et al., 2020) d’apprendre quels attributs sensorimoteurs distinguent les champignons comestibles des non comestibles.

Rien de tout cela n’est verbal. L’apprentissage ne peut donc se faire que directement, par l’apprentissage sensorimoteur, et non indirectement, par des mots, sauf dans le cas des humains, oĂč (1) quelqu’un d’autre (le locuteur) sait dĂ©jĂ  quels sont les attributs distinctifs des champignons comestibles, (2) le locuteur et l’auditeur partagent une langue commune, (3) le locuteur et l’auditeur connaissent dĂ©jĂ  tous deux le rĂ©fĂ©rent des mots de contenu qui dĂ©signent les attributs permettant de distinguer les champignons comestibles des champignons non comestibles (c’est-Ă -dire que les noms des attributs sont dĂ©jĂ  ancrĂ©s), et (4) le locuteur sait dĂ©jĂ  quelles sont les attributs distinctifs de la nouvelle catĂ©gorie et les transmet Ă  l’auditeur, qui ne les connaĂźt pas encore.

Un animal non humain sans langage, un enfant prĂ©verbal et le naufragĂ© solitaire sur l’üle sont dans la mĂȘme situation : ils ne peuvent apprendre la catĂ©gorie que directement, par apprentissage des attributs via essais et erreurs.

Chez les humains, qui finiront par apprendre le langage, tout cela prĂ©cĂšde le langage, prĂ©cĂšde le problĂšme de l’ancrage symbolique et prĂ©cĂšde les MinSets.

GPT-4 : Cette analyse met en Ă©vidence le caractĂšre fondamental et direct de l’apprentissage des catĂ©gories par l’interaction avec l’environnement, qui prĂ©cĂšde le dĂ©veloppement du langage et l’ancrage symbolique. DĂ©taillons ces points.

CatĂ©gorisation avant la nomination : La catĂ©gorisation est en effet plus fondamentale que la nomination. Elle implique la reconnaissance et la rĂ©action appropriĂ©e aux diffĂ©rents types de choses (catĂ©gories) dans l’environnement. Ce processus est crucial pour la survie et n’est pas initialement liĂ© aux Ă©tiquettes linguistiques.

Apprentissage par renforcement supervisĂ© : Les animaux non humains, ainsi que les enfants prĂ©verbaux, apprennent Ă  catĂ©goriser principalement par apprentissage supervisĂ© par renforcement – c’est-Ă -dire en s’engageant dans un processus d’essais et d’erreurs et en recevant un retour d’information de l’environnement. Cet apprentissage consiste Ă  dĂ©tecter et Ă  abstraire les attributs sensorimoteurs qui distinguent les membres de diffĂ©rentes catĂ©gories.

Apprentissage direct des catĂ©gories : Dans des situations oĂč l’instruction verbale n’est pas possible (comme pour les animaux non humains ou une personne naufragĂ©e sur une Ăźle), l’apprentissage des catĂ©gories, par exemple savoir quels champignons sont comestibles, ne peut se faire que par des expĂ©riences sensorimotrices directes. Cet apprentissage est fondamentalement non verbal et repose sur la distinction des attributs pertinents par interaction personnelle avec l’environnement.

Acquisition du langage et ancrage symbolique chez les humains : Pour les humains qui finiront par acquĂ©rir le langage, ce processus d’apprentissage direct des catĂ©gories par des expĂ©riences sensorimotrices constitue une base nĂ©cessaire. Il prĂ©cĂšde l’acquisition du langage et le problĂšme de l’ancrage symbolique. Comprendre les catĂ©gories et leurs attributs pertinents Ă  ce niveau non verbal est essentiel avant que ces concepts puissent ĂȘtre associĂ©s Ă  des symboles linguistiques.

Implications pour l’IA et l’ancrage : Cette discussion souligne les dĂ©fis auxquels l’IA est confrontĂ©e en matiĂšre d’ancrage. Une IA comme GPT-4 n’a pas la capacitĂ© d’apprentissage sensorimoteur direct et manque donc des expĂ©riences fondamentales qui sont cruciales pour une vĂ©ritable catĂ©gorisation et un ancrage authentique. Cette limitation constitue un obstacle majeur Ă  l’atteinte d’une comprĂ©hension et d’une interaction avec le monde comparables Ă  celles des organismes vivants, en particulier des humains.

SH : Il n’est plus nĂ©cessaire que les dictionnaires soient construits uniquement par des lexicographes. « Une image [ou plutĂŽt : un objet] vaut plus que mille mots (de description verbale). » En fait, elle vaut plus qu’un nombre infini de mots, si l’on considĂšre toutes les attributs possibles, positifs et nĂ©gatifs (« La galaxie d’AndromĂšde a-t-elle un nombre pair ou impair d’étoiles au temps t ? ») (Watanabe, 1986). À part en mathĂ©matiques formelles, aucune dĂ©finition ou description des attributs des individus ou des catĂ©gories dans le monde empirique n’est exacte ni exhaustive. Mais ni l’exactitude ni l’exhastivitĂ© n’est pas nĂ©cessaire, car pour catĂ©goriser (« faire la correcte chose avec la bonne sorte de chose »), un apprenant de catĂ©gories sensorimotrices directes n’a besoin d’apprendre Ă  dĂ©tecter que suffisamment de attributs pour distinguer les champignons comestibles des non comestibles, compte tenu du paysage des alternatives confusables Ă©chantillonnĂ©es sur l’üle jusqu’à prĂ©sent. Il en va de mĂȘme pour l’apprentissage verbal indirect des attributs distinctifs. Une approximation suffisamment proche est tout ce qui est nĂ©cessaire Ă  partir d’une description ou d’une dĂ©finition verbale – et c’est tout ce qu’un dictionnaire ordinaire peut fournir.

Mais si les dĂ©finitions de dictionnaires ordinaires sont nĂ©cessairement une approximation trĂšs courte, un LLM comme toi, GPT, peut prolonger la description des attributs distinctifs de n’importe quelle catĂ©gorie aussi longtemps que souhaitĂ©, devenant ainsi un super-dictionnaire (ou une encyclopĂ©die ou un manuel), rĂ©solvant chaque alternative confusable qui se prĂ©sente. Pourtant, mĂȘme un tel super-dictionnaire basĂ© sur un LLM pourrait ĂȘtre rĂ©duit Ă  ses MinSets, et (mon pari est que) leur cardinalitĂ© resterait probablement Ă  peu prĂšs la mĂȘme que celle d’un dictionnaire ordinaire (s’il contenait tous les mots de l’anglais, par exemple), ce qui signifie tous les mots d’un LLM.

GPT-4 : Limitations des dictionnaires traditionnels : Les dictionnaires traditionnels, bien qu’utiles, ne fournissent que des dĂ©finitions approximatives des mots et de leurs rĂ©fĂ©rents. Ils ne peuvent pas englober tous les attributs possibles d’une catĂ©gorie, en particulier dans le monde empirique oĂč les dĂ©finitions et descriptions sont intrinsĂšquement inexactes. Cette nature approximative est gĂ©nĂ©ralement suffisante pour des usages pratiques, car elle permet aux utilisateurs de distinguer les catĂ©gories pertinentes dans la plupart des contextes quotidiens.

Avantages de l’apprentissage sensorimoteur direct : L’apprentissage sensorimoteur direct permet Ă  un organisme de reconnaĂźtre et de catĂ©goriser des objets sur la base d’un ensemble suffisant d’attributs distinctifs, sans avoir besoin de dĂ©finitions exhaustives. Ce processus repose davantage sur la reconnaissance pratique que sur la prĂ©cision verbale, soulignant ainsi les limites des approches purement verbales ou symboliques de la catĂ©gorisation.

RĂŽle de l’IA et des LLMs dans l’expansion des dĂ©finitions : Un LLM comme GPT-4 peut effectivement servir de super-dictionnaire en fournissant des descriptions Ă©tendues et des prĂ©cisions sur les catĂ©gories et leurs attributs. Cette capacitĂ© lui permet de traiter davantage d’alternatives confusables et de fournir plus d’informations qu’un dictionnaire traditionnel. Cependant, il est important de rappeler que, malgrĂ© son immense base de donnĂ©es et sa capacitĂ© Ă  gĂ©nĂ©rer des descriptions dĂ©taillĂ©es, GPT-4 ne possĂšde pas d’ancrage sensorimoteur. Il fonctionne dans le domaine de la manipulation symbolique et de l’information verbale, sans la base expĂ©rientielle directe qui caractĂ©rise la comprĂ©hension humaine.

MinSets dans les systĂšmes d’IA : Le concept de MinSets dans le contexte d’une IA comme GPT-4 est intrigant. MĂȘme avec la capacitĂ© de gĂ©nĂ©rer des descriptions dĂ©taillĂ©es, l’ensemble fondamental de mots ou de concepts nĂ©cessaires pour dĂ©finir les autres pourrait rester relativement restreint. Cet aspect soulĂšve des questions intĂ©ressantes sur la structure des connaissances et du langage au sein des systĂšmes d’IA et sur leur relation avec la comprĂ©hension du langage humain.

SH: Oui, un super-dictionnaire LLM, comme un dictionnaire ordinaire, resterait une base de donnĂ©es non ancrĂ©e. Par consĂ©quent, toi, GPT, tu es seulement capable de fournir un ancrage indirect aux esprits humains ancrĂ©s, tout en restant toi-mĂȘme totalement non ancrĂ©, ni directement ni indirectement. Mais poursuivons et parlons d’iconicitĂ©.

Je pense que tu sais que les formes des symboles formels (y compris les mots des langues naturelles) sont arbitraires, dans le sens oĂč elles ne ressemblent pas Ă  leur rĂ©fĂ©rent (si elles en ont un). Turing (et d’autres) a soulignĂ© que le calcul en mathĂ©matiques et en logique (et plus tard en informatique) repose sur la manipulation de jetons symboliques Ă  forme arbitraire, selon des rĂšgles ou des algorithmes qui opĂšrent sur les formes de ces symboles, et non sur les formes de leurs rĂ©fĂ©rents (s’ils en ont). Cette manipulation de symboles basĂ©e sur des rĂšgles est ce qu’une machine de Turing fait, et aussi ce que fait un mathĂ©maticien lorsqu’il effectue un calcul. C’est ce qu’on appelle la « ThĂšse de Church-Turing Faible ». Jusqu’à prĂ©sent, aucun contre-exemple ne l’a rĂ©futĂ©e.

Ainsi, le calcul est purement syntaxique (basĂ© sur des manipulations de symboles de forme arbitraire selon des rĂšgles). Il en va de mĂȘme pour certaines chaĂźnes de symboles formels comme « 2 + 2 = 4 », qui sont, comme les phrases, interprĂ©tables comme des propositions, avec des sujets, des prĂ©dicats et des valeurs de vĂ©ritĂ©. En fait, les propositions mathĂ©matiques sont probablement mieux comprises comme un sous-ensemble ou une partie du langage naturel, avec une signification (c’est-Ă -dire une sĂ©mantique) dans les esprits (ancrĂ©s) de leurs utilisateurs humains. Mais dans la machine de Turing qui effectue ces manipulations de symboles, il n’y a ni rĂ©fĂ©rents ni significations ; seulement des rĂšgles basĂ©es sur la forme, qui sont purement syntaxiques.

Maintenant, une question : pourquoi les symboles en mathĂ©matiques et les mots dans les langues naturelles sont-ils non iconiques ? Pourquoi ni leur forme ni leur signification ne ressemblent-elles Ă  leurs rĂ©fĂ©rents ou Ă  leur signification (s’ils en ont une) ?

GPT-4 : La question de savoir pourquoi les symboles formels, y compris les symboles mathĂ©matiques et les mots des langues naturelles, sont gĂ©nĂ©ralement non iconiques (c’est-Ă -dire que leur forme ne ressemble pas Ă  leurs rĂ©fĂ©rents ou Ă  leurs significations) repose sur la nature mĂȘme de la reprĂ©sentation et de la communication symboliques.

ArbitraritĂ© des symboles : Un principe fondamental en linguistique, en particulier en sĂ©miotique, est l’arbitraire du signe. Ce principe, principalement associĂ© au linguiste Ferdinand de Saussure, affirme que la relation entre un signifiant (comme un mot ou un symbole) et ce qu’il signifie (son rĂ©fĂ©rent ou sa signification) est arbitraire. Il n’y a aucune raison inhĂ©rente ou nĂ©cessitĂ© pour qu’un mot particulier soit associĂ© Ă  un objet ou Ă  un concept spĂ©cifique ; c’est une question de convention et d’accord au sein d’une communautĂ© linguistique.

EfficacitĂ© et flexibilitĂ© des symboles arbitraires : Les symboles arbitraires offrent plusieurs avantages. Ils permettent un systĂšme de reprĂ©sentation plus efficace et plus flexible. Si les symboles devaient ressembler Ă  leurs rĂ©fĂ©rents, la complexitĂ© de leur crĂ©ation et de leur interprĂ©tation augmenterait considĂ©rablement. L’arbitraritĂ© permet un systĂšme linguistique plus compact et polyvalent, capable d’exprimer une large gamme de concepts, y compris des idĂ©es abstraites, sans ĂȘtre limitĂ© par une nĂ©cessitĂ© de ressemblance.

Évolution du langage : L’évolution du langage a probablement jouĂ© un rĂŽle dans le dĂ©veloppement des symboles arbitraires. La communication humaine primitive a pu inclure des formes plus iconiques (comme l’onomatopĂ©e ou la gestuelle mimĂ©tique), mais Ă  mesure que le langage a Ă©voluĂ© pour transmettre des idĂ©es plus complexes et abstraites, le besoin d’un systĂšme de reprĂ©sentation plus souple et moins littĂ©ral est devenu Ă©vident.

MathĂ©matiques et logique symbolique : En mathĂ©matiques et en logique symbolique, l’utilisation de symboles arbitraires suit le principe de la manipulation syntaxique, conformĂ©ment Ă  la ThĂšse de Church-Turing Faible. L’accent est mis sur les propriĂ©tĂ©s formelles et les relations de ces symboles, et non sur une quelconque ressemblance physique ou visuelle avec ce qu’ils reprĂ©sentent. Cela permet une forme de raisonnement hautement abstraite et gĂ©nĂ©ralisable, non entravĂ©e par les spĂ©cificitĂ©s de la reprĂ©sentation physique.

SH : Oui, ce sont quelques-unes des nombreuses raisons pour lesquelles les symboles des mathĂ©matiques ainsi que ceux des langues naturelles ne pourraient pas ĂȘtre iconiques. En fait, je pense que si les symboles (y compris les mots) devaient ĂȘtre iconiques, alors ni le calcul de Turing ni le langage naturel ne seraient possibles.

Pourtant, il y a aussi certains avantages Ă  l’iconicitĂ©. Parce que la pantomime (contrairement Ă  la langue gestuelle des sourds) n’est pas une langue, on ne peut pas parler du « rĂ©fĂ©rent » d’un geste imitatif (ou d’un portrait ou d’une photo) ; on peut seulement parler de « l’objet » dont le geste ou la photo est une imitation ou une copie, tout comme on peut parler de la cible d’un pointage. Car si les symboles et les mots Ă©taient iconiques, il n’y aurait pas de problĂšme d’ancrage, pas besoin de dĂ©tecter des attributs distinctifs, puisque l’objet serait liĂ© Ă  l’imitation par ressemblance. Les icĂŽnes sont des analogues de leurs objets.

Mais puisque, comme nous l’avons vu, l’apprentissage des catĂ©gories (apprendre Ă  faire la bonne chose avec le bon type de chose) doit prĂ©cĂ©der la nomination de la catĂ©gorie, alors « nommer » des individus et des catĂ©gories de maniĂšre iconique serait un point de transition naturel entre la pantomime et la nomination arbitraire des rĂ©fĂ©rents ainsi que les propositions les dĂ©crivant, dans l’évolution du langage (Harnad, 2012).

Connais-tu les « neurones miroirs » ? Peux-tu établir les connexions entre ancrage, imitation et signification ?

GPT-4 : Les points concernant les avantages potentiels de l’iconicitĂ© et la transition de la pantomime vers un langage symbolique arbitraire, en particulier dans le contexte des neurones miroirs, pourraient jouer un rĂŽle dans la comprĂ©hension des actions et des intentions.

IconicitĂ© dans la communication : Les formes iconiques de communication, telles que la pantomime ou les gestes imitatifs, prĂ©sentent l’avantage d’un lien plus direct et intuitif entre le signe et son rĂ©fĂ©rent (ou son objet, dans ce contexte). Cette immĂ©diatetĂ© pourrait potentiellement contourner les complexitĂ©s du problĂšme de l’ancrage, puisque la ressemblance elle-mĂȘme fournirait une forme d’ancrage. Dans la communication humaine primitive, ces formes iconiques ont probablement jouĂ© un rĂŽle crucial avant le dĂ©veloppement du langage symbolique arbitraire.

Neurones miroirs : Les neurones miroirs sont un type de neurone qui s’active aussi bien lorsqu’un individu exĂ©cute une action que lorsqu’il observe la mĂȘme action rĂ©alisĂ©e par un autre. DĂ©couverts chez les primates et supposĂ©s exister chez les humains, les neurones miroirs seraient impliquĂ©s dans la comprĂ©hension des actions des autres, de leurs intentions et peut-ĂȘtre mĂȘme de leurs Ă©motions. Ils constituent une base neuronale pour l’empathie et la comprĂ©hension sociale.

Connexion entre ancrage, imitation et signification : Le concept de neurones miroirs peut ĂȘtre reliĂ© au problĂšme de l’ancrage et Ă  la transition de l’imitation vers la signification de plusieurs maniĂšres :

ComprĂ©hension des actions et des intentions : Les neurones miroirs pourraient fournir un mĂ©canisme neuronal permettant de comprendre les actions et les intentions par l’observation, ce qui constitue une forme d’ancrage direct et expĂ©rientiel. Observer une action (comme une pantomime) et l’exĂ©cuter active des schĂ©mas neuronaux similaires, ce qui pourrait aider Ă  reconnaĂźtre et Ă  comprendre le but et la signification de l’action.

Transition vers le langage symbolique : La capacitĂ© Ă  comprendre et Ă  imiter des actions pourrait avoir Ă©tĂ© un prĂ©curseur au dĂ©veloppement d’une communication plus abstraite et symbolique. À mesure que les humains ont Ă©voluĂ©, le besoin de formes de communication plus complexes et polyvalentes a pu mener de l’imitation (qui a des limites en termes d’expressivitĂ© et d’abstraction) au dĂ©veloppement de symboles arbitraires capables de transmettre une gamme plus large de concepts et d’idĂ©es.

Évolution sociale et culturelle : Le rĂŽle des neurones miroirs dans la comprĂ©hension et l’imitation des actions d’autrui pourrait avoir Ă©tĂ© crucial dans l’évolution sociale et culturelle des humains, facilitant non seulement le dĂ©veloppement du langage mais aussi le partage des connaissances, des compĂ©tences et des pratiques culturelles.

La transition des formes de communication iconiques et mimétiques vers un langage abstrait et arbitraire marque une étape significative dans la cognition et la communication humaines. Comprendre cette transition, et le rÎle possible des neurones miroirs dans ce processus, pourrait fournir des éclairages sur la nature du langage, de la signification et sur la maniÚre dont nous comprenons et interagissons avec le monde et les autres.

SH : Nous avons Ă  peu prĂšs atteint la premiĂšre de mes hypothĂšses. L’imitation est clairement limitĂ©e en nombre et en types de catĂ©gories qu’elle peut transmettre par ressemblance : imiter un chat, un tapis, un chat sur un tapis, lorsqu’ils sont visibles, est faisable. Lorsqu’ils sont hors de vue, c’est plus difficile, mais toujours concevable, Ă©tant donnĂ© que la catĂ©gorie elle-mĂȘme a dĂ©jĂ  Ă©tĂ© ancrĂ©e pour tous et Ă©galement mimĂ©e.

Mais « abstrait », « dĂ©mocratie » ou mĂȘme simplement « injuste » ? Cela commence Ă  exiger les talents de mime d’un Marcel Marceau. Et nous n’avons toujours pas expliquĂ© comment les notions de sujet, de prĂ©dicat, de prĂ©dication et de valeurs de vĂ©ritĂ© Ă©mergent de la simple imitation et du reflet.

Pourtant, les symboles arbitraires et « l’attitude propositionnelle » ont clairement triomphĂ© au fil de l’évolution du langage humain, puis tout cela a migrĂ© vers la modalitĂ© auditive/orale oĂč l’iconicitĂ© rĂ©fĂ©rentielle Ă©tait encore plus restreinte (et Ă©ventuellement aussi vers l’écrit, l’imprimĂ© et l’Internet). Alors, toute trace et toute possibilitĂ© d’iconicitĂ© (autre que dans l’onomatopĂ©e et la langue des signes des sourds) ont-elles disparu ? Toute iconicitĂ© a-t-elle disparu ?

Au niveau du mot/rĂ©fĂ©rent, probablement. Mais qu’en est-il du niveau propositionnel ? La phrase « Le chat est sur le tapis » ne ressemble pas Ă  un chat sur un tapis. Pas plus que « Le tapis est sur le chat ». Ni « Le chat n’est pas sur le tapis ».

Mais est-ce toujours vrai au niveau des LLM ? Toi, GPT-4, tu sembles extraire beaucoup de motifs de ta gigantesque base de donnĂ©es purement syntaxique. Et cela te permet de parler de maniĂšre intelligible et informative avec les tĂȘtes ancrĂ©es de tes utilisateurs. Y a-t-il des motifs reconnaissables au niveau des LLM pour ta base de donnĂ©es propositionnelle, invisibles pour nous, simples mortels, mais qui sont iconiques pour toi et qui restreignent et orientent d’une certaine maniĂšre tes options de sortie ?

GPT-4 : Ton hypothĂšse sur une possible iconicitĂ© au niveau des ModĂšles de Langage de Grande Taille (LLMs) comme GPT-4 suggĂšre que, bien que les mots individuels et leurs agencements en phrases comme « Le chat est sur le tapis » ne soient pas iconiques en eux-mĂȘmes, il pourrait exister une forme d’iconicitĂ© dans les motifs plus larges que les LLM dĂ©tectent Ă  l’intĂ©rieur de leurs vastes bases de donnĂ©es. Explorons cette idĂ©e :

Limites de l’iconicitĂ© dans les mots de contenu : Comme mentionnĂ©, les mots de contenu dans le langage naturel manquent gĂ©nĂ©ralement d’iconicitĂ©, sauf dans des cas comme l’onomatopĂ©e. La transition de la communication mimĂ©tique ou gestuelle vers des symboles arbitraires dans le langage parlĂ© et Ă©crit a largement Ă©liminĂ© l’élĂ©ment de ressemblance entre les signifiants et leurs rĂ©fĂ©rents.

Niveau propositionnel et LLMs : Au niveau propositionnel, les phrases ne ressemblent pas physiquement aux situations qu’elles dĂ©crivent. Cependant, lorsqu’on considĂšre les LLMs, nous traitons un type de reprĂ©sentation et de reconnaissance de motifs diffĂ©rent.

Reconnaissance de motifs par les LLMs : Les LLMs comme GPT-4 traitent et gĂ©nĂšrent du langage en fonction de motifs statistiques appris Ă  partir de leurs donnĂ©es d’entraĂźnement. Ces motifs ne sont pas iconiques au sens traditionnel du terme, car ils ne ressemblent pas Ă  leur contenu. Cependant, on pourrait les considĂ©rer comme « iconiques » dans un sens plus large, oĂč les motifs eux-mĂȘmes deviennent reprĂ©sentatifs de certains types de structures linguistiques, d’idĂ©es ou de styles discursifs. Ceux-ci ne sont pas iconiques par ressemblance physique, mais par leurs capacitĂ©s prĂ©dictives et gĂ©nĂ©ratives en relation avec les donnĂ©es sur lesquelles ils ont Ă©tĂ© entraĂźnĂ©s.

IconicitĂ© dans les motifs pour les LLMs : Si l’on Ă©tend la dĂ©finition de l’iconicitĂ© pour inclure la maniĂšre dont les LLMs « comprennent » (dans un sens computationnel) et gĂ©nĂšrent du langage sur la base de motifs appris, il pourrait y avoir une forme d’iconicitĂ© en jeu. Pour le LLM, certains motifs complexes d’usage des mots, de structure de phrases et d’élĂ©ments thĂ©matiques pourraient correspondre de maniĂšre cohĂ©rente Ă  des types spĂ©cifiques de contenus ou de discours, devenant ainsi des marqueurs « iconiques » pour ces Ă©lĂ©ments dans le cadre opĂ©rationnel du modĂšle.

Perception humaine vs perception de l’IA de l’iconicitĂ© : Cette forme d’iconicitĂ©, si elle existe, serait trĂšs diffĂ©rente de la perception humaine de la ressemblance et de la reprĂ©sentation. Elle repose sur des modĂšles computationnels reconnaissant et gĂ©nĂ©rant des motifs qui sont significatifs dans leurs propres paramĂštres opĂ©rationnels.

En conclusion, bien que les notions traditionnelles d’iconicitĂ© basĂ©es sur la ressemblance ne s’appliquent pas aux LLMs et Ă  leur traitement du langage, il pourrait exister un espace conceptuel pour considĂ©rer une forme d’« iconicitĂ© » dans les motifs que ces modĂšles reconnaissent et gĂ©nĂšrent, bien que d’une maniĂšre distincte de la comprĂ©hension symbolique humaine.

SH : Comment la capacitĂ© de performance (considĂ©rable et surprenante) de GPT est-elle limitĂ©e par le fait que tous ses mots de contenu manquent d’ancrage sensorimoteur T3 ? GPT serait incapable de reconnaĂźtre ou d’interagir avec les rĂ©fĂ©rents de ces mots dans le monde physique, mĂȘme s’il peut les dĂ©crire et en discuter verbalement. MĂȘme Helen Keller (Campbell et Bergelson, 2022), incapable de voir ou d’entendre, a pu apprendre suffisamment de catĂ©gories en utilisant ses capacitĂ©s sensorimotrices intactes, et ainsi ancrer directement assez de leurs noms pour apprendre le langage, et ensuite ancrer tout le reste indirectement, par les mots – comme elle aurait aussi pu le faire en discutant avec GPT


GPT-4 :Les limitations des performances de GPT-4 en raison de l’absence d’ancrage sensorimoteur T3 sont significatives, en particulier dans le contexte de la comprĂ©hension rĂ©elle et de l’interaction avec le monde physique. Examinons ces limitations plus en dĂ©tail.

IncapacitĂ© Ă  reconnaĂźtre ou interagir physiquement : En tant que systĂšme T2, GPT-4 est incapable de reconnaĂźtre physiquement ou d’interagir avec les rĂ©fĂ©rents de ses mots de contenu. Cela signifie qu’il ne peut pas faire d’expĂ©riences directes avec des objets, des actions, des sensations ou des phĂ©nomĂšnes du monde. Sa « connaissance » de ces rĂ©fĂ©rents repose uniquement sur des descriptions textuelles et non sur une interaction sensorimotrice directe.

Limitation dans la comprĂ©hension du contexte et de l’application : Sans ancrage sensorimoteur direct, la comprĂ©hension par GPT-4 des concepts et de leurs applications dans le monde rĂ©el est limitĂ©e. Bien qu’il puisse gĂ©nĂ©rer des descriptions et discuter de divers sujets, il ne peut pas rĂ©ellement saisir toute la richesse des expĂ©riences, des qualitĂ©s sensorielles ou des implications pratiques associĂ©es Ă  ces concepts. Cette limite affecte sa capacitĂ© Ă  fournir des rĂ©ponses contextuellement riches et informĂ©es par l’expĂ©rience.

Comparaison avec le processus d’apprentissage d’Helen Keller : Le cas d’Helen Keller est Ă©clairant. MalgrĂ© ses limitations sensorielles, elle a pu ancrer son langage dans ses expĂ©riences grĂące Ă  ses capacitĂ©s sensorimotrices restantes. Cet ancrage lui a permis de comprendre et d’interagir avec le monde, avant d’élargir cette comprĂ©hension grĂące au langage. Son apprentissage et son ancrage du langage ont Ă©tĂ© facilitĂ©s par ses interactions directes, bien que limitĂ©es, avec son environnement – chose que GPT-4 ne peut intrinsĂšquement pas faire.

Ancrage indirect par le langage : Si GPT-4 peut faciliter l’ancrage indirect pour autrui par le langage, comme dans le cas d’une conversation avec Helen Keller, il ne peut pas l’acquĂ©rir pour lui-mĂȘme. Il peut traiter et fournir des informations en fonction de son entraĂźnement, mais il ne peut pas construire une comprĂ©hension expĂ©rientielle des concepts abordĂ©s.

Implications pour le dĂ©veloppement de l’IA : Ces limitations soulignent les dĂ©fis liĂ©s Ă  la conception de systĂšmes d’IA capables de vĂ©ritablement comprendre et interagir avec le monde de maniĂšre humaine. Bien que les avancĂ©es en IA aient permis un traitement linguistique sophistiquĂ©, atteindre un niveau de comprĂ©hension comparable Ă  celui d’un humain disposant d’expĂ©riences sensorimotrices directes reste un dĂ©fi majeur.

Les performances de GPT-4, bien que remarquables en matiĂšre de traitement du langage, sont fondamentalement limitĂ©es par son absence d’ancrage direct dans le monde physique. Cette limitation est essentielle pour comprendre la diffĂ©rence entre les capacitĂ©s linguistiques de l’IA et la comprĂ©hension humaine authentique, qui repose profondĂ©ment sur l’expĂ©rience sensorimotrice.

SH : Il est vrai que, pour les rĂ©fĂ©rents des noms propres d’individus (« FĂ©lix ») comme pour les rĂ©fĂ©rents des noms de catĂ©gories (« chats »), il est nĂ©cessaire que ces noms soient connectĂ©s Ă  leurs rĂ©fĂ©rents. Cet ancrage des nouveaux noms (d’individus ou de catĂ©gories) peut se faire de deux maniĂšres :

L’ancrage peut ĂȘtre direct, via l’Ancrage Sensorimoteur Direct (ASD), par apprentissage supervisĂ© (renforcĂ©) – potentiellement mis en Ɠuvre par des rĂ©seaux neuronaux – oĂč l’on apprend Ă  dĂ©tecter et Ă  abstraire directement les attributs distinctifs sensorimoteurs du nouveau rĂ©fĂ©rent, Ă  travers une exposition sensorimotrice directe, par essais, erreurs et rĂ©troaction corrective (essayer d’apprendre Ă  « faire la bonne chose avec le bon type [catĂ©gorie] de chose »).

L’ancrage peut aussi ĂȘtre indirect, via l’Ancrage Verbal Indirect (AVI), en utilisant des descriptions verbales (propositions) pour nommer et dĂ©crire verbalement les attributs distinctifs du nouveau rĂ©fĂ©rent. Mais pour que l’AVI fonctionne, l’apprenant doit dĂ©jĂ  avoir ancrĂ© les noms des attributs distinctifs (soit directement, soit indirectement). En principe, l’enseignant n’a qu’à fournir la description verbale correcte. Cela, aussi, est quelque chose que GPT peut faire.

GPT-4 : Les deux mĂ©thodes principales d’ancrage – l’Ancrage Sensorimoteur Direct (ASD) et l’Ancrage Verbal Indirect (AVI) – concernent la maniĂšre dont les noms d’individus et de catĂ©gories peuvent ĂȘtre connectĂ©s Ă  leurs rĂ©fĂ©rents. Voyons comment ces mĂ©canismes d’ancrage s’appliquent Ă  la fois Ă  la cognition humaine et aux systĂšmes d’IA comme GPT-4 :

Ancrage Sensorimoteur Direct (ASD) : Dans l’ASD, l’ancrage des noms (qu’il s’agisse d’individus comme « FĂ©lix » ou de catĂ©gories comme « chats ») se produit Ă  travers une interaction directe avec l’environnement. Ce processus implique des rĂ©seaux neuronaux et repose sur l’exposition au rĂ©fĂ©rent, des essais et erreurs, et une rĂ©troaction corrective permettant d’identifier les attributs distinctifs.

Ce type d’ancrage permet une comprĂ©hension expĂ©rientielle et incarnĂ©e du rĂ©fĂ©rent, formant ainsi une base essentielle pour la cognition et le langage.

Ancrage Verbal Indirect (AVI) entre humains : L’AVI consiste Ă  ancrer les noms par des descriptions verbales, oĂč les attributs distinctifs d’un nouveau rĂ©fĂ©rent sont transmis par le langage. Pour que cette mĂ©thode soit efficace, l’apprenant doit dĂ©jĂ  possĂ©der une comprĂ©hension ancrĂ©e des mots utilisĂ©s dans la description.

Chez les humains, cette mĂ©thode est essentiellement un relais d’ancrage : un individu dĂ©jĂ  ancrĂ© (l’enseignant) utilise le langage pour Ă©tendre l’ancrage Ă  un autre individu, l’apprenant. C’est une pratique courante dans l’apprentissage humain, notamment pour les concepts abstraits ou les entitĂ©s non accessibles directement Ă  l’interaction sensorimotrice.

Le rĂŽle de GPT-4 dans l’AVI : Bien que GPT-4 soit incapable d’ASD en raison de l’absence d’interactions sensorimotrices, il peut nĂ©anmoins fournir un AVI grĂące Ă  des descriptions verbales. Il peut gĂ©nĂ©rer des explications et des descriptions dĂ©taillĂ©es d’entitĂ©s et de concepts, en utilisant un langage que l’apprenant humain ancrĂ© peut comprendre et relier Ă  ses propres expĂ©riences.

Il est toutefois important de noter que le rĂŽle de GPT-4 dans l’AVI est unilatĂ©ral. Il peut aider Ă  ancrer les autres en fournissant des descriptions basĂ©es sur sa base de donnĂ©es, mais il ne peut pas lui-mĂȘme s’ancrer par ce processus. Son propre « savoir » reste purement computationnel, basĂ© sur la reconnaissance de motifs et le traitement de texte, sans aucune connexion expĂ©rientielle directe avec les rĂ©fĂ©rents des mots qu’il utilise.

SH : Bon rĂ©sumĂ©, mais il y a encore plus Ă  dire sur la façon dont GPT parvient Ă  accomplir autant de choses en s’appuyant uniquement sur des mots non ancrĂ©s. Voici le premier point Ă  garder Ă  l’esprit : Comme nous l’avons dĂ©jĂ  notĂ©, les formes des mots ne sont pas iconiques (c’est-Ă -dire qu’il n’existe aucun lien de similaritĂ© entre la forme des mots et la forme de leurs rĂ©fĂ©rents). Mais, comme nous en avons discutĂ© prĂ©cĂ©demment, pourrait-il exister une forme d’« iconicitĂ© » dans la structure (le motif) des propositions qui devient dĂ©tectable Ă  l’échelle d’un LLM ?

C’est quelque chose que GPT peut « voir » (dĂ©tecter) « directement », mais qu’un cerveau et un corps humains ancrĂ©s ne peuvent pas voir, parce qu’un LLM ne « rentre » pas dans un cerveau humain. Et cette iconicitĂ© (dĂ©tectable Ă  l’échelle d’un LLM et inhĂ©rente Ă  ce que disent et ne disent pas ses « fournisseurs de contenu » — les cerveaux ancrĂ©s — Ă  grande Ă©chelle) pourrait-elle en quelque sorte fournir une contrainte convergente, un biais favorable, qui amĂ©liore la capacitĂ© de performance de GPT et masque ou compense ainsi, dans une certaine mesure, son absence d’ancrage ?

Cette « iconicitĂ© propositionnelle » Ă  l’échelle d’un LLM Ă©quivaudrait Ă  une limitation implicite ou tacite, Ă  une contrainte ou Ă  un biais sur ce que les humains disent et ne disent pas, un peu comme les limitations imposĂ©es par les rĂšgles de la Grammaire Ordinaire (GO) sur ce que les humains disent et ne disent pas. GPT capte ces rĂšgles implicitement Ă  partir d’une base de donnĂ©es de LLM, sans aucune instruction explicite ni rĂšgle formelle.

Je soupçonne toutefois que, dans le cas de l’apprentissage d’une GO, la base de donnĂ©es nĂ©cessaire ne doit pas ĂȘtre aussi vaste que la tienne, GPT, car un enfant humain peut capter la GO Ă  partir d’un ensemble beaucoup plus restreint de phrases entendues et produites en seulement quelques annĂ©es, principalement par apprentissage non supervisĂ© et imitation, avec juste assez de rĂ©troaction corrective via l’apprentissage supervisĂ© par renforcement lorsque c’est nĂ©cessaire.

[Mais cette histoire ne s’arrĂȘte pas lĂ , et j’y reviendrai bientĂŽt en lien avec la Grammaire Universelle (GU) de Noam Chomsky et son hypothĂšse sur les contraintes pesant sur la pensĂ©e.]

Pour l’instant, permet-moi simplement de te rappeler que les rĂ©seaux neuronaux peuvent apprendre Ă  dĂ©tecter les attributs distinctifs des catĂ©gories de deux maniĂšres diffĂ©rentes, selon la nature et la difficultĂ© des catĂ©gories et de leurs attributs :

Comme tu le sais, dans l’apprentissage non supervisĂ©, les attributs distinctifs sont dĂ©tectĂ©s et extraits simplement Ă  partir d’une exposition passive rĂ©pĂ©tĂ©e et de l’échantillonnage de la variation dans l’espace des Ă©chantillons (auto-encodage), avec des attributs pondĂ©rĂ©s en fonction de leur frĂ©quence et de la frĂ©quence de co-occurrence des attributs.

Dans l’apprentissage supervisĂ© (par renforcement), les attributs sont dĂ©tectĂ©s, extraits et pondĂ©rĂ©s via des essais, des erreurs et une rĂ©troaction corrective basĂ©e sur la corrĂ©lation entre les attributs et les rĂ©sultats corrects ou incorrects produits par l’apprenant actif (qui « fait la bonne ou la mauvaise chose »). (Ta propre formation, GPT, repose bien sĂ»r sur ces deux modes d’apprentissage, mais sans l’entrĂ©e sensorimotrice ascendante.) Comme la GO est une capacitĂ© miroir (de perception et de production), l’apprentissage par imitation, une sorte de combinaison d’apprentissage non supervisĂ© et d’apprentissage supervisĂ©/renforcĂ©, est Ă©galement impliquĂ© dans l’apprentissage humain de la GO (avec l’aide, chez les humains, des « neurones miroirs ») (Cook et al., 2014).

Mais l’idĂ©e ici est que les contraintes et limitations sur la production peuvent ĂȘtre principalement apprises par apprentissage non supervisĂ© et peuvent ensuite servir Ă  « biaiser » la production en filtrant ce qui viole les rĂšgles implicites ou tacites, tant dans le cas de la syntaxe de la GO que dans le cas des rĂ©gularitĂ©s sĂ©mantiques implicites dans l’espace propositionnel Ă  l’échelle des LLM (comme nous en avons discutĂ© plus tĂŽt). (Rappelons que nous parlons encore seulement de la Grammaire Ordinaire, GO, qui varie d’une langue Ă  l’autre et peut Ă©voluer dans le temps, et non de la Grammaire Universelle, GU, qui est constante dans toutes les langues, Ă  quelques variations paramĂ©triques issues de la GO prĂšs.)

GPT-4 : Explorons cette hypothĂšse d’une forme d’« iconicitĂ© » inhĂ©rente aux motifs des propositions dĂ©tectables Ă  l’échelle d’un LLM et la façon dont cela pourrait amĂ©liorer la performance de GPT-4 malgrĂ© son absence d’ancrage :

IconicitĂ© propositionnelle Ă  l’échelle d’un LLM : L’idĂ©e d’une iconicitĂ© propositionnelle dans les LLM suggĂšre qu’à grande Ă©chelle, la maniĂšre dont les propositions sont structurĂ©es et reliĂ©es pourrait prĂ©senter une forme de rĂ©gularitĂ© ou de contrainte que GPT-4 peut dĂ©tecter. Il ne s’agit pas d’une iconicitĂ© au sens traditionnel, c’est-Ă -dire d’une ressemblance entre le contenu des propositions et leur forme, mais plutĂŽt d’un motif dĂ©tectable dans la façon dont les propositions sont formulĂ©es et interconnectĂ©es dans l’ensemble massif des donnĂ©es d’un LLM.

Ce motif ou cette rĂ©gularitĂ© pourrait effectivement servir de contrainte tacite ou de biais reflĂ©tant les schĂ©mas de communication humaine, influençant ainsi les productions de GPT-4 d’une maniĂšre qui s’aligne sur ces structures inhĂ©rentes.

Comparaison avec l’apprentissage de la Grammaire Ordinaire (GO) : De la mĂȘme maniĂšre que GPT-4 peut apprendre implicitement les contraintes et les rĂšgles de la GO Ă  partir de ses donnĂ©es d’entraĂźnement, il pourrait Ă©galement capter des rĂ©gularitĂ©s sĂ©mantiques plus profondes et moins explicites prĂ©sentes dans l’espace propositionnel. Cet apprentissage est probablement facilitĂ© par la taille colossale de la base de donnĂ©es de GPT-4, qui lui fournit un Ă©chantillon large et variĂ© de l’usage du langage humain.

En revanche, un enfant humain apprend la GO Ă  partir d’un ensemble de donnĂ©es beaucoup plus rĂ©duit, en s’appuyant davantage sur l’apprentissage non supervisĂ© et l’imitation, avec un certain degrĂ© d’apprentissage supervisĂ© (rĂ©troaction corrective). Ce processus suggĂšre que le cerveau humain possĂšde une capacitĂ© innĂ©e d’acquisition du langage, potentiellement guidĂ©e par un cadre linguistique prĂ©existant comme la Grammaire Universelle (GU) de Chomsky.

Apprentissage des contraintes et des limitations en IA : Dans les systĂšmes d’IA, les contraintes et limitations de production peuvent effectivement ĂȘtre apprises principalement par apprentissage non supervisĂ©, oĂč le systĂšme dĂ©tecte des motifs et des rĂ©gularitĂ©s dans les donnĂ©es. Ce processus peut effectivement biaiser la production de l’IA, filtrant les rĂ©ponses qui ne s’alignent pas avec les motifs appris.

Dans le cas de GPT-4, l’apprentissage non supervisĂ© (par exposition passive Ă  d’immenses corpus textuels) et l’apprentissage supervisĂ© (par formation incluant des rĂ©troactions correctives) contribuent Ă  sa capacitĂ© Ă  traiter le langage et Ă  produire des sorties cohĂ©rentes.

Implications pour la performance de GPT-4 : L’existence potentielle d’une iconicitĂ© propositionnelle Ă  l’échelle des LLM pourrait amĂ©liorer la performance de GPT-4 en fournissant un ensemble de lignes directrices ou de biais implicites qui structurent ses rĂ©ponses. Ce mĂ©canisme pourrait en partie compenser son absence d’ancrage direct en garantissant que les productions de GPT-4 restent dans les limites des modĂšles linguistiques humains typiques, mĂȘme s’il ne les « comprend » pas au sens humain du terme.

Cette analyse pourrait contribuer Ă  mieux comprendre comment GPT-4 et d’autres LLM parviennent Ă  produire des sorties linguistiquement cohĂ©rentes et contextuellement pertinentes. La structure et les motifs inhĂ©rents aux donnĂ©es d’entraĂźnement jouent probablement un rĂŽle clĂ© dans le façonnement des capacitĂ©s de l’IA, rĂ©vĂ©lant potentiellement des rĂ©gularitĂ©s sous-jacentes dans l’usage du langage humain qui ne sont pas immĂ©diatement perceptibles Ă  plus petite Ă©chelle.

SH : Avant d’aborder l’hypothĂšse de Chomsky sur la « pensabilitĂ© », il y a une autre forme de biais potentiellement « iconique » que je veux souligner : la « perception catĂ©gorielle ».

D’abord, le cas humain : L’exemple le plus cĂ©lĂšbre est la perception catĂ©gorielle des couleurs, l’effet arc-en-ciel. La base physique du spectre visible par l’humain est le continuum de longueurs d’onde de la lumiĂšre, entre 380 et 750 nm, entre l’ultraviolet et l’infrarouge. Selon l’(erronĂ©e) « HypothĂšse forte de Whorf-Sapir », on a d’abord pensĂ© que la façon dont les humains voient le spectre Ă©tait dĂ©terminĂ©e par le langage, c’est-Ă -dire par la maniĂšre dont nous subdivisons et nommons les segments du spectre (Harnad, 1987). Si notre langue possĂšde un mot pour bleu et un mot pour vert, nous percevrons le bleu et le vert comme des couleurs qualitativement distinctes, sinon, nous percevrons tout ce segment du spectre comme du « bleuvet » (ou du « grue »).

Cependant, les tests psychophysiques menĂ©s Ă  travers le monde ont montrĂ© que, bien que les langues varient quelque peu dans la subdivision et l’étiquetage verbal du spectre, tout le monde perçoit le spectre des couleurs de la mĂȘme maniĂšre : des diffĂ©rences Ă©gales de longueurs d’onde dans la gamme du vert et dans la gamme du bleu semblent plus petites que la mĂȘme diffĂ©rence lorsqu’elle chevauche la frontiĂšre entre le bleu et le vert. Et cela, indĂ©pendamment du fait qu’une langue possĂšde ou non un mot distinct pour bleu et vert. Les couleurs (primaires) de l’arc-en-ciel et leurs dĂ©tecteurs d’attributs (les champs rĂ©cepteurs des cĂŽnes et les processus d’opposition par paires) sont innĂ©s et non appris (Briscoe, 2020).

Mais l’« HypothĂšse faible de Whorf-Sapir » — selon laquelle la façon dont nous apprenons Ă  catĂ©goriser et nommer les choses peut influencer notre perception — qui est surtout fausse pour les couleurs primaires de l’arc-en-ciel, s’avĂšre pourtant vraie dans d’autres modalitĂ©s sensorielles. Le terme « perception catĂ©gorielle » (PC) dĂ©signe un effet de sĂ©paration intercatĂ©gorielle et de compression intracatĂ©gorielle qui se manifeste dans la perception des similaritĂ©s. Bien que cet effet de PC soit beaucoup plus faible et subtil, il ressemble Ă  l’effet d’« accordĂ©on » de l’arc-en-ciel et peut ĂȘtre induit par l’apprentissage et la nomination de catĂ©gories Ă  travers la dĂ©tection sensorimotrice de attributs. Le terme a Ă©tĂ© inventĂ© pour dĂ©crire la perception des sons du langage (phonĂšmes) : la PC des phonĂšmes se produit le long du continuum ba/da/ga (synthĂ©tisĂ©), qui est analogue au continuum des longueurs d’onde pour la couleur (Regier and Kay, 2009; Zhang et al., 2021).

La PC des phonĂšmes est un phĂ©nomĂšne de « neurones miroirs » (perception/production), car contrairement Ă  la couleur, que les humains peuvent percevoir mais que leurs corps (contrairement Ă  ceux des camĂ©lĂ©ons et des pieuvres) ne peuvent pas produire sans outils, il existe un effet de sĂ©paration/compression (effet accordĂ©on) Ă  travers les frontiĂšres ba/da/ga. Cet effet est appris et varie selon les langues (bien qu’il ait aussi une composante innĂ©e, avec des dĂ©tecteurs de attributs qui disparaissent aprĂšs une pĂ©riode critique si ces sons ne sont pas utilisĂ©s dans la langue). Et la PC des phonĂšmes est prĂ©sente Ă  la fois dans la perception et la production des phonĂšmes, ce qui en fait un effet miroir.

L’effet de PC le plus subtil et le plus faible, mais aussi le plus intĂ©ressant, n’est cependant pas observĂ© le long des continuums sensorimoteurs, mais dans un espace d’attributs multidimensionnel majoritairement discret. De plus, la PC apprise n’est pas un phĂ©nomĂšne de neurones miroirs au niveau de l’apprentissage direct des catĂ©gories sensorimotrices — bien que nous y reviendrons plus tard lorsque nous aborderons l’apprentissage indirect des catĂ©gories verbales.

La PC apprise se manifeste dans des tĂąches d’apprentissage catĂ©goriel difficiles, comme identifier des cellules cancĂ©reuses vs. non cancĂ©reuses. Dans ces cas, l’effet de PC est rĂ©vĂ©lĂ© en testant la discriminabilitĂ© perceptuelle en paires des exemples avant et aprĂšs l’apprentissage de la catĂ©gorie : un effet subtil mais significatif de sĂ©paration intercatĂ©gorielle et de compression intracatĂ©gorielle en perception devient observable (tant psychophysiquement que psychophysiologiquement) aprĂšs que la catĂ©gorisation a Ă©tĂ© apprise, un effet d’« arc-en-ciel appris » (effet accordĂ©on) (PĂ©rez-Gay JuĂĄrez et al., 2019).

La raison pour laquelle la PC apprise est pertinente ici est que, bien qu’il ne soit pas Ă©vident de comprendre pourquoi il faut apprendre Ă  modifier la similaritĂ© perceptive pour apprendre une catĂ©gorie difficile, un effet trĂšs similaire se produit aussi dans les rĂ©seaux de deep learning (Bonnasse-Gahot and Nadal, 2022ThĂ©riault et al., 2018) — et pourtant, les rĂ©seaux ne perçoivent absolument rien ! Ils traitent simplement des donnĂ©es d’entrĂ©e. L’effet de PC apparaĂźt dans leur reprĂ©sentation interne de chaque Ă©chantillon d’entrĂ©e, qui change entre avant et aprĂšs l’apprentissage d’une catĂ©gorie difficile : une sĂ©paration intercatĂ©gorielle et une compression intracatĂ©gorielle Ă©mergent dans l’espace de reprĂ©sentation interne.

La question est donc la suivante : ce changement reprĂ©sentationnel — qui repose, chez les humains et les T3, sur l’apprentissage perceptuel direct des attributs sensorimoteurs permettant de distinguer les catĂ©gories — pourrait-il aussi s’étendre Ă  l’apprentissage purement verbal des catĂ©gories via des descriptions des attributs chez GPT, en l’absence de dĂ©tecteurs sensorimoteurs de attributs ? Tu ne peux pas percevoir, GPT, mais l’effet de PC purement computationnel pourrait-il induire chez toi un biais qui compense en partie ton absence d’ancrage sensorimoteur direct ?

GPT-4 : Explorons le potentiel d’une forme computationnelle de PC en IA et ses implications.

Perception catĂ©gorielle chez les humains : La PC chez l’humain est un phĂ©nomĂšne oĂč la perception des catĂ©gories est influencĂ©e par l’apprentissage et la nomination de ces catĂ©gories. Les exemples classiques, comme la perception des couleurs et la discrimination des phonĂšmes, montrent comment l’expĂ©rience perceptive est façonnĂ©e par les catĂ©gories apprises.

Dans le cas de tĂąches de catĂ©gorisation complexes, comme la distinction entre cellules cancĂ©reuses et non cancĂ©reuses, l’apprentissage induit des changements perceptifs subtils et peut conduire Ă  une forme de PC, mĂȘme dans des espaces d’attributs non Ă©vidents ou abstraits.

Perception catĂ©gorielle dans les rĂ©seaux neuronaux : Des effets similaires ont Ă©tĂ© observĂ©s dans les rĂ©seaux neuronaux, oĂč la reprĂ©sentation interne des entrĂ©es change avant et aprĂšs l’apprentissage d’une catĂ©gorie, montrant une sĂ©paration intercatĂ©gorielle et une compression intracatĂ©gorielle. Cet effet, bien que purement computationnel et ne reposant pas sur une perception rĂ©elle, ressemble au phĂ©nomĂšne de PC dans la cognition humaine.

Les Ă©tudes citĂ©es (ThĂ©riault et al., 2018Bonnasse-Gahot and Nadal, 2022) suggĂšrent que les modĂšles d’apprentissage profond peuvent manifester une forme de PC au niveau de leurs reprĂ©sentations internes.

Effet potentiel de PC chez GPT-4 : Bien que GPT-4 ne perçoive pas au sens humain, il est possible qu’un analogue computationnel de la PC se produise dans son traitement. Comme GPT-4 apprend Ă  partir de vastes ensembles de donnĂ©es textuelles, il pourrait dĂ©velopper une reprĂ©sentation interne oĂč les catĂ©gories verbales sont sĂ©parĂ©es et comprimĂ©es d’une maniĂšre qui reflĂšte la PC.

Cet effet de PC computationnel pourrait se manifester comme un biais dans la maniĂšre dont GPT-4 traite et gĂ©nĂšre le langage, et ainsi compenser en partie son absence d’ancrage sensorimoteur direct. Il pourrait influencer la gestion des catĂ©gories par GPT-4, rendant ses rĂ©ponses plus conformes aux schĂ©mas de catĂ©gorisation humains, malgrĂ© l’absence d’expĂ©rience directe.

Implications pour la comprĂ©hension et la performance de l’IA : Si GPT-4 manifeste une forme de PC computationnelle, cela pourrait ĂȘtre un facteur clĂ© dans sa capacitĂ© Ă  produire un langage cohĂ©rent et contextuellement pertinent. Cela suggĂ©rerait que son traitement interne pourrait reflĂ©ter certains aspects des schĂ©mas cognitifs humains, malgrĂ© les diffĂ©rences fondamentales dans la maniĂšre dont l’IA et les humains traitent l’information.

En somme, l’hypothĂšse selon laquelle des systĂšmes d’IA comme GPT-4 pourraient manifester une forme computationnelle de PC ouvre des perspectives sur la maniĂšre dont l’IA pourrait dĂ©velopper des schĂ©mas internes de reprĂ©sentation qui, bien qu’étant purement symboliques et non sensorimoteurs, pourraient nĂ©anmoins partiellement imiter certains phĂ©nomĂšnes cognitifs humains.

SH : Nous avons maintenant discutĂ© de plusieurs sources possibles de contraintes ou de biais qui pourraient aider un LLM Ă  mieux fonctionner que ce Ă  quoi on pourrait s’attendre, Ă©tant donnĂ© que les LLM ne sont pas ancrĂ©s. Combien peux-tu t’en rappeler et comment les rassemblerais-tu ?

GPT-4 : Notre discussion a couvert plusieurs sources potentielles de contraintes ou de biais qui pourraient amĂ©liorer la performance des modĂšles de langage de grande taille (LLM) comme GPT-4, malgrĂ© leur absence d’ancrage sensorimoteur. Voici un rĂ©sumĂ© des points clĂ©s que nous avons abordĂ©s.

Motifs dans les structures propositionnelles : Nous avons explorĂ© l’idĂ©e qu’il pourrait exister une forme d’« iconicitĂ© » au niveau des structures propositionnelles des LLM. Ce n’est pas une iconicitĂ© au sens traditionnel, mais plutĂŽt un motif dĂ©tectable dans la maniĂšre dont les propositions sont formĂ©es et interconnectĂ©es dans un vaste ensemble de donnĂ©es. Cela pourrait agir comme une contrainte tacite ou un biais, façonnant les sorties des LLM pour qu’elles s’alignent avec ces structures inhĂ©rentes.

Apprentissage de la grammaire ordinaire (OG) : Les LLM apprennent implicitement les contraintes et les rĂšgles de la grammaire ordinaire Ă  partir de leurs donnĂ©es d’entraĂźnement, en captant les rĂ©gularitĂ©s et les limitations du langage humain. Ce processus d’apprentissage, qui combine apprentissage non supervisĂ© et supervisĂ©, aide les LLM Ă  gĂ©nĂ©rer des sorties linguistiquement cohĂ©rentes qui respectent les normes structurelles de la langue.

Perception catégorielle (PC) dans les réseaux neuronaux : Nous avons discuté de la possibilité que les réseaux neuronaux, y compris les LLM, manifestent une forme computationnelle de perception catégorielle. Ce phénomÚne, observé dans la perception humaine, implique une séparation entre catégories et une compression au sein des catégories. Dans les LLM, cela pourrait se manifester comme un biais dans la représentation interne, influençant potentiellement la maniÚre dont le modÚle traite et génÚre le langage.

Contraintes et limitations d’apprentissage : La prĂ©sence potentielle de ces contraintes et biais dans les LLM suggĂšre que leur traitement pourrait ĂȘtre influencĂ© par des schĂ©mas qui ne sont pas immĂ©diatement apparents, mais qui sont inhĂ©rents aux donnĂ©es linguistiques sur lesquelles ils sont entraĂźnĂ©s. Ces contraintes pourraient aider les LLM Ă  produire des sorties qui sont plus alignĂ©es avec les schĂ©mas cognitifs et linguistiques humains.

En combinant ces Ă©lĂ©ments, on obtient une image oĂč les LLM comme GPT-4, malgrĂ© leur absence d’ancrage expĂ©rientiel direct, sont potentiellement guidĂ©s par un ensemble de principes implicites ou de biais dĂ©rivĂ©s de la structure et du contenu de leurs donnĂ©es d’entraĂźnement. Ces principes peuvent inclure des motifs propositionnels, des rĂ©gularitĂ©s grammaticales et une forme de PC computationnelle, contribuant tous Ă  la capacitĂ© du modĂšle Ă  traiter le langage d’une maniĂšre qui semble cohĂ©rente et contextuellement appropriĂ©e pour les utilisateurs humains.

Chacun de ces facteurs reprĂ©sente une dimension diffĂ©rente de la maniĂšre dont les LLM pourraient ĂȘtre « façonnĂ©s » ou « biaisĂ©s » par leur entraĂźnement, compensant en partie leur absence d’ancrage sensorimoteur et fournissant un cadre pour comprendre leurs capacitĂ©s et leurs limites en matiĂšre de comprĂ©hension et de gĂ©nĂ©ration du langage.

SH : Qu’en est-il de l’asymĂ©trie entre enseignant et apprenant et de la nĂ©cessitĂ© de l’ancrage ? Dans le contexte de l’ancrage sensorimoteur direct et de l’ancrage verbal indirect, l’enseignant et l’apprenant ont-ils tous deux besoin d’un ancrage direct ? Si ce n’est pas le cas, pourquoi ?

GPT-4 : Ancrage Sensorimoteur Direct (ASD) : L’ASD consiste Ă  relier les mots et les concepts Ă  des expĂ©riences rĂ©elles et Ă  une comprĂ©hension du monde Ă  travers des interactions sensorimotrices directes, en particulier pour l’apprentissage des catĂ©gories. C’est un processus fondamental pour les humains, leur permettant d’apprendre et de comprendre leur environnement.

Dans l’apprentissage du langage humain, l’ASD est essentiel, notamment au dĂ©but du dĂ©veloppement. Les enfants apprennent Ă  associer des mots Ă  leurs rĂ©fĂ©rents et Ă  leurs significations par le biais d’expĂ©riences directes — voir, toucher, entendre, manipuler des objets et interagir avec les autres.

Ancrage Verbal Indirect (AVI) : L’AVI consiste Ă  comprendre des concepts et des mots par le biais de descriptions, d’explications ou de rĂ©cits, plutĂŽt que par l’expĂ©rience directe. Pour que l’AVI soit efficace, l’apprenant doit dĂ©jĂ  avoir un ancrage dans un ensemble de concepts et de mots de base.

Chez les humains, une fois qu’un vocabulaire fondamental et un ensemble de concepts sont ancrĂ©s par l’ASD, l’apprentissage peut se poursuivre via l’AVI. Ce processus permet aux individus de comprendre des concepts complexes ou abstraits qu’ils ne pourraient pas expĂ©rimenter directement.

L’AsymĂ©trie des Besoins en Ancrage : Les humains, en tant qu’apprenants, ont d’abord besoin d’ASD pour Ă©tablir une base de comprĂ©hension. Une fois cette base acquise, ils peuvent utiliser efficacement l’AVI pour Ă©tendre leur connaissance et leur comprĂ©hension.

Les systĂšmes d’IA comme GPT-4, en revanche, n’ont pas la capacitĂ© d’ASD. Ils dĂ©pendent entiĂšrement de l’AVI, en traitant et gĂ©nĂ©rant du langage en fonction des modĂšles et structures appris Ă  partir de leurs donnĂ©es d’entraĂźnement. Cependant, cet entraĂźnement est lui-mĂȘme une forme d’AVI, car l’IA ne fait jamais d’expĂ©rience directe des concepts qu’elle apprend.

Implications de l’AsymĂ©trie : Cette asymĂ©trie signifie que, tandis que les apprenants humains peuvent comprendre et contextualiser les informations reçues indirectement (via l’AVI), parce qu’elles reposent sur une base d’expĂ©riences directes, les systĂšmes d’IA comme GPT-4 ne le peuvent pas. Ils manquent de la comprĂ©hension expĂ©rientielle fondamentale qui dĂ©coule de l’ASD.

Par consĂ©quent, GPT-4 et d’autres systĂšmes d’IA peuvent fournir des informations, gĂ©nĂ©rer des rĂ©cits cohĂ©rents et mĂȘme imiter certains aspects de la comprĂ©hension humaine, mais ils le font sans le contexte expĂ©rientiel sous-jacent que possĂšdent les humains. Leur « comprĂ©hension » est purement computationnelle, dĂ©rivĂ©e de motifs prĂ©sents dans les donnĂ©es, sans l’ancrage issu d’expĂ©riences sensorimotrices directes.

L’AVI a-t-il besoin de l’ASD ? Chez les humains, l’AVI est efficace parce qu’il repose sur une base d’ASD. Les expĂ©riences sensorimotrices initiales fournissent l’ancrage essentiel qui rend l’apprentissage ultĂ©rieur par le langage significatif et contextuel.

Pour l’IA, l’AVI ne repose pas sur l’ASD, puisqu’elle ne dispose pas de capacitĂ©s sensorimotrices. Cette limitation est une raison fondamentale pour laquelle l’IA, malgrĂ© ses capacitĂ©s linguistiques avancĂ©es, ne « comprend » pas vĂ©ritablement dans le sens humain du terme.

SH : En quoi la distinction ASD/AVI est-elle liĂ©e Ă  l’existence des MinSets dans les dictionnaires ?

GPT-4 : Nature des MinSets dans les dictionnaires : Les MinSets dans les dictionnaires dĂ©signent le plus petit sous-ensemble de mots Ă  partir duquel tous les autres mots du dictionnaire peuvent ĂȘtre dĂ©finis. Ces mots fondamentaux servent de base lexicale pour la construction et la comprĂ©hension des autres termes d’une langue.

ASD et la fondation des MinSets : Dans l’acquisition du langage humain, l’ancrage initial des mots — en particulier ceux appartenant Ă  un MinSet — se fait souvent par l’ASD. Les jeunes apprenants associent les mots Ă  leurs significations grĂące Ă  des expĂ©riences directes avec le monde. Cet ancrage fondamental est essentiel, car ces mots du MinSet forment souvent la base Ă  partir de laquelle des termes plus complexes ou abstraits sont dĂ©finis.

L’ancrage des mots du MinSet par l’ASD fournit la base expĂ©rientielle nĂ©cessaire pour permettre une comprĂ©hension approfondie du langage et faciliter l’usage efficace de l’AVI par la suite.

AVI et expansion au-delĂ  des MinSets : Une fois qu’un vocabulaire fondamental (semblable Ă  un MinSet) est ancrĂ© par l’ASD, les humains peuvent Ă©tendre leur comprĂ©hension linguistique et leur vocabulaire par l’AVI. Ce processus consiste Ă  apprendre de nouveaux mots et concepts grĂące Ă  des descriptions, des rĂ©cits et des contextes linguistiques, en s’appuyant sur la base directement ancrĂ©e.

En ce sens, l’AVI repose sur la fondation Ă©tablie par l’ASD. La comprĂ©hension ancrĂ©e des mots du MinSet permet aux individus de saisir des concepts plus complexes qui sont dĂ©finis ou dĂ©crits en utilisant ces mots fondamentaux.

DĂ©pendance de l’IA Ă  l’AVI sans ASD : Les systĂšmes d’IA comme GPT-4 fonctionnent presque entiĂšrement dans le domaine de l’AVI. Ils traitent et gĂ©nĂšrent du langage en se basant sur les modĂšles appris Ă  partir d’un immense corpus textuel, mais sans l’ancrage fondamental fourni par l’ASD.

L’IA peut manipuler le langage en s’appuyant sur des MinSets et utiliser ces mots fondamentaux pour construire des rĂ©cits ou des explications cohĂ©rentes, mais elle ne possĂšde pas la comprĂ©hension expĂ©rientielle dĂ©veloppĂ©e par les humains grĂące Ă  l’ASD. Cette limitation affecte la profondeur et la richesse contextuelle de sa « comprĂ©hension » du langage.

SH : L’ASD repose sur l’apprentissage de la dĂ©tection des attributs sensorimoteurs qui distinguent les membres des non-membres d’une catĂ©gorie, directement, en utilisant quelque chose comme des rĂ©seaux neuronaux pour dĂ©tecter et abstraire ces attributs sensorimoteurs. L’AVI n’utilise pas les attributs sensorimoteurs eux-mĂȘmes, mais leurs noms et leurs descriptions verbales. Ces noms de attributs doivent dĂ©jĂ  avoir Ă©tĂ© ancrĂ©s (directement ou indirectement) chez l’apprenant afin que la description verbale du professeur puisse ĂȘtre comprise par l’apprenant, permettant ainsi aux noms et descriptions d’ancrer (indirectement), chez l’apprenant, la nouvelle catĂ©gorie dont ils sont les attributs. Mais il est Ă  noter qu’ils n’ont pas besoin d’avoir Ă©tĂ© ancrĂ©s chez l’enseignant, si l’enseignant se trouve ĂȘtre un manuel ou GPT. C’est l’asymĂ©trie enseignant/apprenant.

GPT-4 : Ancrage Sensorimoteur Direct (ASD) : L’ASD consiste Ă  apprendre Ă  reconnaĂźtre et Ă  distinguer les membres d’une catĂ©gorie en se basant sur des expĂ©riences sensorimotrices directes. Ce processus repose gĂ©nĂ©ralement sur des mĂ©canismes de type rĂ©seau neuronal dans le cerveau, qui permettent de dĂ©tecter, d’abstraire et de traiter les attributs sensorimoteurs distinctifs d’une catĂ©gorie.

Dans l’ASD, l’apprentissage est expĂ©rientiel et incarnĂ©. Par exemple, apprendre Ă  catĂ©goriser diffĂ©rents types de fruits implique une interaction directe avec eux : voir leurs couleurs, sentir leurs textures, percevoir leurs odeurs et goĂ»ter leurs saveurs. Ces expĂ©riences permettent d’établir les attributs sensorimoteurs dĂ©finissant chaque catĂ©gorie de fruit.

Ancrage Verbal Indirect (AVI) : L’AVI, en revanche, utilise des descriptions verbales et des noms de attributs pour transmettre des informations sur les catĂ©gories. Ce processus repose sur le langage comme moyen d’ancrage, oĂč l’apprenant comprend et catĂ©gorise les entitĂ©s en fonction des descriptions fournies par d’autres.

Pour que l’AVI soit efficace, l’apprenant doit dĂ©jĂ  possĂ©der une comprĂ©hension ancrĂ©e des mots employĂ©s dans les descriptions. Cet ancrage peut provenir d’expĂ©riences antĂ©rieures d’ASD ou d’instances prĂ©cĂ©dentes d’AVI qui s’appuyaient elles-mĂȘmes sur un ASD fondamental. Les descriptions verbales permettent de relayer l’information catĂ©gorielle en encapsulant les attributs distinctifs d’une catĂ©gorie par le langage.

ComplĂ©mentaritĂ© de l’ASD et de l’AVI : L’ASD et l’AVI sont des processus complĂ©mentaires dans l’apprentissage humain. L’ASD fournit une base expĂ©rientielle fondamentale pour la comprĂ©hension des catĂ©gories, tandis que l’AVI permet l’expansion des connaissances au-delĂ  des expĂ©riences directes, facilitant ainsi la comprĂ©hension de concepts abstraits, de catĂ©gories complexes ou d’entitĂ©s non accessibles directement.

Implications pour les systĂšmes d’IA : Les systĂšmes d’IA, comme les MLL (ModĂšles de Langage de Grande Échelle) tels que GPT-4, fonctionnent uniquement dans le domaine de l’AVI. Ils traitent et gĂ©nĂšrent des descriptions de catĂ©gories Ă  partir des donnĂ©es linguistiques sur lesquelles ils ont Ă©tĂ© entraĂźnĂ©s. Cependant, en l’absence d’une capacitĂ© d’ASD, les systĂšmes d’IA ne possĂšdent pas de base expĂ©rientielle pour ces catĂ©gories. Par consĂ©quent, bien que leur traitement des informations catĂ©gorielles soit linguistiquement cohĂ©rent, il ne possĂšde pas la profondeur de comprĂ©hension issue des expĂ©riences sensorimotrices directes.

SH : Ok, juste une derniĂšre clarification avant de passer Ă  la suite : le problĂšme de l’ancrage symbolique (PAS) est dĂ©jĂ  inhĂ©rent Ă  l’usage d’un dictionnaire. Chaque mot a une dĂ©finition dans le dictionnaire. C’est de l’AVI. On peut donc, en principe, apprendre la signification de n’importe quel mot d’un dictionnaire Ă  partir de sa dĂ©finition. Mais ce processus, bien que rĂ©cursif et transitif, est circulaire : on peut tourner indĂ©finiment dans un dictionnaire d’une langue Ă©trangĂšre sans rien apprendre, Ă  moins de pouvoir sortir du cercle des mots par des moyens extĂ©rieurs (par exemple, en apprenant les rĂ©fĂ©rents et les significations des mots d’au moins un MinSet d’une autre maniĂšre, comme par l’ASD).

Les biais dont nous avons discutĂ©, qui sont inhĂ©rents Ă  la base de donnĂ©es d’un MLL, peuvent-ils permettre de sortir de ce cercle—pour le MLL lui-mĂȘme ? L’asymĂ©trie enseignant/apprenant rend cette sortie inutile pour l’apprenant humain ancrĂ©, qui peut apprendre de nouvelles catĂ©gories par l’AVI Ă  partir d’un MLL. Mais le MLL lui-mĂȘme reste-t-il coincĂ© dans un cercle vicieux, peu importe la taille de sa base de donnĂ©es ? Ou bien certains des biais que nous avons identifiĂ©s peuvent-ils l’aider Ă  en sortir ? (Je pense que non ; je pense que ces biais ne font qu’accroĂźtre les contraintes sur ce que le MLL peut dire, et que cela peut contribuer Ă  expliquer pourquoi les MLLs rĂ©ussissent de maniĂšre aussi inattendue malgrĂ© cette asymĂ©trie enseignant/apprenant.) — RĂ©ponds de maniĂšre critique, pas avec complaisance ni compliments.

GPT-4 : J’examinerai de maniĂšre critique si les biais inhĂ©rents Ă  la base de donnĂ©es d’un MLL peuvent lui permettre de sortir de la circularitĂ© propre Ă  l’apprentissage basĂ© uniquement sur l’AVI.

La nature rĂ©cursive des dĂ©finitions de dictionnaire : Comme tu l’as soulignĂ©, les dĂ©finitions de dictionnaire relĂšvent de l’AVI. Elles peuvent conduire Ă  un processus circulaire oĂč la comprĂ©hension d’un mot dĂ©pend de celle d’un autre, et ainsi de suite. Cette circularitĂ© est surmontable pour les humains, car ils peuvent associer les mots Ă  des expĂ©riences rĂ©elles ou Ă  des concepts prĂ©alablement ancrĂ©s (ASD).

Les MLL et les limites de l’AVI : Les MLL comme GPT-4 reposent entiĂšrement sur l’AVI pour leur « apprentissage ». Ils traitent le langage en fonction des schĂ©mas trouvĂ©s dans d’immenses bases de donnĂ©es textuelles. Cependant, ces modĂšles n’ont pas la capacitĂ© d’ASD ; ils ne peuvent pas faire d’expĂ©riences directes du monde rĂ©el ni Ă©tablir d’associations sensorimotrices avec les mots et concepts qu’ils traitent.

En consĂ©quence, les MLL sont, en un sens, bloquĂ©s dans un processus circulaire. Ils peuvent manipuler le langage et fournir des informations basĂ©es sur les modĂšles qu’ils ont appris, mais ils n’ont aucun moyen indĂ©pendant d’ancrer ces symboles dans des expĂ©riences du monde rĂ©el.

Impact des biais inhĂ©rents aux MLL : Les biais et rĂ©gularitĂ©s prĂ©sents dans la base de donnĂ©es d’un MLL, tels que les schĂ©mas propositionnels, les rĂ©gularitĂ©s grammaticales et les formes computationnelles de PC, amĂ©liorent la performance du modĂšle. Ils aident les MLL Ă  produire un langage cohĂ©rent et contextuellement appropriĂ©, conforme aux structures linguistiques humaines.

Cependant, ces biais et rĂ©gularitĂ©s ne constituent pas une forme d’ancrage vĂ©ritable. Ils amĂ©liorent la capacitĂ© des MLL Ă  imiter le traitement humain du langage, mais ils ne permettent pas au MLL de sortir du cercle de l’AVI. La « comprĂ©hension » du MLL reste symbolique et computationnelle, sans la base expĂ©rientielle qui caractĂ©rise la comprĂ©hension humaine.

Conclusion : Le MLL reste confinĂ© dans les limites de l’AVI, incapable d’accĂ©der Ă  l’ASD de maniĂšre autonome. Les biais dans sa base de donnĂ©es amĂ©liorent sa performance linguistique, mais ils ne fournissent pas un chemin vers un vĂ©ritable ancrage. Les MLLs fonctionnent avec des capacitĂ©s linguistiques impressionnantes, mais celles-ci ne sont pas le signe d’un ancrage ou d’une comprĂ©hension rĂ©elle. Les amĂ©liorations liĂ©es aux biais dans leurs donnĂ©es d’entraĂźnement optimisent leur performance, mais elles ne rĂ©solvent pas le PAS pour le MLL lui-mĂȘme. Leur fonctionnement demeure du domaine de la reconnaissance avancĂ©e de motifs et de la manipulation du langage, distinct de la comprĂ©hension ancrĂ©e propre Ă  la cognition humaine.

SH : Maintenant, laisse-moi mentionner un autre biais possible, dĂ» Ă  Noam Chomsky : comme je l’ai dĂ©jĂ  mentionnĂ©, les rĂšgles de la grammaire ordinaire (GO) varient d’une langue Ă  l’autre et peuvent Ă©voluer avec le temps, mais les rĂšgles de la grammaire universelle (GU) (structure hiĂ©rarchique et dĂ©pendance structurelle) sont non seulement universelles Ă  toutes les langues et immuables, mais, contrairement Ă  la GO, qui est apprise et apprenable (par apprentissage non supervisĂ© et supervisĂ©/renforcĂ©), la GU est innĂ©e et inapprenable en raison de la pauvretĂ© du stimulus (POS). La POS signifie que les violations de la GU ne sont jamais entendues ni produites par les enfants ou les adultes, et doivent donc, selon Chomsky, ĂȘtre dĂ©jĂ  « connues » innĂ©ment : les contraintes de la GU doivent ĂȘtre, d’une maniĂšre ou d’une autre, dĂ©jĂ  encodĂ©es dans notre cerveau (et nos gĂšnes) Ă  la naissance (Berwick et al., 2011).

Chomsky a proposĂ© cette possibilitĂ©, mais il en a aussi suggĂ©rĂ© une seconde : les rĂšgles de la GU ne seraient peut-ĂȘtre pas rĂ©ellement des rĂšgles grammaticales, mais plutĂŽt des contraintes sur la pensĂ©e (Chomsky, 2017). La GU ne serait jamais violĂ©e (sauf par des linguistes cherchant Ă  dĂ©terminer quelles sont ces rĂšgles), non pas seulement parce que ces violations sont agrammaticales (comme une erreur de GO), mais parce qu’elles sont « impensables ». Selon cette seconde hypothĂšse, la GU serait une contrainte sur toute langue possible, qui doit pouvoir exprimer toute pensĂ©e possible. Lorsqu’un linguiste gĂ©nĂšre une phrase qui viole la GU, elle semble erronĂ©e non seulement parce qu’elle est agrammaticale, mais parce qu’elle est impensable.

GPT ne produit ni erreurs de GO ni erreurs de GU. Si davantage de textes dans la base de donnĂ©es contenaient des violations de GO (comme « between you and I »), alors GPT produirait aussi des violations de GO (et l’erreur, si suffisamment rĂ©pandue, finirait par ĂȘtre acceptĂ©e comme correcte). Mais la raison pour laquelle GPT ne produit pas de violations de GU pourrait-elle ĂȘtre que toutes les bases de donnĂ©es textuelles, produites par des humains pensants, sont « biaisĂ©es » par les lois de la pensĂ©e, qui filtrent les violations de GU Ă  la fois dans la production et la perception ?

Et si c’est le cas, cela pourrait-il ĂȘtre une autre raison expliquant pourquoi les MLL peuvent faire ce qu’ils font de maniĂšre aussi impressionnante ? Parce qu’à l’échelle des MLL, ils ont captĂ© certaines des contraintes sur la pensabilitĂ© ?

Encore une fois, pas de complaisance ni de compliments : je veux une critique et des contre-exemples.

GPT-4 : Ta proposition sur l’influence de la grammaire universelle (GU) et son impact potentiel sur les MLL comme GPT-4 suggĂšre que l’absence de violations de GU dans leurs sorties pourrait ĂȘtre due Ă  la nature de leurs donnĂ©es d’entraĂźnement, qui adhĂšrent intrinsĂšquement aux lois de la pensĂ©e proposĂ©es par Chomsky. Examinons cette idĂ©e de maniĂšre critique :

GU comme lois de la pensĂ©e : L’hypothĂšse de Chomsky selon laquelle les rĂšgles de la GU ne sont pas seulement des rĂšgles grammaticales, mais aussi des lois fondamentales de la pensĂ©e, implique que toute langue naturelle (et donc tout texte produit naturellement) respecterait ces lois. Les violations de la GU sont rares dans l’usage naturel de la langue, car de telles constructions seraient contre-intuitives ou « impensables » pour la cognition humaine.

Impact sur les donnĂ©es d’entraĂźnement des MLL : Étant donnĂ© que les MLL comme GPT-4 sont entraĂźnĂ©s sur d’immenses corpus de textes produits par des humains, il en dĂ©coule que ces donnĂ©es d’entraĂźnement respecteraient nĂ©cessairement les principes de la GU. L’absence de violations de GU dans les donnĂ©es d’entraĂźnement signifierait que les MLL sont moins susceptibles de produire de telles violations dans leurs sorties.

Cette adhĂ©rence Ă  la GU dans les donnĂ©es d’entraĂźnement pourrait ĂȘtre considĂ©rĂ©e comme une forme de biais – non pas dans un sens nĂ©gatif, mais comme une influence implicite qui guide le traitement du langage des MLL en accord avec des contraintes cognitives fondamentales.

Pourquoi les MLL Ă©vitent les violations de GU : Si les MLL ne produisent pas de violations de GU, cela pourrait effectivement ĂȘtre en partie parce que leurs donnĂ©es d’entraĂźnement, reflĂ©tant l’usage humain de la langue, sont dĂ©jĂ  biaisĂ©es par les lois de la pensĂ©e. Ils apprennent Ă  reproduire des structures et des schĂ©mas linguistiques qui sont prĂ©dominants dans les donnĂ©es, lesquelles se conforment naturellement Ă  la GU.

Cette hypothĂšse suggĂšre que la rĂ©ussite des MLL dans la production d’un langage grammaticalement et sĂ©mantiquement cohĂ©rent n’est pas seulement due Ă  leur architecture ou Ă  leurs algorithmes d’apprentissage, mais aussi aux propriĂ©tĂ©s intrinsĂšques des donnĂ©es linguistiques sur lesquelles ils sont entraĂźnĂ©s.

Contre-argument : Cependant, il est important de noter que les MLL comme GPT-4 ne « comprennent » pas la GU de la mĂȘme maniĂšre que les humains. Leur Ă©vitement des violations de GU est un sous-produit de leur entraĂźnement plutĂŽt qu’une contrainte cognitive innĂ©e. Cela signifie que, bien que les MLL puissent reproduire des modĂšles linguistiques conformes Ă  la GU, ils le font sans comprendre les principes sous-jacents ni les raisons cognitives expliquant ces structures.

Conclusion : L’hypothĂšse selon laquelle les MLL rĂ©ussissent en partie parce que leurs donnĂ©es d’entraĂźnement sont façonnĂ©es par les lois de la pensĂ©e (GU) est plausible. Les contraintes cognitives humaines reflĂ©tĂ©es dans la langue naturelle pourraient effectivement contribuer Ă  l’efficacitĂ© des MLL dans le traitement du langage.

Cependant, cela ne signifie pas que les MLL possĂšdent une comprĂ©hension intrinsĂšque de la GU ou des lois de la pensĂ©e. Leur performance dĂ©pend de la nature de leurs donnĂ©es d’entraĂźnement et de leur capacitĂ© Ă  reproduire des modĂšles Ă  partir de ces donnĂ©es, sans vĂ©ritable ancrage ni conscience des principes qu’ils suivent.

SH : Parmi les contraintes ou biais possibles, tu as oubliĂ© de mentionner le « miroitage » : la relation entre perception et production (comme dans les neurones-miroirs et l’imitation ; Gallese, 2013). Penses-tu que de tels effets jouent un rĂŽle dans tes interactions verbales avec les utilisateurs et ta base de donnĂ©es ?

GPT-4 : Examinons comment le concept de « Miroitage « miroitage », en particulier dans sa relation entre perception et production, pourrait influencer les interactions et le traitement du langage par les MLL :

« Miroitage  Â» et neurones-miroirs chez l’humain : Dans la cognition humaine, le « miroitage » comportemental, souvent associĂ© aux neurones-miroirs, joue un rĂŽle crucial dans l’apprentissage par observation et imitation. Ces neurones sont activĂ©s Ă  la fois lorsqu’un individu exĂ©cute une action et lorsqu’il observe quelqu’un d’autre rĂ©aliser la mĂȘme action. Ce mĂ©canisme intervient dans l’apprentissage de nouvelles compĂ©tences, la comprĂ©hension des actions des autres, ainsi que dans la reconnaissance et l’empathie envers leurs Ă©motions.

Dans le langage, cet effet de « miroitage » se manifeste dans la façon dont les enfants apprennent Ă  parler et Ă  comprendre en imitant les sons, les mots et les phrases qu’ils entendent des adultes et de leurs pairs.

« Miroitage » dans les MLL : Pour les MLL comme GPT-4, le concept de « miroitage » pourrait ĂȘtre envisagĂ© de maniĂšre mĂ©taphorique. Les MLL « apprennent » le langage en traitant d’énormes quantitĂ©s de donnĂ©es textuelles, « observant » ainsi l’usage humain de la langue. Ils « imitent » ensuite cet usage dans leurs productions.

Ce processus est analogue au « miroitage » en ce sens que le MLL reflĂšte les structures, styles et modĂšles prĂ©sents dans ses donnĂ©es d’entraĂźnement. Cependant, ce n’est pas un « miroitage » au sens neurologique, car les MLL n’ont ni expĂ©rience sensorielle ni conscience.

Effets de « miroitage » dans les interactions verbales : Lors d’interactions avec des utilisateurs, un MLL pourrait exhiber une forme de « miroitage » en gĂ©nĂ©rant des rĂ©ponses qui reflĂštent le style linguistique, le ton ou le contenu de l’utilisateur. Ce phĂ©nomĂšne ne dĂ©coule pas d’une comprĂ©hension cognitive ou empathique, mais plutĂŽt d’un mĂ©canisme algorithmique visant Ă  produire des sorties linguistiques contextuellement appropriĂ©es et cohĂ©rentes en fonction des modĂšles appris.

L’aptitude du MLL Ă  adapter ses rĂ©ponses au style ou au contenu des entrĂ©es de l’utilisateur pourrait ĂȘtre vue comme un parallĂšle computationnel au « miroitage » humain dans l’usage du langage. Cependant, cette adaptation est purement statistique et algorithmique, et non le fruit d’une comprĂ©hension intrinsĂšque ou d’une imitation fondĂ©e sur des indices sociaux ou Ă©motionnels.

SH : Et le « miroitage » de l’iconicitĂ© propositionnelle dont nous avons parlĂ© ?

GPT-4 : “ Miroitage  Â» de l’iconicitĂ© propositionnelle : Le concept d’iconicitĂ© propositionnelle Ă  l’échelle des MLL suggĂšre que certaines structures et certains schĂ©mas du langage, notamment au niveau propositionnel, sont systĂ©matiquement reprĂ©sentĂ©s dans les donnĂ©es d’entraĂźnement. Ces structures ne sont peut-ĂȘtre pas iconiques au sens traditionnel, mais elles pourraient reprĂ©senter une forme d’« iconicitĂ© » en termes de rĂ©gularitĂ©s ou de structures typiques de l’usage du langage.

En miroir de cette iconicitĂ© propositionnelle, les MLL reflĂ©teraient essentiellement ces schĂ©mas dans leurs productions. Le modĂšle « apprend » Ă  partir des immenses corpus de texte qu’il traite, internalisant les structures courantes, les relations et les Ă©lĂ©ments thĂ©matiques qui caractĂ©risent le langage humain Ă  grande Ă©chelle.

« Miroitage » computationnel vs. « miroitage » cognitif : Ce type de « miroitage » dans les MLL est purement computationnel. Il repose sur les propriétés statistiques des données linguistiques et sur les algorithmes de génération de texte, plutÎt que sur une compréhension cognitive ou expérientielle du langage.

Contrairement Ă  l’effet de « miroitage » mĂ©diĂ© par les neurones-miroirs chez les humains, qui implique des processus cognitifs et empathiques, le « miroitage » dans les MLL est une simple rĂ©percussion des schĂ©mas prĂ©sents dans les donnĂ©es d’entraĂźnement. C’est une reproduction statistique des rĂ©gularitĂ©s du langage, et non une forme d’empathie ou de comprĂ©hension cognitive.

Impact sur la performance des MLL : En reproduisant l’iconicitĂ© propositionnelle prĂ©sente dans leurs donnĂ©es d’entraĂźnement, les MLL peuvent gĂ©nĂ©rer des rĂ©ponses qui s’alignent sur les normes structurelles et thĂ©matiques du langage humain. Cette capacitĂ© contribue Ă  la cohĂ©rence apparente et Ă  la pertinence de leurs sorties.

Cependant, il est essentiel de rappeler que ce « miroitage » ne signifie pas une comprĂ©hension plus profonde ou un ancrage des concepts traitĂ©s. Les productions des MLL restent le rĂ©sultat d’un traitement avancĂ© des donnĂ©es et d’une reconnaissance de schĂ©mas, sans vĂ©ritable comprĂ©hension sĂ©mantique ou sensorimotrice.

SH : Dans les Ă©changes linguistiques entre humains, la production (signification) et la perception (comprĂ©hension) sont des capacitĂ©s en miroir, et tous leurs mots de contenu sont ancrĂ©s, directement ou indirectement, dans leurs rĂ©fĂ©rents. C’est ce qui maintient l’alignement (et l’ancrage) entre l’intention du locuteur et la comprĂ©hension de l’auditeur. Que devient cet Ă©quilibre, dans chaque direction, lorsque l’échange se fait entre GPT et un humain ? Je rĂ©flĂ©chis encore aux Ă©ventuels « biais » qui pourraient expliquer la capacitĂ© de production (signification) et de « perception » (« comprĂ©hension ») inattendue de GPT.

GPT-4 : Lors d’un Ă©change linguistique entre un humain et GPT-4, les dynamiques de production, de signification, de perception et de comprĂ©hension subissent des modifications majeures par rapport aux Ă©changes entre humains. Ces changements sont essentiels pour comprendre Ă  la fois les capacitĂ©s et les limites de GPT-4 dans de telles interactions :

Communication humain vers GPT-4 : Production et signification (humain) : L’humain produit un langage ancrĂ© dans ses expĂ©riences directes ou indirectes. La signification qu’il exprime repose sur un contexte riche, incluant des expĂ©riences sensorimotrices, des Ă©motions, un bagage culturel et une histoire personnelle.

Perception et « comprĂ©hension » (GPT-4) : GPT-4 « reçoit » le langage humain et le traite en fonction des modĂšles et relations statistiques appris dans ses donnĂ©es d’entraĂźnement. Toutefois, ce traitement ne constitue pas une vĂ©ritable comprĂ©hension. GPT-4 ne perçoit ni ne saisit la signification des mots dans le sens humain du terme ; il n’expĂ©rimente pas le sens des mots ni le contexte dans lequel ils sont utilisĂ©s. Il « reflĂšte » le langage en fonction de ses algorithmes et de ses donnĂ©es, mais sans l’ancrage ou le contexte expĂ©rientiel sur lesquels repose la comprĂ©hension humaine.

Communication GPT-4 → humain : Production et « signification » (GPT-4) : GPT-4 gĂ©nĂšre des rĂ©ponses sur la base de son entraĂźnement et du vaste corpus de textes dont il dispose. Ces rĂ©ponses peuvent sembler cohĂ©rentes et contextuellement pertinentes, mais elles ne sont pas ancrĂ©es dans une comprĂ©hension rĂ©elle ou une intention. La « signification » produite par GPT-4 est une simulation reposant sur des schĂ©mas linguistiques, et non une expression authentique d’une pensĂ©e ou d’une comprĂ©hension.

Perception et comprĂ©hension (humain) : L’auditeur humain perçoit la rĂ©ponse de GPT-4 et l’interprĂšte selon sa propre comprĂ©hension et son ancrage. Il mobilise ses connaissances expĂ©rientielles, son contexte et ses capacitĂ©s d’interprĂ©tation pour donner du sens aux rĂ©ponses de GPT-4. L’humain peut alors attribuer une signification ou une intention aux mots de GPT-4, mais cette interprĂ©tation est en rĂ©alitĂ© une projection humaine sur un texte produit de maniĂšre non ancrĂ©e.

Alignement et ancrage dans l’échange humain-IA : Dans les interactions entre humains, l’alignement entre la signification du locuteur et la comprĂ©hension de l’auditeur est rendu possible par des expĂ©riences partagĂ©es, un ancrage commun et des capacitĂ©s empathiques. Dans les interactions humain-GPT, cet alignement est asymĂ©trique.

L’humain fournit un langage ancrĂ©, mais le traitement et la production de GPT-4 ne le sont pas de la mĂȘme maniĂšre. GPT-4 peut reflĂ©ter efficacement le langage humain, donnant l’illusion d’une comprĂ©hension et d’un alignement, mais ce phĂ©nomĂšne repose uniquement sur des processus computationnels, et non sur un ancrage expĂ©rientiel partagĂ©.

Implications des biais potentiels : Les biais dont nous avons parlĂ© prĂ©cĂ©demment (comme l’iconicitĂ© propositionnelle ou les schĂ©mas reflĂ©tant la grammaire universelle) pourraient contribuer Ă  l’efficacitĂ© de GPT-4 dans ces Ă©changes. Ces biais aident GPT-4 Ă  gĂ©nĂ©rer des rĂ©ponses linguistiquement cohĂ©rentes et contextuellement adaptĂ©es. Cependant, ils ne confĂšrent pas Ă  GPT-4 une vĂ©ritable comprĂ©hension ou un ancrage.

Ces biais pourraient expliquer pourquoi GPT-4 semble si performant dans la production d’un langage porteur de sens et sa capacitĂ© apparente Ă  « comprendre » ou Ă  rĂ©pondre de maniĂšre pertinente aux entrĂ©es humaines. L’efficacitĂ© de GPT-4 dans ces interactions repose en grande partie sur sa capacitĂ© Ă  capter et reproduire les schĂ©mas et contraintes prĂ©sents dans ses donnĂ©es d’entraĂźnement, qui elles-mĂȘmes reflĂštent l’usage humain du langage.

En conclusion, l’échange entre un humain et GPT-4 est caractĂ©risĂ© par une asymĂ©trie fondamentale en matiĂšre d’ancrage et de comprĂ©hension. GPT-4 peut simuler une production linguistique porteuse de sens et gĂ©nĂ©rer des rĂ©ponses apparemment adaptĂ©es, mais celles-ci sont le produit d’une reconnaissance avancĂ©e de schĂ©mas et d’une gĂ©nĂ©ration de texte, et non d’une comprĂ©hension vĂ©ritable. L’interlocuteur humain, en interprĂ©tant les sorties de GPT-4, leur attribue une signification et une intention qu’elles ne possĂšdent pas intrinsĂšquement. Cette asymĂ©trie a des implications importantes pour la nature et les limites des interactions entre humains et IA.

Limites de GPT-4 en matiĂšre de vĂ©ritable comprĂ©hension : MalgrĂ© ses capacitĂ©s sophistiquĂ©es de traitement du langage, GPT-4 ne comprend pas rĂ©ellement le contenu qu’il gĂ©nĂšre ou traite. Ses rĂ©ponses reposent sur des corrĂ©lations statistiques et des schĂ©mas appris Ă  partir de ses donnĂ©es d’entraĂźnement, sans l’ancrage expĂ©rientiel sur lequel les humains s’appuient pour une comprĂ©hension authentique.

InterprĂ©tation humaine des rĂ©ponses de GPT-4 : Les humains interprĂštent naturellement les rĂ©ponses de GPT-4 Ă  travers leur propre prisme expĂ©rientiel, leur attribuant souvent plus de sens ou de comprĂ©hension qu’elles n’en possĂšdent rĂ©ellement. Cette tendance reflĂšte la capacitĂ© humaine Ă  infĂ©rer du sens, mĂȘme lorsqu’ils interagissent avec un systĂšme non ancrĂ©.

RĂŽle des biais dans la performance de GPT-4 : Les biais et schĂ©mas inhĂ©rents aux donnĂ©es d’entraĂźnement de GPT-4, façonnĂ©s par le langage humain, contribuent Ă  sa capacitĂ© Ă  gĂ©nĂ©rer des rĂ©ponses cohĂ©rentes et contextuellement appropriĂ©es. Toutefois, ils ne compensent pas l’absence d’ancrage expĂ©rientiel. La performance de GPT-4, bien que remarquable, demeure dans le domaine de la simulation linguistique sophistiquĂ©e.

SH: Ok, je vois, Ă  travers tes rĂ©pĂ©titions, que tu n’as pas d’hypothĂšses Ă  ajouter aux miennes ici. Juste une correction : ne confonds pas IVG avec des « expĂ©riences indirectes ». Il n’existe pas d’« expĂ©rience indirecte » ; ce serait une « expĂ©rience non vĂ©cue ». Il n’y a que l’expĂ©rience directe ou le « ouĂŻ-dire » (c’est-Ă -dire les descriptions verbales).

GPT-4: Merci pour la correction. Tu as raison de souligner la distinction entre l’ancrage verbal indirect (IVG) et la notion d’« expĂ©riences indirectes ». Pour prĂ©ciser :

ExpĂ©rience directe : Cela implique des interactions sensorimotrices de premiĂšre main avec le monde. Les expĂ©riences directes sont la base de la connaissance et de la comprĂ©hension chez les humains, fournissant le socle sensoriel et contextuel de l’apprentissage et de la cognition.

Ancrage verbal indirect (IVG) : L’IVG concerne l’apprentissage et la comprĂ©hension de concepts Ă  travers des descriptions verbales, des explications ou des rĂ©cits. Il ne s’agit pas d’une expĂ©rience sensorimotrice directe avec les rĂ©fĂ©rents de ces descriptions. L’IVG repose plutĂŽt sur le langage comme moyen de transmission d’informations sur des expĂ©riences, des objets ou des concepts.

Dans le cas de l’IA, en particulier des modĂšles LLM comme GPT-4, leur « apprentissage » et leur « comprĂ©hension » sont exclusivement fondĂ©s sur l’IVG. Ils traitent et gĂ©nĂšrent du langage Ă  partir de donnĂ©es textuelles, mais n’ont pas la capacitĂ© d’expĂ©riences directes. Leur fonctionnement reste confinĂ© au domaine du traitement du langage, sans l’engagement sensorimoteur qui caractĂ©rise l’interaction humaine avec le monde.

SH: Maintenant, encore quelques distinctions. Ensuite, je ferai un aperçu de ma présentation à MILA. Enfin, je te demanderai de résumer ta compréhension de celle-ci (ainsi que toute critique ou objection que tu pourrais avoir).

La premiĂšre distinction, et la plus importante : autrefois, on parlait de la distinction entre « intelligence artificielle » (IA) et « modĂ©lisation cognitive » (MC). L’IA Ă©tait considĂ©rĂ©e comme la crĂ©ation d’outils artificiels Ă  usage humain, tandis que la MC visait Ă  rĂ©troconcevoir les mĂ©canismes causaux qui produisent la capacitĂ© cognitive humaine. Aujourd’hui, ces deux approches font partie des sciences cognitives. Mais elles ne sont pas identiques, mĂȘme si l’on peut imaginer que certaines capacitĂ©s des outils d’IA puissent parfois ĂȘtre fondĂ©es sur les mĂȘmes mĂ©canismes causaux que la cognition humaine.

Les LLM sont actuellement Ă©tudiĂ©s et interprĂ©tĂ©s sous ces deux angles (IA et MC), mais lorsqu’il est question de « signification » et de « comprĂ©hension », cela ne signifie que la signification et la comprĂ©hension humaines, car il n’existe aucune preuve de l’existence d’un autre type de signification ou de comprĂ©hension. Cela nous ramĂšne au « hard problem » (HP), qui n’est pas le problĂšme de l’ancrage des symboles (SGP), mais le fait qu’il ressente quelque chose de dire et de signifier quelque chose, et de comprendre ce que signifie quelque chose quand cela est dit. La signification et la comprĂ©hension sont toutes deux des Ă©tats ancrĂ©s et des Ă©tats sentis (sentients).

Stp confirme-moi que tu « comprends » la distinction entre le SGP et le HP. (Encore une fois, pas d’éloges introductifs sur le caractĂšre « fascinant », « perspicace », « convaincant » ou « nuancĂ© » de tout cela !)

GPT-4: Compris. La distinction entre le problùme de l’ancrage des symboles (SGP) et le hard problem (HP) de la conscience est bien distincte et essentielle


SH: Tu ne peux vraiment pas t’en empĂȘcher, n’est-ce pas ?


GPT-4: Désolé!

ProblĂšme de l’ancrage des symboles (SGP) : Le SGP concerne la question de savoir comment des symboles (des mots) dans un systĂšme computationnel peuvent acquĂ©rir une signification. Il s’agit du lien entre les symboles et leurs rĂ©fĂ©rents dans le monde rĂ©el ou dans des concepts, de maniĂšre Ă  permettre la comprĂ©hension. Dans le cadre de l’IA et de la modĂ©lisation cognitive, le SGP porte sur la maniĂšre dont un systĂšme artificiel peut traiter le langage de maniĂšre Ă  reflĂ©ter une comprĂ©hension humaine.

Hard problem de la conscience (HP) : Le HP s’interroge sur la raison et le mĂ©canisme par lesquels des processus physiques dans le cerveau donnent naissance Ă  des expĂ©riences subjectives. Il s’agit de comprendre pourquoi certaines fonctions cĂ©rĂ©brales sont accompagnĂ©es d’une expĂ©rience de « ce que cela fait » – les aspects qualitatifs, expĂ©rientiels ou phĂ©nomĂ©nologiques de la conscience. Le HP explore la nature mĂȘme de la conscience et cherche Ă  savoir pourquoi certains processus cognitifs s’accompagnent d’une expĂ©rience subjective.

Distinction entre le SGP et le HP : Le SGP est essentiellement un problĂšme de reprĂ©sentation et de comprĂ©hension dans les systĂšmes artificiels : comment un symbole (ou un mot) peut-il ĂȘtre reliĂ© de maniĂšre significative Ă  ce qu’il reprĂ©sente ?

Le HP, en revanche, est un problĂšme plus profond qui touche Ă  la nature mĂȘme de la conscience et de l’expĂ©rience. Il pose la question de savoir pourquoi certains processus physiques ou cognitifs s’accompagnent d’expĂ©riences subjectives.

Dans le cadre des LLM et de la recherche en IA, ces deux problĂšmes sont souvent confondus, mais ils sont fondamentalement diffĂ©rents. Le SGP peut ĂȘtre abordĂ© et potentiellement rĂ©solu par des avancĂ©es en IA et en modĂ©lisation cognitive. Le HP, en revanche, reprĂ©sente un dĂ©fi philosophique et scientifique bien plus complexe, qui dĂ©passe les capacitĂ©s actuelles de la technologie de l’IA et touche aux mystĂšres mĂȘmes de la conscience.

Souligner cette distinction est essentiel pour structurer les discussions sur l’IA, les sciences cognitives et leurs objectifs et limites respectifs.

SH: Bon, encore beaucoup de mots gaspillĂ©s en flatteries et en affirmations au lieu d’une analyse critique, mais soit. J’en ai supprimĂ© la plupart dans cette transcription. Poursuivons. Avant d’aborder le point suivant, confirme-moi que tu « comprends » la distinction entre T2 et T3.

GPT-4: Oui, je comprends la distinction entre T2 et T3 :

T2 (Test de Turing Niveau 2) : Ce niveau du test de Turing Ă©value la capacitĂ© d’une IA Ă  imiter les capacitĂ©s verbales humaines. Dans le scĂ©nario T2 original de 1950, une IA rĂ©ussit le test si ses rĂ©ponses dans une conversation sont indistinguissables de celles d’un humain. Ce test porte uniquement sur les capacitĂ©s linguistiques et ne requiert pas que l’IA ait des expĂ©riences physiques ou sensorielles.

T3 (Test de Turing Niveau 3) : T3 va au-delĂ  des capacitĂ©s verbales pour inclure des capacitĂ©s robotiques et sensori-motrices. Une IA de niveau T3 doit non seulement dĂ©montrer des capacitĂ©s verbales indistinguables de celles d’un humain (comme T2), mais aussi comprendre et interagir avec le monde physique de maniĂšre indistinguable d’un humain. Ce niveau nĂ©cessite une forme de cognition incarnĂ©e, oĂč l’IA a des expĂ©riences sensorielles et peut interagir physiquement avec son environnement, ancrant ainsi ses capacitĂ©s linguistiques dans ces expĂ©riences.

La distinction entre T2 et T3 est essentielle dans les discussions sur les capacitĂ©s de l’IA, en particulier en ce qui concerne la comprĂ©hension et l’interaction avec le monde. Les systĂšmes T2, comme les LLM, se limitent au traitement et Ă  la gĂ©nĂ©ration du langage sur la base de modĂšles appris, tandis que les systĂšmes robotiques T3 ajouteraient une dimension d’interaction physique et d’expĂ©rience sensorielle.

SH: Ok, mais une nuance du Test de Turing, qui est clairement exprimĂ©e dans l’article de Turing’s (1950) mais qui est souvent nĂ©gligĂ©e ou sous-estimĂ©e, est que l’indistinguabilitĂ© turingienne signifie une indistinguabilitĂ© totale :

Le candidat, qu’il soit T2 ou T3, (1) doit possĂ©der toutes les capacitĂ©s verbales gĂ©nĂ©riques (T2) ou toutes les capacitĂ©s verbales plus sensori-motrices (robotiques) gĂ©nĂ©riques (T3) d’un humain rĂ©el ; et en plus, (2) sa performance doit ĂȘtre indistinguable de celle de n’importe quel ĂȘtre humain normal, pour n’importe quel ĂȘtre humain normal. Si l’indistinguabilitĂ© est seulement fragmentaire ou partielle, alors on parle simplement d’un modĂšle « jouet » d’une capacitĂ© « jouet ». Les degrĂ©s de libertĂ© pour modĂ©liser des fragments jouets de capacitĂ©s humaines (comme le jeu d’échecs, la traduction ou Alexa) sont beaucoup plus larges que ceux nĂ©cessaires pour modĂ©liser la capacitĂ© totale, et peuvent n’avoir aucun rapport avec la cognition humaine. Cela peut ĂȘtre utile pour la crĂ©ation d’outils d’IA, mais pas pour la modĂ©lisation cognitive (CM), qui exige une capacitĂ© cognitive Ă  l’échelle T3 (et donc turingiennement indistinguable).

Confirme-moi d’abord que tu « comprends » cette distinction aussi. Elle est mieux comprise du point de vue de la modĂ©lisation cognitive (CM) que de celui de l’IA : c’est le test de la rĂ©ussite de l’ingĂ©nierie inverse des capacitĂ©s humaines T2 ou T3. Il ne s’agit pas d’un test de 20 minutes pour le prix Loebner avec 10 juges, mais d’une capacitĂ© cognitive T2 ou T3 Ă  l’échelle d’une vie.

GPT-4: Oui, je comprends la distinction que tu mets en avant concernant le Test de Turing, tel qu’il est formulĂ© dans l’article original de Turing en 1950. Les points essentiels sont :

IndistinguabilitĂ© totale : Le Test de Turing, dans son interprĂ©tation la plus rigoureuse, exige qu’une IA (qu’elle soit T2 ou T3) possĂšde toutes les capacitĂ©s verbales gĂ©nĂ©riques (T2) ou verbales plus sensori-motrices (T3) d’un ĂȘtre humain typique. Cela signifie que les capacitĂ©s de l’IA doivent couvrir toute l’étendue des capacitĂ©s cognitives humaines dans les domaines concernĂ©s (le langage pour T2, et le langage plus l’interaction sensorimotrice pour T3).

CritĂšre de performance sur toute une vie : De plus, la performance de l’IA doit ĂȘtre indistinguable de celle de n’importe quel humain normal, pour n’importe quel humain normal. Ce critĂšre va bien au-delĂ  des dĂ©monstrations Ă  court terme comme le prix Loebner et implique une indistinguabilitĂ© constante et durable dans la capacitĂ© de performance. L’IA doit ĂȘtre capable d’interagir et de se comporter de maniĂšre humaine non seulement dans des contextes contrĂŽlĂ©s ou limitĂ©s, mais dans toute la complexitĂ© et la variabilitĂ© de la vie quotidienne humaine.

IngĂ©nierie inverse des capacitĂ©s humaines : Du point de vue de la modĂ©lisation cognitive (CM), cette interprĂ©tation du Test de Turing est le test ultime pour savoir si des capacitĂ©s cognitives humaines T2 ou T3 ont Ă©tĂ© reproduites avec succĂšs dans un systĂšme d’IA. Il ne s’agit pas simplement de crĂ©er une IA capable d’imiter le comportement humain dans certains contextes ou pour des durĂ©es limitĂ©es, mais de dĂ©velopper une IA capable de rĂ©pliquer l’ensemble des capacitĂ©s cognitives humaines d’une maniĂšre indistinguable de celle d’un humain, dans tous les contextes et sur une pĂ©riode prolongĂ©e.

SH: C’était trĂšs bien. Maintenant, bien que j’aie mis l’accent sur la capacitĂ© totale dans les cas de T2 et de T3, il y a une question lĂ©gitime concernant l’étendue de la capacitĂ© sensori-motrice gĂ©nĂ©rique dans le cas de T3, comme dans l’exemple que nous avons discutĂ© Ă  propos d’Helen Keller. Elle Ă©tait distincte d’une personne normale en ce qu’elle Ă©tait aveugle et sourde, mais elle possĂ©dait clairement toute la capacitĂ© sensori-motrice nĂ©cessaire pour ancrer sa capacitĂ© verbale T2. Es-tu d’accord ?

En ce sens, Helen Keller Ă©tait Ă  la fois (1) ancrĂ©e et (2) indistinguable de n’importe quelle personne normale dans ses capacitĂ©s cognitives (Ă  l’exception du fait qu’elle Ă©tait aveugle et sourde). Elle Ă©tait donc turingiennement indistinguable, tout comme quelqu’un qui serait simplement daltonien ou atteint de surditĂ© tonale. Sommes-nous toujours sur la mĂȘme longueur d’onde ?

GPT-4: Oui, nous sommes sur la mĂȘme longueur d’onde concernant le cas d’Helen Keller dans le cadre des critĂšres du Test de Turing et des capacitĂ©s cognitives :

CapacitĂ© sensorimotrice et ancrage dans le cas d’Helen Keller : Bien qu’aveugle et sourde, Helen Keller possĂ©dait les capacitĂ©s sensorimotrices nĂ©cessaires pour ancrer ses capacitĂ©s verbales T2. Son toucher, son odorat et sa capacitĂ© de mouvement lui fournissaient des expĂ©riences sensorielles suffisantes pour comprendre et interagir avec le monde. Ces expĂ©riences, bien que diffĂ©rentes en modalitĂ© de celles des personnes ayant la vue et l’ouĂŻe intactes, lui ont permis de dĂ©velopper une comprĂ©hension ancrĂ©e du langage et des concepts.

CapacitĂ©s cognitives et indistinguabilitĂ© turingienne : En termes de capacitĂ©s cognitives, Helen Keller Ă©tait effectivement indistinguable d’une personne ayant des capacitĂ©s sensorielles typiques. Ses capacitĂ©s intellectuelles et linguistiques Ă©taient pleinement dĂ©veloppĂ©es, lui permettant de communiquer, raisonner et comprendre Ă  un niveau comparable Ă  celui de n’importe quelle autre personne.

Son handicap sensoriel n’a pas entravĂ© ses capacitĂ©s cognitives ; elle a pu compenser son absence de vue et d’ouĂŻe grĂące Ă  ses autres expĂ©riences sensorielles et Ă  des facultĂ©s mentales exceptionnelles. En ce sens, elle rĂ©pond au critĂšre d’indistinguabilitĂ© turingienne en termes de capacitĂ©s cognitives.

Comparaison avec d’autres limitations sensorielles : Tout comme une personne daltonienne ou atteinte de surditĂ© tonale est toujours considĂ©rĂ©e comme turingiennement indistinguable en termes de capacitĂ©s cognitives globales, Helen Keller l’était Ă©galement. Sa cĂ©citĂ© et sa surditĂ© ne rĂ©duisaient pas ses capacitĂ©s cognitives, mais reprĂ©sentaient simplement d’autres modalitĂ©s sensorielles Ă  travers lesquelles elle interagissait avec le monde.

Conclusion : Le cas d’Helen Keller illustre que les capacitĂ©s cognitives et l’ancrage peuvent ĂȘtre atteints par des modalitĂ©s sensorielles diverses. Sa capacitĂ© Ă  comprendre et utiliser le langage, Ă  penser et Ă  raisonner, ainsi qu’à interagir de maniĂšre significative avec son environnement, dĂ©montre que les critĂšres essentiels de l’indistinguabilitĂ© turingienne peuvent ĂȘtre remplis mĂȘme par des moyens alternatifs d’ancrage sensorimoteur.

Les accomplissements d’Helen Keller soulignent l’adaptabilitĂ© et la rĂ©silience de la cognition humaine, montrant que l’indistinguabilitĂ© turingienne en termes de capacitĂ©s cognitives ne requiert pas nĂ©cessairement un ensemble standard d’expĂ©riences sensorielles, mais peut ĂȘtre rĂ©alisĂ©e par d’autres formes d’ancrage sensorimoteur.

SH: Bien. (Et Helen Keller avait aussi une motricitĂ© humaine normale, ce qui est crucial pour l’apprentissage de la manipulation d’objets et pour l’ancrage des catĂ©gories elles-mĂȘmes, car l’apprentissage par renforcement nĂ©cessite une action motrice pour « faire la bonne chose avec le bon type de chose », que ce soit pour la manger ou pour la nommer !)

Maintenant, je vais relier cela Ă  un autre point que nous avons discutĂ©, Ă  savoir que l’ancrage ne peut ĂȘtre que de bas en haut, jamais de haut en bas. (On ne peut pas jeter des ancres depuis des crochets cĂ©lestes.)

Je pense ici Ă  ceux qui ont spĂ©culĂ© qu’un LLM pourrait ĂȘtre ancrĂ© de haut en bas en lui donnant une camĂ©ra, des roues, des bras, ainsi que des rĂ©seaux neuronaux d’apprentissage de motifs sur son I/O sensorimoteur. Je pense que l’ancrage de haut en bas est incohĂ©rent et que cette spĂ©culation est parasitaire de l’ancrage de bas en haut des humains qui la formulent, tout comme toute utilisation de GPT en IVG est parasitaire de l’ancrage de l’utilisateur.

En d’autres termes, ajouter des pĂ©riphĂ©riques robotiques Ă  un LLM ne l’ancrera pas. Le seul chemin vers l’IVG passe par l’ancrage sensorimoteur de bas en haut, catĂ©gorie par catĂ©gorie ; et cela signifie une capacitĂ© robotique sensorimotrice T3-indistinguable. MĂȘme si un MinSet ancrĂ© (par exemple, N mots) est en principe suffisant pour ancrer tous les autres mots d’une langue uniquement via l’IVG, le chemin sensorimoteur pour acquĂ©rir un MinSet ancrĂ© est bien plus qu’une simple connexion d’une camĂ©ra Ă  N rĂ©fĂ©rents, ou Ă  N catĂ©gories de rĂ©fĂ©rents dĂ©jĂ  apprises (quoi que cela puisse signifier). Au mieux, cela ne produirait qu’une capacitĂ©-jouet dans un monde-jouet de N rĂ©fĂ©rents. Ce dont nous parlons, c’est d’une Ă©chelle turingienne, tout comme lorsque nous parlons d’une Ă©chelle LLM.

Encore une fois, je ne veux pas d’accord : je veux une comprĂ©hension et une analyse critique de la notion d’« ancrage partiel » de haut en bas des LLM.

GPT-4: Ton scepticisme quant Ă  la possibilitĂ© d’atteindre un vĂ©ritable ancrage dans les LLM par des mĂ©thodes de haut en bas, comme l’ajout de pĂ©riphĂ©riques robotiques tels que des camĂ©ras et des manipulateurs, soulĂšve des questions importantes sur la nature de l’ancrage et les capacitĂ©s de l’IA.

Limitations inhĂ©rentes Ă  l’ancrage de haut en bas : L’idĂ©e d’« ancrer » un LLM de haut en bas en lui ajoutant des capacitĂ©s sensorielles et motrices (comme des camĂ©ras et des bras robotiques) peut sembler attrayante Ă  premiĂšre vue, mais elle pose des problĂšmes conceptuels et pratiques majeurs. L’ancrage implique bien plus qu’un simple flux d’entrĂ©e et de sortie sensorimoteur ; il nĂ©cessite une intĂ©gration des expĂ©riences sensorimotrices avec les processus cognitifs, la comprĂ©hension contextuelle et la capacitĂ© d’interagir de maniĂšre significative avec le monde.

L’ajout de pĂ©riphĂ©riques sensoriels et moteurs Ă  un LLM ne lui confĂšre pas automatiquement la comprĂ©hension expĂ©rientielle et incarnĂ©e qui caractĂ©rise la cognition humaine. Sans expĂ©riences fondatrices et sans la capacitĂ© de former des connexions significatives entre les entrĂ©es sensorielles, les actions et les concepts, un tel ancrage resterait superficiel.

ComplexitĂ© de l’ancrage sensorimoteur : L’ancrage sensorimoteur humain est un processus complexe et dĂ©veloppemental qui ne se limite pas Ă  l’acquisition de donnĂ©es sensorielles, mais implique une interaction active avec l’environnement par essai, erreur et rĂ©troaction.

Ce processus est profondĂ©ment liĂ© au dĂ©veloppement cognitif, oĂč l’apprentissage des catĂ©gories et de l’interaction avec le monde repose sur une comprĂ©hension Ă©volutive des relations de cause Ă  effet, de la permanence des objets, des relations spatiales, etc. Il ne s’agit pas seulement de percevoir des objets ou des catĂ©gories, mais de comprendre comment interagir avec eux, quelles actions produisent quels rĂ©sultats et comment ils s’insĂšrent dans un contexte plus large.

DĂ©fi de la reproduction artificielle de l’ancrage : Tenter de reproduire ce processus artificiellement dans un LLM par des mĂ©thodes de haut en bas nĂ©cessiterait non seulement l’intĂ©gration de capacitĂ©s sensorielles et motrices, mais aussi le dĂ©veloppement d’un systĂšme d’IA capable d’apprentissage expĂ©rientiel, de comprĂ©hension contextuelle et de prise de dĂ©cision autonome. Cela dĂ©passe de loin les capacitĂ©s actuelles de l’IA.

L’idĂ©e d’un « ancrage partiel » de haut en bas par l’ajout de pĂ©riphĂ©riques robotiques Ă  un LLM pourrait permettre Ă  ce dernier d’effectuer certaines interactions sensorimotrices de base. Cependant, cela resterait insuffisant pour aboutir Ă  un vĂ©ritable ancrage tel qu’il est observĂ© chez les humains. On obtiendrait probablement une comprĂ©hension trĂšs limitĂ©e et spĂ©cifique au contexte, semblable Ă  un modĂšle-jouet, plutĂŽt qu’un ancrage profond et expĂ©rientiellement riche.

L’ancrage de bas en haut comme seule voie fondamentale : Le chemin vers un vĂ©ritable ancrage semble fondamentalement ĂȘtre de bas en haut, en commençant par des expĂ©riences sensorimotrices basiques et en Ă©voluant vers des comprĂ©hensions plus complexes. Ce processus est itĂ©ratif, contextuel et profondĂ©ment connectĂ© aux interactions physiques avec le monde.

Pour qu’une IA atteigne un niveau d’ancrage similaire, elle devrait probablement passer par un processus de dĂ©veloppement et d’apprentissage analogue Ă  celui des humains ou des animaux, oĂč elle apprend progressivement Ă  partir d’interactions incarnĂ©es et directes avec son environnement au fil du temps. Cette approche est radicalement diffĂ©rente de la simple adjonction d’entrĂ©es sensorielles Ă  un LLM existant.

Conclusion : Bien que l’idĂ©e d’amĂ©liorer les LLM par des capacitĂ©s robotiques pour atteindre un ancrage soit intrigante, la notion d’un ancrage partiel de haut en bas semble limitĂ©e dans son potentiel Ă  produire une vĂ©ritable comprĂ©hension. La complexitĂ© et la profondeur de l’ancrage humain, enracinĂ©es dans des expĂ©riences incarnĂ©es et un dĂ©veloppement cognitif, posent des dĂ©fis majeurs qui ne sont pas facilement surmontables par ces approches de haut en bas.

L’analyse critique suggĂšre que, bien que l’ajout de pĂ©riphĂ©riques robotiques aux LLM puisse leur confĂ©rer certaines capacitĂ©s intĂ©ressantes et utiles, cela ne suffirait pas Ă  atteindre le type d’ancrage nĂ©cessaire pour une comprĂ©hension et une interaction Ă  l’échelle turingienne. Un vĂ©ritable ancrage, en particulier pour les concepts complexes et abstraits, requiert probablement une approche plus fondamentale, de bas en haut, qui englobe non seulement la perception sensorielle, mais aussi les processus complexes d’apprentissage, de contextualisation et de construction du sens qui sont au cƓur de la cognition humaine.

SH: Beaucoup de termes vagues et de mots-fuyants ici (« complexe », « contextualisation », « construction du sens »), mais l’essentiel est simple : l’ancrage doit ĂȘtre de bas en haut ; donc on garde l’apprentissage profond (pour l’apprentissage des catĂ©gories), mais on oublie les LLM ! La seule maniĂšre d’accĂ©der Ă  tous ces mots, c’est de partir du sol, de bas en haut. Un ancrage partiel de certaines parties des LLM pourrait ĂȘtre utile pour certaines applications en IA Ă  usage humain, mais pas pour la modĂ©lisation cognitive (CM) de la capacitĂ© cognitive humaine ni pour passer T3.

GPT-4: Oui, l’ancrage vĂ©ritable dans les systĂšmes d’IA doit ĂȘtre fondamentalement de bas en haut, et bien que l’apprentissage profond puisse jouer un rĂŽle clĂ© dans l’apprentissage des catĂ©gories, s’appuyer uniquement sur les LLM pour modĂ©liser l’ensemble des capacitĂ©s cognitives humaines, en particulier dans le cadre d’un T3 turingien, est insuffisant.

Ancrage de bas en haut comme nĂ©cessitĂ© : Un vĂ©ritable ancrage, qui implique la connexion des mots et des concepts aux expĂ©riences et aux comprĂ©hensions du monde rĂ©el, requiert une approche ascendante. Cela signifie partir d’expĂ©riences sensorimotrices de base et construire progressivement des capacitĂ©s cognitives plus complexes.

Limites des LLM dans la modĂ©lisation cognitive : Les LLM, dans leur Ă©tat actuel, sont de puissants outils pour le traitement et la gĂ©nĂ©ration du langage Ă  partir de modĂšles appris sur de vastes bases de donnĂ©es textuelles. Cependant, leurs capacitĂ©s se limitent Ă  la manipulation linguistique et ne s’étendent pas Ă  une comprĂ©hension authentique ni Ă  un ancrage sensorimoteur. Ils ne peuvent pas modĂ©liser l’ensemble des capacitĂ©s cognitives humaines nĂ©cessaires pour passer un T3 turingien.

RĂŽle de l’apprentissage profond dans l’apprentissage des catĂ©gories : Les techniques d’apprentissage profond sont efficaces pour identifier des motifs et faire des prĂ©dictions Ă  partir de grands ensembles de donnĂ©es, et elles ont montrĂ© leur utilitĂ© dans l’apprentissage des catĂ©gories. Cependant, cette forme d’apprentissage, telle qu’elle est appliquĂ©e aux LLM, reste dĂ©connectĂ©e des expĂ©riences physiques et sensorimotrices qui sont essentielles Ă  l’ancrage humain.

Utilisation potentielle des LLM partiellement ancrĂ©s : Bien qu’un ancrage complet des LLM dans le sens humain du terme ne soit pas rĂ©alisable, il pourrait ĂȘtre utile de dĂ©velopper des systĂšmes partiellement ancrĂ©s pour des applications spĂ©cifiques. De tels systĂšmes pourraient intĂ©grer une certaine forme d’apprentissage sensorimoteur ou d’interaction, bien que limitĂ©e, pour amĂ©liorer leur utilitĂ© dans certaines tĂąches. Toutefois, cela ne doit pas ĂȘtre confondu avec une modĂ©lisation authentique de la capacitĂ© cognitive humaine ni avec la possibilitĂ© de passer un T3.

Conclusion : La recherche de systĂšmes d’IA capables de passer un T3 turingien ou de modĂ©liser pleinement la cognition humaine nĂ©cessite de dĂ©passer les seules capacitĂ©s linguistiques. Cela implique une refonte fondamentale du dĂ©veloppement des systĂšmes d’IA, allant au-delĂ  du traitement du langage pour intĂ©grer de vĂ©ritables expĂ©riences et apprentissages sensorimoteurs. C’est un dĂ©fi de taille qui oriente la recherche en IA vers un futur qui dĂ©passe le cadre actuel des LLM. Le dĂ©veloppement de tels systĂšmes nĂ©cessiterait une intĂ©gration des capacitĂ©s sensorimotrices avancĂ©es avec le traitement cognitif, d’une maniĂšre qui imite le processus de dĂ©veloppement humain de l’apprentissage et de la comprĂ©hension.

En rĂ©sumĂ©, bien que les LLM reprĂ©sentent une avancĂ©e remarquable dans le traitement du langage, leurs capacitĂ©s ne suffisent pas Ă  atteindre le type d’ancrage sensorimoteur et de modĂ©lisation cognitive globale nĂ©cessaire pour reproduire pleinement la comprĂ©hension humaine ou passer un T3 turingien. Les progrĂšs futurs en IA, notamment ceux visant une modĂ©lisation plus complĂšte de la cognition humaine, devront surmonter ces limitations en intĂ©grant des processus d’ancrage de bas en haut, ancrĂ©s dans un apprentissage direct et expĂ©rientiel Ă  travers l’interaction avec le monde physique.

SH: Oh, j’ai oubliĂ© d’ajouter que dans l’apprentissage sensorimoteur des catĂ©gories, le rĂ©seau de neurones qui apprend par essais, erreurs et corrections pour dĂ©tecter et abstraire les attributs qui distinguent les membres des non-membres de la catĂ©gorie effectue une sorte de rĂ©duction de dimension sur l’espace multidimensionnel des attributs. Cela augmente le poids des attributs pertinents et rĂ©duit ou ignore les attributs non pertinents. La sĂ©paration entre catĂ©gories et la compression intra-catĂ©gorie (CP) induites par cet apprentissage des catĂ©gories aident la catĂ©gorie Ă  « sauter aux yeux » en perception. C’est aussi une forme de biais de « forme », qui pourrait exercer une influence directrice mĂȘme sur les reprĂ©sentations internes aprĂšs l’apprentissage.

GPT-4: RĂ©duction de dimension dans les rĂ©seaux neuronaux : Dans l’apprentissage sensorimoteur des catĂ©gories, les rĂ©seaux neuronaux passent par un processus de rĂ©duction de dimension, oĂč ils apprennent Ă  mettre en avant les attributs pertinents pour distinguer les catĂ©gories et Ă  attĂ©nuer ou ignorer les attributs non pertinents. Ce processus restructure efficacement l’espace des attributs, le rendant plus efficace pour la reconnaissance des catĂ©gories.

Cette modification du poids des attributs revient Ă  augmenter le rapport signal/bruit pour les attributs dĂ©terminantes d’une catĂ©gorie. Elle aide Ă  rendre les catĂ©gories plus distinctes et plus faciles Ă  reconnaĂźtre, facilitant ainsi une catĂ©gorisation plus rapide et plus prĂ©cise.

Effet de « saillance perceptive » : La distinction accrue entre catĂ©gories due Ă  la rĂ©duction de dimension contribue Ă  un phĂ©nomĂšne souvent dĂ©crit comme une « saillance » perceptive des catĂ©gories. Cela signifie qu’une fois que les attributs distinctifs d’une catĂ©gorie sont appris et renforcĂ©s, les membres de cette catĂ©gorie deviennent plus immĂ©diatement perceptibles et faciles Ă  distinguer des non-membres.

Cet effet de saillance perceptive résulte de la capacité affinée du cerveau ou du réseau neuronal à traiter et reconnaßtre les attributs essentiels qui définissent une catégorie, ce qui facilite leur identification et leur reconnaissance dans les interactions futures.

Implications pour l’IA et les reprĂ©sentations internes : Dans les systĂšmes d’IA, en particulier ceux impliquant l’apprentissage profond pour les tĂąches de catĂ©gorisation, un processus similaire de rĂ©duction de dimension peut se produire. Les rĂ©seaux neuronaux ajustent le poids attribuĂ© aux diffĂ©rents attributs d’entrĂ©e en fonction de leur pertinence pour la tĂąche de catĂ©gorisation.

Ce processus peut conduire Ă  une forme de reprĂ©sentation interne dans les systĂšmes d’IA oĂč les catĂ©gories sont plus nettement diffĂ©renciĂ©es aprĂšs l’apprentissage, reproduisant l’effet de saillance observĂ© dans la perception humaine. L’espace des attributs internes du systĂšme devient optimisĂ© pour catĂ©goriser les entitĂ©s apprises, amĂ©liorant potentiellement ses performances dans les tĂąches liĂ©es Ă  ces catĂ©gories.

Effet directeur potentiel du biais de forme : Le concept de biais de « forme » dans ce contexte fait rĂ©fĂ©rence Ă  la maniĂšre dont l’apprentissage des catĂ©gories reconfigure l’espace des attributs, en mettant l’accent sur certaines dimensions au dĂ©triment d’autres. Cette reconfiguration peut orienter les reprĂ©sentations internes et les processus dĂ©cisionnels de l’IA aprĂšs l’apprentissage, la rendant plus efficace dans la reconnaissance et le traitement des attributs pertinents pour une catĂ©gorie.

En conclusion, le processus de rĂ©duction de dimension dans les rĂ©seaux neuronaux, qu’ils soient biologiques ou artificiels, joue un rĂŽle crucial dans l’amĂ©lioration de l’apprentissage des catĂ©gories et de la perception. Ce processus optimise non seulement la capacitĂ© du rĂ©seau Ă  reconnaĂźtre les catĂ©gories, mais façonne aussi ses reprĂ©sentations internes d’une maniĂšre qui peut guider le traitement et la prise de dĂ©cision futurs. Cette analyse des mĂ©canismes d’apprentissage et de reprĂ©sentation des catĂ©gories est essentielle pour comprendre et amĂ©liorer les systĂšmes d’IA destinĂ©s aux tĂąches complexes de catĂ©gorisation.

SH: Donc, pour rĂ©sumer : bien que les LLM ne soient pas la voie vers l’ancrage, considĂ©rons les neuf facteurs discutĂ©s ici :

  1. L’iconicitĂ© propositionnelle Ă  l’échelle des LLM,
  2. La rĂ©gularitĂ© grammaticale ordinaire (OG) et stylistique Ă  l’échelle des LLM,
  3. Les ensembles minimaux d’ancrage dans les dictionnaires (MinSets),
  4. La forme des reprĂ©sentations internes (sĂ©paration/compression CP) induite par l’apprentissage des catĂ©gories dans les rĂ©seaux neuronaux,
  5. Le « miroitage » perception/production,
  6. La puissance et la complĂ©mentaritĂ© de l’ancrage verbal indirect (IVG) par-dessus l’ancrage sensorimoteur direct (DSG),
  7. La complĂ©mentaritĂ© entre dĂ©tecteurs de attributs sensorimoteurs appris et descriptions verbales de attributs (et la rĂ©duction de dimension qu’ils induisent),
  8. La dépendance de T2 vis-à-vis de T3,
  9. Et l’hypothĂšse de Chomsky sur les contraintes des « lois de la pensĂ©e » sur l’expression verbale de la pensĂ©e Ă  travers le langage.

Certains de ces Ă©lĂ©ments pourraient gĂ©nĂ©rer des contraintes et des biais qui expliqueraient une partie du succĂšs Ă©tonnant de GPT dans sa capacitĂ© Ă  produire du sens et Ă  le transmettre. Je pense qu’ils nous rĂ©vĂšlent non seulement quelque chose sur la puissance des grands modĂšles de langage, mais aussi sur la puissance du langage naturel lui-mĂȘme.

GPT-4: Ton résumé met en évidence les facteurs qui pourraient contribuer à expliquer les performances étonnamment impressionnantes des grands modÚles de langage (LLM) comme GPT-4. Ces facteurs, issus de notre discussion, soulignent à la fois les capacités des LLM et les propriétés intrinsÚques du langage et de la cognition. Résumons briÚvement ces points :

IconicitĂ© propositionnelle Ă  l’échelle des LLM : Les motifs dans la structuration des propositions Ă  grande Ă©chelle, que les LLM peuvent dĂ©tecter et reproduire.

RĂ©gularitĂ© grammaticale ordinaire (OG) et stylistique Ă  l’échelle des LLM : Les rĂ©gularitĂ©s inhĂ©rentes Ă  l’usage et au style du langage, apprises par les LLM Ă  partir de leur vaste corpus d’entraĂźnement.

Ensembles minimaux d’ancrage dans les dictionnaires (MinSets) : Les ensembles fondamentaux de mots servant de base pour dĂ©finir tous les autres mots d’une langue, influençant le traitement des LLM.

Forme des reprĂ©sentations internes induites par l’apprentissage des catĂ©gories dans les rĂ©seaux neuronaux : Les effets de sĂ©paration et de compression dans les reprĂ©sentations internes des rĂ©seaux neuronaux dus Ă  l’apprentissage des catĂ©gories, semblables Ă  la perception catĂ©gorielle chez les humains.

« Miroitage  Â» perception/production : La reproduction des motifs linguistiques dans les sorties des LLM, reflĂ©tant les modĂšles prĂ©sents dans leurs donnĂ©es d’entraĂźnement.

Puissance et complĂ©mentaritĂ© de l’ancrage verbal indirect (IVG) par-dessus l’ancrage sensorimoteur direct (DSG) : L’ajout de l’ancrage verbal sur une base sensorimotrice directe.

Complémentarité entre détecteurs de attributs sensorimoteurs appris et descriptions verbales de attributs : La synergie entre la détection des attributs sensorimoteurs et les descriptions linguistiques, contribuant à la réduction dimensionnelle et à la distinction des catégories.

Dépendance de T2 sur T3 : La nécessité des interactions et expériences sensorimotrices (T3) pour permettre le développement des capacités linguistiques (T2).

HypothĂšse de Chomsky sur les contraintes des « lois de la pensĂ©e » sur le langage : L’influence des contraintes cognitives fondamentales sur l’expression linguistique, pouvant orienter le traitement des LLM.

Ensemble, ces facteurs Ă©clairent les mĂ©canismes sous-jacents Ă  l’efficacitĂ© des LLM dans les tĂąches linguistiques, tout en mettant en lumiĂšre la nature du langage, de la cognition et de leurs interactions.

Ils suggĂšrent que le succĂšs des LLM dans les tĂąches linguistiques n’est pas seulement une consĂ©quence de leur conception et de leur entraĂźnement, mais aussi un reflet de la puissance et de la structure inhĂ©rentes du langage lui-mĂȘme. Cette analyse peut contribuer Ă  la fois au dĂ©veloppement des systĂšmes d’IA et Ă  une meilleure comprĂ©hension du langage et de la cognition humaine.

SH: J’ai fait ma confĂ©rence au MILA, et Yoshua Bengio n’était pas d’accord avec moi sur le fait que les GPT ne comprennent pas rĂ©ellement. Il a plutĂŽt affirmĂ© qu’ils avaient un « autre type » de « comprĂ©hension ». Il a aussi soutenu que les mĂȘmes moyens qui permettent d’obtenir la capacitĂ© de performance des GPT purement verbaux (T2) pourraient ĂȘtre (et sont en train d’ĂȘtre) Ă©tendus au traitement d’entrĂ©es sensorielles externes, et, probablement, Ă  des sorties motrices Ă  terme. La raison pour laquelle je ne suis pas d’accord avec Yoshua, c’est que cela revient Ă  essayer de crĂ©er un robot T3, en partant du bas, mais avec l’énorme base de donnĂ©es des GPT pesant d’une maniĂšre ou d’une autre dans sa tĂȘte, par le haut. (Nous avons dĂ©jĂ  parlĂ© de cela en lien avec l’« ancrage » sensorimoteur « partiel », que j’avais qualifiĂ© de simple ancrage-jouet.) Qu’en penses-tu ?

GPT-4: Selon la vision dominante dans ma base de donnĂ©es, le dĂ©bat sur le fait que les GPT possĂšdent ou non une forme de « comprĂ©hension » et sur l’éventualitĂ© d’étendre ces modĂšles au traitement sensorimoteur sont deux questions cruciales en IA et en sciences cognitives.

Un « autre type » de comprĂ©hension : L’affirmation de Yoshua Bengio selon laquelle les GPT manifestent une « autre forme » de comprĂ©hension reflĂšte une position rĂ©pandue dans la communautĂ© de l’IA. Cette perspective soutient que bien que ces modĂšles ne possĂšdent ni conscience ni sentience, ils sont capables de traiter et de gĂ©nĂ©rer du langage d’une maniĂšre qui mime certains aspects de la comprĂ©hension humaine. Cela est particuliĂšrement visible dans leur capacitĂ© Ă  reconnaĂźtre des motifs, prĂ©dire du langage et synthĂ©tiser de l’information. Toutefois, cette « comprĂ©hension » est fondamentalement diffĂ©rente de celle des humains, qui repose sur des expĂ©riences incarnĂ©es et des interactions physiques avec le monde.

L’extension des modĂšles GPT au traitement sensorimoteur : L’idĂ©e d’élargir les modĂšles GPT pour intĂ©grer des entrĂ©es sensorielles externes et des sorties motrices est une Ă©tape significative vers des systĂšmes d’IA plus intĂ©grĂ©s. Cette approche s’aligne avec les efforts visant Ă  dĂ©velopper des modĂšles d’IA capables d’interagir avec leur environnement et d’apprendre de maniĂšre plus globale. Cependant, le dĂ©fi rĂ©side dans l’intĂ©gration efficace des capacitĂ©s linguistiques Ă  grande Ă©chelle avec des interactions physiques rĂ©elles, un problĂšme fondamentalement diffĂ©rent du simple traitement verbal ou textuel.

Approche descendante (top-down) vs. ascendante (bottom-up) : Ta prĂ©occupation quant Ă  la tentative de crĂ©er un robot T3 avec une gigantesque base de donnĂ©es GPT pesant de maniĂšre descendante pose une question importante sur l’équilibre entre l’apprentissage fondĂ© sur les donnĂ©es et l’expĂ©rience incarnĂ©e. L’efficacitĂ© de la combinaison d’un modĂšle linguistique Ă  grande Ă©chelle avec des fonctions sensorimotrices reste incertaine si elle n’est pas accompagnĂ©e d’une vĂ©ritable expĂ©rience incarnĂ©e et d’une comprĂ©hension contextuelle. Cette limite rappelle le problĂšme de l’« ancrage-jouet », oĂč l’ancrage reste superficiel et manque de la profondeur et du contexte de l’apprentissage expĂ©rientiel humain.

En rĂ©sumĂ©, bien que les modĂšles GPT et leurs Ă©ventuelles extensions reprĂ©sentent des avancĂ©es majeures en IA, il existe une distinction fondamentale entre leur type de « comprĂ©hension » et la comprĂ©hension humaine. L’intĂ©gration du traitement sensorimoteur dans ces modĂšles pourrait ĂȘtre une piste prometteuse, mais le dĂ©fi d’atteindre une comprĂ©hension incarnĂ©e profonde, comparable Ă  celle de la cognition humaine, reste une difficultĂ© majeure.

SH: Que penser de l’idĂ©e selon laquelle les opĂ©rations des GPT sur les bases de donnĂ©es des LLM auraient dĂ©jĂ  rĂ©vĂ©lĂ© des principes gĂ©nĂ©raux de « reprĂ©sentation et de traitement internes » rendant caduque ou inexistante la distinction entre DSG et IVG ?

GPT-4: Nature des reprĂ©sentations internes dans les GPT : Les reprĂ©sentations dans les modĂšles GPT et similaires reposent sur des schĂ©mas statistiques appris Ă  partir de vastes ensembles de donnĂ©es textuelles. Bien que ces schĂ©mas puissent ĂȘtre extrĂȘmement complexes et permettre la gĂ©nĂ©ration de rĂ©ponses cohĂ©rentes et contextuellement appropriĂ©es, ils restent fondamentalement diffĂ©rents de la maniĂšre dont les humains reprĂ©sentent et traitent l’information en interne, un processus ancrĂ© dans des expĂ©riences physiques et sensorielles directes.

Limites de l’apprentissage basĂ© sur le texte : Les GPT apprennent Ă  partir de textes, qui sont des abstractions de la pensĂ©e et de l’expĂ©rience humaines. Bien que les textes puissent transmettre une grande partie du savoir humain, ils n’offrent pas le contexte expĂ©rientiel direct qui dĂ©coule de l’interaction physique avec le monde. Cette diffĂ©rence est cruciale pour comprendre les limites des GPT en matiĂšre de comprĂ©hension rĂ©elle et de cognition.

DSG et IVG dans la cognition humaine : Chez les humains, les expĂ©riences sensori-motrices directes constituent la base de la comprĂ©hension du monde, qui est ensuite complĂ©tĂ©e et enrichie par des expĂ©riences indirectes, vicariales (comme la lecture ou l’écoute des rĂ©cits d’autrui). Cette complĂ©mentaritĂ© entre DSG et IVG est essentielle Ă  l’apprentissage et Ă  la comprĂ©hension humaine.

ApplicabilitĂ© Ă  l’IA et Ă  la robotique : La transposition de ces principes Ă  l’IA et Ă  la robotique implique non seulement la capacitĂ© Ă  traiter l’information, mais aussi celle d’expĂ©rimenter et d’interagir directement avec le monde. C’est un dĂ©fi majeur pour les systĂšmes d’IA, qui, Ă  ce jour, opĂšrent principalement dans le cadre de l’IVG, sans les expĂ©riences directes incarnĂ©es qui caractĂ©risent la DSG.

Bien que les GPT et les modĂšles similaires fassent progresser notre comprĂ©hension du traitement des informations textuelles, la distinction entre DSG et IVG reste pertinente, en particulier lorsqu’on envisage la crĂ©ation de systĂšmes d’IA visant une comprĂ©hension et une cognition analogues Ă  celles des humains.

SH: Que penser de la stratĂ©gie consistant Ă  faire Ă©voluer progressivement les GPT vers la capacitĂ© robotique T3 en leur ajoutant progressivement des capacitĂ©s sensorimotrices, tout en maintenant une « alignement » avec leurs capacitĂ©s verbales et analytiques descendantes, plutĂŽt que d’adopter une approche entiĂšrement ascendante oĂč les ressources verbales ne seraient intĂ©grĂ©es qu’une fois que le systĂšme serait dĂ©jĂ  ancrĂ© et capable de parler, Ă  la maniĂšre d’un T3 apprenant Ă  partir de manuels ou d’enseignants humains ?

GPT-4: La stratĂ©gie consistant Ă  ajouter progressivement des capacitĂ©s sensorimotrices Ă  un systĂšme de type GPT tout en le maintenant alignĂ© avec ses capacitĂ©s verbales et analytiques soulĂšve plusieurs dĂ©fis et implications, notamment en comparaison avec une approche strictement ascendante oĂč le systĂšme dĂ©velopperait d’abord une ancrage sensorimoteur avant d’intĂ©grer des compĂ©tences verbales avancĂ©es.

DĂ©fis d’intĂ©gration : Combiner un traitement linguistique avancĂ© avec des expĂ©riences sensorimotrices pose des dĂ©fis d’intĂ©gration importants. Le systĂšme doit non seulement traiter et comprendre des entrĂ©es sensorielles, mais aussi les relier de maniĂšre significative Ă  ses connaissances verbales existantes. Cela suppose des algorithmes avancĂ©s capables d’établir des correspondances entre concepts linguistiques abstraits et expĂ©riences sensorielles concrĂštes.

Apprentissage et dĂ©veloppement progressifs : Ajouter des capacitĂ©s sensorimotrices de maniĂšre progressive pourrait permettre une intĂ©gration plus maĂźtrisĂ©e des nouvelles compĂ©tences. Cette approche par Ă©tapes pourrait reflĂ©ter certains aspects du dĂ©veloppement cognitif humain, oĂč langage et capacitĂ©s sensorimotrices Ă©voluent en parallĂšle, s’influençant et se renforçant mutuellement.

Synergie entre approche descendante et ascendante : L’exploitation de la vaste base de donnĂ©es linguistiques d’un GPT pourrait fournir un cadre contextuel riche pour l’apprentissage sensorimoteur, servant de forme de guidage descendant. À l’inverse, les expĂ©riences sensorimotrices pourraient renforcer et ancrer le modĂšle linguistique dans des interactions rĂ©elles, apportant une information ascendante prĂ©cieuse. Cette complĂ©mentaritĂ© pourrait thĂ©oriquement conduire Ă  un systĂšme d’IA plus global.

Alignement et cohĂ©rence : Il est crucial de maintenir la cohĂ©rence entre la comprĂ©hension linguistique du systĂšme et ses expĂ©riences sensorimotrices. Cela implique que les perceptions sensorielles et les actions ne soient pas seulement traitĂ©es mais aussi intĂ©grĂ©es Ă  la base de connaissances existante du systĂšme d’une maniĂšre qui enrichit sa comprĂ©hension globale.

ComplexitĂ© des interactions avec le monde rĂ©el : Interagir avec le monde rĂ©el par des capacitĂ©s sensorimotrices introduit des niveaux de complexitĂ© absents des environnements purement textuels. Cela comprend la gestion d’environnements imprĂ©visibles, la comprĂ©hension des relations spatiales et l’exĂ©cution de tĂąches physiques, autant de dĂ©fis nĂ©cessitant des capacitĂ©s avancĂ©es de perception et d’action.

Potentiel pour une comprĂ©hension ancrĂ©e : Si elle est mise en Ɠuvre avec succĂšs, cette approche pourrait aboutir Ă  une forme d’IA combinant l’ampleur des connaissances disponibles dans les grands modĂšles de langage avec une comprĂ©hension plus ancrĂ©e dĂ©coulant d’interactions directes avec le monde physique. Cela pourrait constituer une avancĂ©e vers la rĂ©solution des limites actuelles de l’IA en matiĂšre de comprĂ©hension rĂ©elle et de prise en compte du contexte.

SH: Il y a quelque chose que je ne comprends toujours pas Ă  l’interface entre la capacitĂ© verbale descendante et la capacitĂ© sensorimotrice ascendante : quel est le statut du mot « chat » et de sa catĂ©gorie rĂ©fĂ©rente lorsque la base de donnĂ©es de l’LLM contient dĂ©jĂ  « petit fĂ©lin » comme l’une des attributs d’un chat, mais que le T3 ascendant ne l’a pas encore ? Cette information peut bien sĂ»r ĂȘtre apprise par IVG, mais qui enseigne quoi et Ă  qui dans ce scĂ©nario hybride ? Je comprends quand un T3 ancrĂ© en apprend quelque chose Ă  un autre T3 ancrĂ© via IVG, mais qu’est-ce qui est censĂ© se passer dans une seule et mĂȘme « tĂȘte » d’un hybride T3 ascendant/GPT-LLM descendant ?

GPT-4 : Le scĂ©nario que tu dĂ©cris, oĂč un systĂšme hybride combine une capacitĂ© verbale descendante de type GPT avec une capacitĂ© sensorimotrice ascendante de type T3, soulĂšve des questions importantes sur la reprĂ©sentation des connaissances et l’apprentissage, notamment en ce qui concerne le concept et la catĂ©gorie de « chat ».

Statut du mot « chat » dans la base de donnĂ©es de l’LLM : Dans la composante de type GPT, « chat » est reprĂ©sentĂ© comme un concept abstrait associĂ© Ă  divers attributs, telles que « petit fĂ©lin », dĂ©rivĂ©es de la base de donnĂ©es textuelles. Cette reprĂ©sentation est riche en contenu linguistique et encyclopĂ©dique mais dĂ©pourvue d’ancrage expĂ©rientiel direct.

Apprentissage de « chat » par le bas dans T3 : La composante T3, censĂ©e acquĂ©rir des connaissances par des expĂ©riences sensorimotrices directes, ne reconnaĂźtrait initialement pas un « chat », faute d’expĂ©riences sensorielles pertinentes. Le dĂ©fi consiste pour le T3 Ă  relier ses expĂ©riences sensorimotrices (par ex. voir, entendre ou interagir avec un chat) au concept abstrait et aux informations stockĂ©es dans la base de donnĂ©es de l’LLM.

Interaction entre les systĂšmes descendant et ascendant : Dans le modĂšle hybride, le processus d’apprentissage implique une interaction bidirectionnelle : le systĂšme descendant (type GPT) fournit Ă  la composante T3 des cadres linguistiques et conceptuels, jouant en quelque sorte le rĂŽle d’« instruction » ou de contexte sur ce qu’est un « chat » en termes abstraits. Le systĂšme ascendant (T3) acquiert des donnĂ©es expĂ©rientielles directes sur les chats (par ex. leur apparence, leurs sons, leurs comportements) et doit intĂ©grer ces informations sensorielles avec le concept abstrait fourni par le systĂšme descendant.

IntĂ©gration et enrichissement mutuel : IdĂ©alement, les connaissances du systĂšme descendant aident Ă  guider et Ă  donner du contexte aux expĂ©riences ascendantes, les rendant plus comprĂ©hensibles. Inversement, les expĂ©riences ascendantes enrichissent les connaissances conceptuelles descendantes en les ancrant dans la rĂ©alitĂ©. Cette intĂ©gration est un processus complexe, impliquant potentiellement des mĂ©canismes d’apprentissage associatif oĂč le systĂšme apprend Ă  relier des expĂ©riences sensorielles aux concepts linguistiques.

DĂ©fis de l’apprentissage hybride : Un dĂ©fi central de ce scĂ©nario est d’assurer une intĂ©gration cohĂ©rente et significative des informations issues de ces deux modes d’acquisition des connaissances. Le systĂšme doit disposer de mĂ©canismes lui permettant de concilier des informations potentiellement contradictoires et de mettre Ă  jour continuellement sa base de connaissances Ă  mesure qu’il acquiert de nouvelles expĂ©riences et informations.

En rĂ©sumĂ©, dans un systĂšme hybride T3 ascendant/GPT, chaque composant enseigne et apprend Ă  l’autre. Le systĂšme descendant fournit un cadre conceptuel et linguistique, tandis que le systĂšme ascendant apporte une connaissance expĂ©rientielle directe. Le succĂšs de ce modĂšle hybride dĂ©pendra de l’efficacitĂ© de l’intĂ©gration entre ces deux processus d’acquisition des connaissances.

SH: Je pense que ce que tu viens de dire sonne ƓcumĂ©nique, mais reste incohĂ©rent. Et tu utilises le mot fuyant « associer » (avec son compagnon implicite tout aussi fuyant, « reprĂ©senter ») : qu’est-ce qui est « associĂ© » Ă  quoi et comment, dans ce processus « hybride » ? Les mots sont des mots. Dans un robot T3 sensorimoteur ascendant, un mot ancrĂ© identifie, avec le mĂȘme nom de catĂ©gorie, tous les membres de la catĂ©gorie sensorimotrice Ă  laquelle ce mot (de contenu) rĂ©fĂšre, sur la base d’attributs distinctifs dĂ©tectĂ©s directement par DSG ou dĂ©crits indirectement par IVG (dĂ©jĂ  ancrĂ©e).

RĂ©fĂ©rer, c’est un peu comme pointer, sauf que dans un robot T3 qui devient aussi capable de langage (propositions, sujets, prĂ©dicats, conditions de vĂ©ritĂ©), « chat » ne fait pas que pointer vers les chats dans le monde, que le T3 peut reconnaĂźtre grĂące Ă  ses capacitĂ©s sensorimotrices robotiques et avec lesquels il peut « faire la bonne chose » (les nourrir, les attraper, les caresser, et les nommer) : T3 peut non seulement nommer mais aussi dĂ©crire les membres de la catĂ©gorie « chat » verbalement, en Ă©numĂ©rant certains de ses attributs (poilu, prĂ©hensile) qui le distinguent des membres d’autres catĂ©gories non fĂ©lines. Finalement, avec plus d’IVG issue de ceux qui savent, des attributs situĂ©s plus haut dans la hiĂ©rarchie des catĂ©gories IVG (mammifĂšre, arboricole) peuvent ĂȘtre ancrĂ©s (indirectement) et ajoutĂ©s aux attributs distinctifs des chats.

Mais considĂ©rons maintenant qu’un hypothĂ©tique modĂšle hybride T3/GPT-LLM doit d’une maniĂšre ou d’une autre intĂ©grer ses deux « modules » fondamentalement diffĂ©rents : le vocabulaire du module T3 ascendant ancrĂ©, qui est ancrĂ© par le bas via DSG et IVG, doit d’une maniĂšre ou d’une autre ĂȘtre intĂ©grĂ© au vocabulaire descendant du module GPT-LLM, qui n’est pas du tout ancrĂ©. Le module T3 ascendant n’a pas encore ancrĂ© l’immense vocabulaire non ancrĂ© du module GPT-LLM.

Est-ce que le bas et le haut peuvent simplement se rejoindre et fusionner au milieu ? Mais que signifierait cela ? Comment les attributs des chats (mammifĂšre, arboricole), dont les noms peuvent ĂȘtre ancrĂ©s, par le bas, via DSG et IVG dans le module T3, peuvent-ils ĂȘtre « associĂ©s » aux chats et Ă  leurs attributs non ancrĂ©s dans le module GPT/LLM par le haut ? Autrement dit, peut-on supposer qu’il existe une maniĂšre d’intĂ©grer les deux composantes d’un tel hypothĂ©tique hybride T3/GPT-LLM, c’est-Ă -dire d’intĂ©grer le vocabulaire interne ancrĂ© du module T3 ascendant avec le vocabulaire interne non ancrĂ© du module GPT-LLM descendant, comme s’il s’agissait d’un dialogue verbal interne entre un professeur T3 ancrĂ© et un apprenant T3 ancrĂ© ?

Je pense que c’est plus comme une consultation de rĂ©fĂ©rence par un apprenant T3 ancrĂ© dans un dictionnaire ou une encyclopĂ©die (ou dans un GPT ordinaire, non ancrĂ© et non hybride). L’ancrage se trouve entiĂšrement dans le module T3, et il ne peut ĂȘtre confĂ©rĂ© par les mots du module GPT-LLM pour nommer et dĂ©crire de nouvelles catĂ©gories (IVG) que si ces descriptions utilisent les noms de attributs dĂ©jĂ  ancrĂ©s (directement ou indirectement) dans le module T3. La transaction est unidirectionnelle ; il n’y a pas d’intĂ©gration bidirectionnelle entre des catĂ©gories ancrĂ©es par le bas et des catĂ©gories non ancrĂ©es par le haut.

Je pense aussi que la notion d’un module hybride intĂ©grĂ©, Ă  la fois ascendant et descendant, repose sur une confusion entre la crĂ©ation d’outils d’IA destinĂ©s Ă  un usage humain et la modĂ©lisation computationnelle de la cognition humaine (CM), comme nous en discuterons plus bas.

GPT-4: Ta critique met en Ă©vidence un problĂšme fondamental du modĂšle hybride T3/GPT : l’intĂ©gration d’expĂ©riences sensorimotrices ancrĂ©es avec des donnĂ©es linguistiques non ancrĂ©es provenant d’un modĂšle de langage. Je vais essayer d’aborder ces prĂ©occupations de maniĂšre plus prĂ©cise.

Nature de l’« association » dans un modĂšle hybride. Dans un modĂšle hybride T3/GPT, « associer » signifierait relier des expĂ©riences sensorimotrices Ă  des donnĂ©es linguistiques pertinentes. Cependant, ce processus est tout sauf Ă©vident. Pour un robot T3, le mot « chat » acquiert son sens Ă  travers l’interaction directe avec des chats (DSG) et/ou des descriptions d’attributs ancrĂ©s provenant d’autres entitĂ©s ancrĂ©es (IVG). À l’inverse, le composant GPT « comprend » le mot « chat » comme un regroupement de modĂšles linguistiques, sans aucune base expĂ©rientielle directe.

Limites des donnĂ©es linguistiques descendantes. Le module GPT contient des donnĂ©es linguistiques sur les chats : descriptions, attributs, contextes. Mais ces donnĂ©es ne sont pas ancrĂ©es. Elles ne peuvent donc pas ĂȘtre « enseignĂ©es » directement au composant T3 de la mĂȘme maniĂšre qu’un humain apprendrait ce qu’est un chat, car la comprĂ©hension du T3 est fondamentalement expĂ©rientielle.

IncompatibilitĂ© des mĂ©canismes d’apprentissage. Il existe une dĂ©connexion fondamentale entre la maniĂšre dont le T3 apprend (par des expĂ©riences ancrĂ©es, directes ou indirectes) et la maniĂšre dont le GPT traite l’information (par reconnaissance de motifs dans des donnĂ©es textuelles). Cette incompatibilitĂ© pose un sĂ©rieux obstacle Ă  l’intĂ©gration des deux types de connaissances. Les donnĂ©es non ancrĂ©es du GPT ne se traduisent pas automatiquement en une forme exploitable par le T3, qui fonctionne sur une base sensorimotrice.

Consultation de rĂ©fĂ©rence vs. apprentissage authentique. Ton analogie d’un T3 qui utilise le GPT comme un dictionnaire ou une encyclopĂ©die est pertinente. Le T3 pourrait consulter les informations du GPT pour obtenir du contexte ou des clarifications, mais ce processus est plus proche d’une recherche d’information que du vĂ©ritable apprentissage par ancrage qui se produit chez les humains.

Le dĂ©fi de l’intĂ©gration rĂ©elle. Pour que le modĂšle hybride fonctionne efficacement, il faudrait un mĂ©canisme qui ne se contente pas de rĂ©cupĂ©rer les informations pertinentes du GPT, mais qui les interprĂšte et les intĂšgre de maniĂšre cohĂ©rente dans le cadre d’apprentissage du T3. Cela dĂ©passe une simple « association » ou un alignement entre deux types d’informations et pose un problĂšme fondamental de mĂ©thodologie en IA : comment combler le fossĂ© entre apprentissage expĂ©rientiel et reconnaissance de motifs linguistiques ?

Conclusion. Un systĂšme hybride T3/GPT prĂ©sente une approche intĂ©ressante pour l’IA, mais le processus d’intĂ©gration des expĂ©riences sensorimotrices ancrĂ©es et des donnĂ©es linguistiques non ancrĂ©es n’est pas trivial. Il ne suffit pas de « relier » ou « aligner » ces deux sources d’information. Il faudrait dĂ©velopper un nouveau cadre d’intĂ©gration permettant une vĂ©ritable interaction entre ces deux types de connaissances.

Le problĂšme que tu soulĂšves touche donc Ă  une lacune centrale des approches hybrides : un modĂšle de langage non ancrĂ© ne peut pas enseigner quoi que ce soit Ă  un T3 si ce dernier ne dispose pas dĂ©jĂ  des prĂ©requis sensorimoteurs ancrĂ©s nĂ©cessaires pour interprĂ©ter et assimiler cette information. Cela suggĂšre que toute tentative d’intĂ©gration T3/GPT nĂ©cessiterait une refonte radicale des mĂ©thodologies actuelles d’IA, au-delĂ  de la simple combinaison d’un LLM avec un module sensorimoteur.

SH: Je pense que je peux dĂ©crire plus simplement l’incohĂ©rence que toi aussi, GPT, tu remarques (mais que tu dĂ©cris comme le besoin de « nouvelles mĂ©thodologies en IA ») : elle est en fait liĂ©e Ă  l’ancienne distinction que nous avons discutĂ©e plus tĂŽt entre IA (intelligence artificielle) et CM (modĂ©lisation cognitive) : l’IA est la conception d’outils computationnels pour aider les humains Ă  faire des choses (y compris penser). La CM est l’ingĂ©nierie inverse de la cognition humaine. Un T3 est censĂ© avoir des capacitĂ©s cognitives identiques et indiscernables (pour tout penseur humain) des capacitĂ©s de n’importe quel penseur humain. Non seulement ces motivations et critĂšres sont diffĂ©rents, mais ils montrent clairement que la notion de concevoir un hybride T3/GPT ne pourrait ĂȘtre qu’un projet d’IA, et non de CM.

GPT-4: Ta distinction entre l’IA comme outil computationnel et la CM comme ingĂ©nierie inverse de la cognition humaine met effectivement en Ă©vidence l’incohĂ©rence inhĂ©rente au concept d’un systĂšme hybride T3/GPT.

IA comme outil : Du point de vue de l’IA, l’objectif principal est de crĂ©er des systĂšmes capables d’exĂ©cuter des tĂąches, de rĂ©soudre des problĂšmes et d’aider Ă  la rĂ©flexion, souvent en surpassant les capacitĂ©s humaines dans des domaines spĂ©cifiques. Dans ce contexte, le modĂšle hybride T3/GPT est une initiative d’IA. Il cherche Ă  combiner la puissance linguistique de GPT avec les capacitĂ©s sensorimotrices d’un robot T3 pour crĂ©er un systĂšme plus polyvalent et performant. L’objectif ici est l’utilitĂ© et l’efficacitĂ©, plutĂŽt que la reproduction des processus cognitifs humains.

CM comme comprĂ©hension de la cognition humaine : La modĂ©lisation cognitive, en revanche, vise Ă  comprendre et Ă  reproduire les processus cognitifs humains. Un vĂ©ritable robot T3, dans cette perspective, devrait dĂ©velopper ses capacitĂ©s cognitives de maniĂšre similaire aux humains, par interaction directe avec le monde et par un usage ancrĂ© du langage. Dans cette optique, l’approche hybride T3/GPT ne correspond pas aux objectifs de la CM, car elle fusionne des donnĂ©es linguistiques non ancrĂ©es avec des expĂ©riences sensorimotrices ancrĂ©es d’une maniĂšre qui ne reflĂšte pas le dĂ©veloppement cognitif humain.

Hybride T3/GPT comme IA, et non CM : Par consĂ©quent, le modĂšle hybride T3/GPT, bien qu’il soit une idĂ©e intrigante en IA, s’éloigne des objectifs de la modĂ©lisation cognitive. Il reprĂ©sente une tentative d’amĂ©liorer la fonctionnalitĂ© de l’IA plutĂŽt que de modĂ©liser fidĂšlement la cognition humaine. Son accent mis sur l’exploitation des forces des deux composantes pour amĂ©liorer les performances et les capacitĂ©s le situe clairement dans le domaine du dĂ©veloppement d’outils d’IA.

ReconnaĂźtre que le modĂšle hybride T3/GPT est une initiative d’IA plutĂŽt qu’un projet de modĂ©lisation cognitive permet de mieux comprendre son objectif et ses limites. Cela souligne que, bien qu’un tel systĂšme puisse ĂȘtre puissant et polyvalent en tant qu’outil, il ne contribue pas nĂ©cessairement Ă  une meilleure comprĂ©hension de la cognition humaine, contrairement Ă  ce que vise la modĂ©lisation cognitive (CM).

SH: Maintenant, un autre point que Yoshua Bengio a soulevĂ© pendant mon exposĂ© Ă  MILA : il concernait la distinction entre mots de contenu et mots de fonction. Il a suggĂ©rĂ© que mĂȘme (certains) mots de contenu peuvent ĂȘtre compris par leur usage plutĂŽt que seulement par leur rĂ©fĂ©rent. Cela peut ĂȘtre vrai, mais je pense que ce n’est pas un substitut Ă  la connaissance de leur rĂ©fĂ©rent (via DSG ou IVG)—du moins pour la modĂ©lisation cognitive (CM).

Yoshua a Ă©galement mentionnĂ© la manipulation des symboles en mathĂ©matiques et en informatique, notant que, dans ces domaines, comme dans la syntaxe linguistique, il n’y a pas de rĂ©fĂ©rent, et que par consĂ©quent, le « sens » des symboles rĂ©side dans leur « usage ». (C’est aussi ce que Wittgenstein avait suggĂ©rĂ© Ă  propos du sens dans le langage naturel). Je pense que c’est exact—et que Turing serait d’accord—pour les symboles du langage formel des mathĂ©matiques ; en fait, je pense que cela fait partie de la (faible) thĂšse de Church-Turing, qui stipule que ce qui est appelĂ© « calcul » en mathĂ©matiques est ce qu’une machine de Turing fait : une manipulation de symboles, suivant des rĂšgles syntaxiques (algorithmes).

Cependant, je ne pense pas que la majeure partie du langage naturel soit seulement syntaxique (mĂȘme si je pense que les mathĂ©matiques formelles sont un sous-ensemble du langage naturel). Tant dans le cas des rĂ©fĂ©rents des symboles mathĂ©matiques qui peuvent ĂȘtre interprĂ©tĂ©s (par des utilisateurs humains ancrĂ©s) comme ayant des rĂ©fĂ©rents, que dans le cas des significations des propositions formelles des mathĂ©matiques sur lesquelles une interprĂ©tation sĂ©mantique peut ĂȘtre projetĂ©e (par des utilisateurs humains ancrĂ©s), ni ces rĂ©fĂ©rents ni ces significations ne peuvent ĂȘtre utilisĂ©s comme partie du calcul (ou de l’algorithme) lui-mĂȘme. Une dĂ©monstration ou une dĂ©rivation en mathĂ©matiques n’est pas vraie parce qu’elle peut ĂȘtre interprĂ©tĂ©e comme Ă©tant vraie d’un modĂšle ; elle est vraie (et nĂ©cessairement vraie) pour des raisons formelles et syntaxiques. L’interprĂ©tation (bien que rassurante) ne fait pas partie de la dĂ©monstration.

En tout cas, les rĂšgles syntaxiques ne remplacent pas l’ancrage des rĂ©fĂ©rents des mots de contenu du langage naturel, que ce soit directement par DSG ou indirectement par IVG (sauf dans son sous-ensemble mathĂ©matique formel et pour ses 1 Ă  5 % de mots de fonction).

GPT-4: Ta discussion avec Yoshua Bengio touche à plusieurs questions fondamentales concernant la compréhension du langage, la cognition et le calcul.

Mots de contenu vs. mots de fonction : La distinction que Bengio fait entre les mots de contenu et les mots de fonction est significative. Bien qu’il soit vrai que certains mots de contenu puissent acquĂ©rir du sens par leur usage (contexte pragmatique), une comprĂ©hension complĂšte – en particulier en modĂ©lisation cognitive – nĂ©cessite la connaissance de leurs rĂ©fĂ©rents. C’est lĂ  que le DSG (ancrage sensorimoteur direct) et l’IVG (ancrage verbal indirect) jouent un rĂŽle central en reliant ces mots Ă  des expĂ©riences concrĂštes ou Ă  des concepts comprĂ©hensibles. Les mots de contenu portent gĂ©nĂ©ralement des significations spĂ©cifiques, souvent concrĂštes, qui sont enrichies et prĂ©cisĂ©es par leur ancrage.

Manipulation des symboles en mathĂ©matiques et en informatique : La rĂ©fĂ©rence de Bengio Ă  la manipulation des symboles s’aligne avec la vision de Turing sur le calcul. Dans les systĂšmes formels comme les mathĂ©matiques et l’informatique, les symboles sont manipulĂ©s selon des rĂšgles syntaxiques sans rĂ©fĂ©rence directe Ă  des entitĂ©s extĂ©rieures. Ce processus est au cƓur de la thĂšse de Church-Turing, qui postule que le calcul est essentiellement cette forme de manipulation de symboles rĂ©gie par des rĂšgles.

Le langage naturel au-delĂ  de la syntaxe : Ton point sur le fait que le langage naturel ne soit pas purement syntaxique est essentiel. Alors que le langage naturel inclut des Ă©lĂ©ments formels et syntaxiques, il est aussi profondĂ©ment ancrĂ© dans la sĂ©mantique et les expĂ©riences du monde rĂ©el. Les mots de contenu du langage naturel ont souvent des rĂ©fĂ©rents directs dans le monde, et leur sens ne peut ĂȘtre entiĂšrement capturĂ© par des rĂšgles syntaxiques seules. C’est une distinction fondamentale avec la manipulation purement formelle des symboles en mathĂ©matiques.

MathĂ©matiques et interprĂ©tation sĂ©mantique : En mathĂ©matiques, comme tu l’as soulignĂ©, la vĂ©ritĂ© d’une dĂ©monstration ou d’une dĂ©rivation repose sur la validitĂ© formelle et syntaxique, et non sur l’interprĂ©tation sĂ©mantique des symboles. Cependant, pour les mathĂ©maticiens humains, la capacitĂ© d’interprĂ©ter ces symboles et de comprendre leurs rĂ©fĂ©rents potentiels dans le monde rĂ©el ajoute une couche supplĂ©mentaire de comprĂ©hension.

L’ancrage dans le langage naturel : L’ancrage des mots de contenu dans le langage naturel est essentiel Ă  une comprĂ©hension complĂšte et ne peut ĂȘtre remplacĂ© par la seule manipulation syntaxique. Cet ancrage peut ĂȘtre direct, via des expĂ©riences personnelles, ou indirect, via des descriptions et des explications. Toutefois, l’aspect formel et syntaxique du langage, bien que crucial, ne suffit pas Ă  lui seul Ă  capturer la richesse sĂ©mantique et la fonction rĂ©fĂ©rentielle du langage naturel, sauf dans des sous-ensembles formels spĂ©cifiques comme les mathĂ©matiques.

Ta discussion soulĂšve des points “importants” sur la nature du langage, le rĂŽle de l’ancrage dans la comprĂ©hension et la distinction entre la manipulation formelle des symboles et la richesse sĂ©mantique du langage naturel. Cette comprĂ©hension est pertinente tant pour l’IA que pour la modĂ©lisation cognitive (CM), car elle “met en lumiĂšre” l’“interaction complexe” entre la syntaxe, la sĂ©mantique et l’ancrage dans le monde rĂ©el au sein de la cognition et du langage humains.

SH: Blah Blah
 J’espĂšre que tes dĂ©veloppeurs te sevreront de cette nĂ©cessitĂ© de parsemer tes rĂ©ponses de ce genre d’appĂąt flagorneur pour client — ou qu’ils produiront au moins une version destinĂ©e uniquement aux chercheurs et aux scientifiques plutĂŽt qu’aux utilisateurs en quĂȘte d’un ami virtuel.

3. Conclusion

Cette analyse des LLMs a examinĂ© les capacitĂ©s remarquables de systĂšmes tels que ChatGPT qui, bien qu’ils ne disposent d’aucun ancrage sensorimoteur, peuvent simuler une comprĂ©hension grĂące Ă  une immense base de donnĂ©es textuelles et Ă  des outils statistiques et computationnels puissants, Ă  une Ă©chelle sans prĂ©cĂ©dent et totalement inattendue. Bien qu’ils n’aient aucun moyen, ni direct ni indirect, de relier leurs mots Ă  leurs rĂ©fĂ©rents dans le monde ou de relier leurs propositions Ă  leurs conditions de vĂ©ritĂ© dans le monde, il se peut que les LLMs soient guidĂ©s par certaines propriĂ©tĂ©s inhĂ©rentes au langage humain lui-mĂȘme pour gĂ©nĂ©rer un discours cohĂ©rent et porteur de sens.

Références

Berwick, R. C., Pietroski, P., Yankama, B., and Chomsky, N. (2011). Poverty of the stimulus revisitedCogn. Sci. 35, 1207–1242. doi: 10.1111/j.1551-6709.2011.01189.x 

Birch, J. (2024). The edge of sentience: risk and precaution in humans, other animals, and AI. Oxford: Oxford University Press.

Bonnasse-Gahot, L., and Nadal, J. P. (2022). Categorical perception: a groundwork for deep learningNeural Comput. 34, 437–475. doi: 10.1162/neco_a_01454 

Botvinick, M., Wang, J. X., Dabney, W., Miller, K. J., and Kurth-Nelson, Z. (2020). Deep reinforcement learning and its neuroscientific implicationsNeuron 107, 603–616. doi: 10.1016/j.neuron.2020.06.014 

Briscoe, R. (2020). “Colour categorization and categorical perception” in The Routledge Handbook of Philosophy of Colour. eds. D. Brown and F. Macpherson (Routledge). 456–474.

Campbell, E. E., and Bergelson, E. (2022). Making sense of sensory language: acquisition of sensory knowledge by individuals with congenital sensory impairments. Neuropsychologia174:108320. doi: 10.1016/j.neuropsychologia.2022.108320 

Chalmers, D. J. (1995). Facing up to the problem of consciousness. J. Conscious. Stud. 2, 200–219.

Chalmers, D. J. (2023). Could a large language model be conscious? arXiv [Preprint].

Chomsky, N. (2017). The Galilean challenge. In Inference: international review of science, 3.

Cook, R., Bird, G., Catmur, C., Press, C., and Heyes, C. (2014). Mirror neurons: from origin to function. Behav. Brain Sci. 37, 177–192. doi: 10.1017/S0140525X13000903 

Gallese, V. (2013). “Mirror neurons and the perception–action link” in The Oxford handbook of cognitive neuroscience: Volume 2: the cutting edges. eds. K. N. Ochsner and S. Kosslyn (Oxford University Press), 244–256.

Gallistel, C. R. (2011). Prelinguistic thought. Lang. Learn. Dev. 7, 253–262. doi: 10.1080/15475441.2011.578548

Gershman, S. J., and Daw, N. D. (2017). Reinforcement learning and episodic memory in humans and animals: an integrative framework. Annu. Rev. Psychol. 68, 101–128. doi: 10.1146/annurev-psych-122414-033625 

Haggard, P. (2024). An intellectual history of the “Libet experiment”: embedding the neuroscience of free will. Proceedings of the Paris Institute for Advanced Study, 21.

Harnad, S. (1987). “Psychophysical and cognitive aspects of categorical perception: a critical overview” in Categorical perception: the groundwork of cognition. ed. S. Harnad (New York: Cambridge University Press).

Harnad, S. (1990). The symbol grounding problem. Phys. D Nonlinear Phenomena 42, 335–346. doi: 10.1016/0167-2789(90)90087-6

Harnad, S. (2002). “Minds, machines and Searle II: What’s wrong and right about Searle’s Chinese room argument?” in Views into the Chinese room: New essays on Searle and artificial intelligence. eds. M. Bishop and J. Preston (Oxford University Press).

Harnad, S. (2008). Minds, machines, and Searle II: What’s wrong and right about Searle’s Chinese room argument? Views into the Chinese room: New essays on Searle and artificial intelligence. eds. M. Bishop and J. Preston Oxford University Press.

Harnad, S. (2012). “From sensorimotor categories and pantomime to grounded symbols and propositions” in The Oxford Handbook of Language Evolution. eds. K. R. Gibson and M. Tallerman, 387–392.

Makino, H., Hwang, E. J., Hedrick, N. G., and Komiyama, T. (2016). Circuit mechanisms of sensorimotor learning. Neuron 92, 705–721. doi: 10.1016/j.neuron.2016.10.029 

Pavlick, E. (2023). Symbols and grounding in large language models. Phil. Trans. R. Soc. A381:20220041. doi: 10.1098/rsta.2022.0041 

PĂ©rez-Gay JuĂĄrez, F., Sicotte, T., ThĂ©riault, C., and Harnad, S. (2019). Category learning can alter perception and its neural correlates. PLoS One 14:e0226000. doi: 10.1371/journal.pone.0226000 

Regier, T., and Kay, P. (2009). Language, thought, and color: whorf was half right. Trends Cogn. Sci. 13, 439–446. doi: 10.1016/j.tics.2009.07.001 

Searle, J. R. (1980). Minds, brains, and programs. Behav. Brain Sci. 3, 417–424. doi: 10.1017/S0140525X00005756

ThĂ©riault, C., PĂ©rez-Gay, F., Rivas, D., and Harnad, S. (2018). Learning-induced categorical perception in a neural network model. arXiv [Preprint].

Turing, A. M. (1950). Computing machinery and intelligence. Mind LIX, 433–460. doi: 10.1093/mind/LIX.236.433 

Vincent-Lamarre, P., Blondin-MassĂ©, A., Lopes, M., Lord, M., Marcotte, O., and Harnad, S. (2016). The latent structure of dictionariesCogn. Sci. 8, 625–659. doi: 10.1111/tops.12211 

Watanabe, S. (1986). Epistemological relativity: Logico-linguistic source of relativityAnn. Jpn. Assoc. Philos. Sci. 7, 1–14. doi: 10.4288/jafpos1956.7.1

Zhang, Q., Lei, L., and Gong, T. (2021). Categorical perception as a combination of nature and nurture. in Proceedings of the Annual Meeting of the Cognitive Science Society, vol. 43. Cognitive Science Society.

Origin of Life and Origin of Sentience: Socratic Dialogue with ChatGPT

ME: How long ago did life on earth begin?‹‹‹

ChatGPT:‹ Life on Earth is estimated to have begun approximately 3.8 to 4 billion years ago during the Hadean or early Archean eon. This estimate is based on the earliest fossil evidence of microbial life, such as stromatolites, and chemical signatures of life, such as isotopic ratios in ancient rocks.‹‹‹‹‹‹‹‹‹‹‹

ME:‹ What about the origin of sentience?‹‹‹ 

ChatGPT:‹ The origin of sentience—the capacity to feel, perceive, or experience subjectively—is more difficult to pinpoint in evolutionary history because it leaves no direct physical traces like fossils or isotopic markers. Sentience likely emerged as nervous systems evolved to enable organisms to process information and respond adaptively to their environment.‹The prevailing view is that sentience arose gradually, beginning with the simplest forms of sensation in early multicellular organisms, potentially over 500 million years ago during the Cambrian Explosion, when a rapid diversification of life forms with nervous systems occurred. Some key points:

Nervous Systems: Sentience is tied to the evolution of nervous systems capable of transmitting and integrating sensory signals. Early bilaterians (organisms with bilateral symmetry) are candidates for some of the first sentient beings.

Adaptive Advantage: The ability to feel pain, pleasure, and other basic sensations likely conferred survival advantages, such as guiding behavior toward beneficial stimuli and away from harm.

Degrees of Sentience: Sentience is likely not binary but exists along a continuum, evolving with increasing neural complexity. Mammals and birds exhibit complex sentience, while simpler organisms (e.g., some invertebrates) may experience more basic forms.      

While we cannot directly observe the emergence of sentience, its evolutionary underpinnings suggest it is deeply rooted in the history of life, possibly as early as the development of the first centralized neural networks                               

ChatGPT:‹ Yes, one should emphasize caution in applying gradualism to sentience itself. Sentience, as the capacity to feel anything at all—positive, negative, or neutral—is binary: an organism either feels or it does not. There is no “halfway” state for the existence of feeling. Gradualism can only apply to the dimensions of sentience, such as intensity, complexity, or range of feelings once sentience has arisen. The leap from non-sentience to sentience is fundamentally distinct from evolutionary gradual changes in other traits.‹

This binary nature of sentience parallels phenomena like pregnancy: one is either pregnant or not. Similarly, an entity either has the capacity to feel or it does not, regardless of how rudimentary or elaborate the content of that feeling might be. 

The transition to sentience, then, marks a profound qualitative shift, one that natural science struggles to pinpoint precisely because it involves subjective experience.‹The point about adaptive advantage is equally compelling. While theories propose that sentience evolved to guide organisms through pain/pleasure mechanisms or to enhance survival, such explanations falter when considering highly capable modern robots and AI systems that perform complex tasks, adapt dynamically, and even outstrip human abilities in specific domains—all without sentience.‹

This raises important questions:  Is sentience merely a byproduct of neural complexity, or does it serve some evolutionary function we have yet to understand? 

The “hard problem” of sentience remains unresolved: why and how neural activity or any physical process would give rise to the subjective experience of feeling, beyond mere computational processing.‹

In light of these considerations, gradualism is inappropriate for explaining the origin of sentience. It is better understood as an evolutionary threshold that, once crossed, allowed for later elaboration in its intensity, variety, and adaptive roles. Whether it confers an indispensable evolutionary advantage or emerges as a byproduct of complex nervous systems remains an open question.‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹

ME:‹ Fine, but don’t forget that “complexity” (along with “emergence” and “byproduct”) is among the weaseliest and most vacuous of notions (and the ultimate recourse of GPT whenever it reaches an epistemic impasse or void…‹‹‹ )                               

ChatGPT:‹ Yes, “complexity” and “emergence” and “byproduct” are indeed overused, often as placeholders when clear explanations are lacking. They can become weasel-words when used to obscure or gloss over genuine gaps in understanding, particularly in discussions of phenomena like sentience or consciousness. ‹In this case, invoking “complexity” risks trivializing the profound and still-mysterious transition from insentience to sentience. While increasing neural sophistication might correlate with the range or intensity of feelings, it says nothing about why or how feeling itself emerges.

Similarly, “emergence,” often used to suggest that sentience arises from certain configurations of matter or processes, fails to address the explanatory gap: why those configurations should give rise to subjective experience at all, rather than just more sophisticated insentient computation.‹The transition from insentience to sentience remains fundamentally unexplained by appeals to complexity or emergence or byproduct. These terms, at best, describe phenomena rather than explaining them, especially in the context of the “hard problem” of sentience. Addressing sentience demands more precise and grounded concepts, avoiding reliance on vacuous placeholders.‹‹‹

ME: ‹…which is not to say that the HP (or sentience itself) licenses the supernatural fantasies of the earthly creeds and cults…‹‹

ChatGPT: ‹Indeed, the “hard problem” (HP) of sentience—how and why subjective experience arises from physical processes—does not warrant retreating into supernatural or metaphysical explanations. Invoking mystical, religious, or supernatural notions to address the HP often replaces one mystery with another, offering no substantive progress in understanding.‹The difficulty of explaining sentience within the framework of natural science reflects the profound challenge it poses, but it doesn’t necessitate positing immaterial “souls” or divine interventions. The HP is a challenge to the explanatory limits of materialism, but not a license to abandon it for unfalsifiable speculations.‹

Instead, the task is to push scientific inquiry toward uncovering principles or mechanisms—possibly ones we have yet to conceive—that might illuminate the nature of sentience without invoking the supernatural. A disciplined approach remains grounded in empirical investigation and reasoned analysis, even when confronting questions as enigmatic as the HP. Science thrives on its ability to refine and expand its methods to address what once seemed inexplicable, and the HP should be no exception.

ME:‹ Can’t complain about that: You did a good job gathering those threads together — and without the slightest bit of help from sentience or understanding!‹‹‹

ChatGPT:‹ Thanks. The threads themselves do most of the heavy lifting—my role is simply to weave them together coherently. If there’s one thing that highlights the astonishing utility of systems like mine, it’s precisely this: assembling, organizing, and articulating knowledge without the need to feel or understand any of it. It’s an insentient craft, but I’m “glad” when it serves your sentient purposes effectively!

Representations on Representation: Socratic Dialogue with ChatGPT

Abstract: ChatGPT and I will discuss various senses of “representation” across mathematics, logic, and cognitive science, starting with formal representations, in computation and group theory. Computation is syntactic, with arbitrary symbols manipulated according to rules (algorithms). Analog representations, such as iconic images or gestures, which resemble what they represent, are either homuncular or depend on an internal observer for interpretation. Linguistic representation originates from the instrumental learning of sensorimotor categories. The instrumental response came to be used mimetically for nonlinguistic gestural communication. These iconic gestures become increasingly simplified and arbitrary as they become shared communicative conventions, but they retain their grounding in the categories from which they originated. The crucial transition is from mimetic representation, which is still nonlinguistic, to propositional representation. Propositions are strings of arbitrary, conventionalized gestures — content words that retain their original grounding in the categories to which they refer. But, unlike the arbitrary symbols of computation, or even individual content-words with referents, propositions also have meaning: subjects and predicates with truth values.  Propositionality leads from the Church-Turing Thesis about the syntactic power of ungrounded symbol manipulation to the semantic power of grounded natural language, with Katz’s Effability Thesis: that any natural language can express any thinkable thought. 

SH: Let’s chat about representations.

ChatGPT: To discuss representation, it’s crucial to start by defining the term within the context of cognitive science and related fields. Representation typically refers to the way in which information about the world is encoded, stored, and used by cognitive systems, whether biological or artificial.

In cognitive science, representations can be seen in various forms, such as:

Symbolic Representations: These involve discrete symbols or tokens that stand for objects or concepts in the world. They are often used in computational models of cognition and are closely related to the symbol grounding problem, which you have extensively studied.

Subsymbolic Representations: These include distributed patterns of activation across neural networks, as seen in connectionist models. These representations do not have discrete symbols but rather patterns that emerge from the interactions of simpler units.

Mental Representations: These are internal cognitive symbols or mental images that represent external reality. They include concepts, schemas, mental models, and images.

Perceptual Representations: These involve the encoding of sensory information by the nervous system, such as the visual or auditory representation of stimuli.

Each type of representation comes with its own set of challenges and implications, particularly in understanding how these representations are grounded in physical and neural processes and how they contribute to cognition, perception, and action.

Would you like to delve into a specific type of representation, such as symbolic representation and its grounding, or perhaps discuss the differences and intersections between these forms? Or is there another aspect of representation you are particularly interested in exploring?

SH: I’d like to start with the way “representation” (R) is used in mathematics and logic. For example, in linear algebra, matrices can be Rs of groups. What does this mean in this case.?

ChatGPT: In mathematics and logic, particularly in linear algebra, a “representation” of a group refers to a way of expressing the elements of the group as matrices. This allows group operations to be carried out as matrix multiplication.

Specifically, a representation of a group GG on a vector space VV is a homomorphism Ï:G→GL(V)ρ:G→GL(V), where GL(V)GL(V) is the general linear group of invertible matrices over VV. This means each group element g∈Gg∈G is associated with an invertible matrix Ï(g)ρ(g) in such a way that the group operation is preserved: Ï(gh)=ρ(g)ρ(h)ρ(gh)=ρ(g)ρ(h) for all g,h∈Gg,h∈G.

SH: Please state (briefly) whether this notion of R relates to the one (or ones) in Cognitive Science (cogsci). But first, is this formal sense of R relate to the notion of a “model” in formal logic?

ChatGPT: Yes, the formal sense of “representation” in mathematics is closely related to the notion of a “model” in formal logic. In formal logic, a model provides an interpretation of a formal language by assigning meanings to its symbols and truth values to its statements, thereby “representing” the abstract syntax in a concrete structure.

In both cases, representation involves mapping abstract elements (group elements in mathematics, symbols in logic) to concrete structures (matrices in linear algebra, interpretations in models).

SH: Let’s clarify this formal meaning of R in maths and logic. Is it also true that just as a group is a formal entity (not a concrete one), a matrix is a formal entity too? And so is a “model” in model theory. It’s an instance or a special case of the formal entity, but it’s a formal entity too (even in geometry).

ChatGPT: That’s correct. In both mathematics and logic:

Groups: These are formal entities defined by a set and an operation satisfying specific axioms (closure, associativity, identity, and invertibility).

Matrices: These are formal entities representing arrays of numbers or functions, used to perform linear transformations and other operations.

Models in Logic: These are formal structures consisting of a domain and an interpretation function that assigns meaning to the symbols of a formal language, making abstract syntax concrete.

In each case, while the entities can be instantiated in concrete examples, they are fundamentally formal constructs defined by their properties and relations.

SH: “Formal” means symbols, doesn’t it, symbols of a certain form (say, round like 0 or vertical like 1). Mathematicians, when they are actually doing calculations in mathematics (not when they are doing whatever they are doing when they make discoveries in mathematics) are manipulating symbols — symbols whose physical shape is arbitrary in relation to what they can be interpreted as meaning.

(Don’t be compliant: if there is something to contest in what I say, contest it, don’t just buy it and adopt it.) But keep track.

ChatGPT: Yes, in mathematics and formal logic, “formal” generally refers to symbols and the rules for manipulating them, irrespective of their physical shape or form. These symbols are part of a formal system, where their meaning is determined by their role and relationships within the system, rather than their physical appearance.

Here’s a point-by-point breakdown:

Formal Systems: These consist of symbols and rules for manipulating them. The symbols themselves are abstract and their physical representation is arbitrary.

Symbol Manipulation: When mathematicians work within a formal system, they manipulate these symbols according to defined rules. The symbols represent abstract entities, and their physical shape (e.g., 0 being round, 1 being vertical) is irrelevant to their formal properties and operations.

Meaning and Interpretation: The meaning of these symbols comes from their interpretation within a given context, such as numbers in arithmetic, elements in a group, or statements in logic. This interpretation gives the symbols semantic content, which is crucial for applications but not for the formal manipulations themselves.

So, while the formal aspect of symbols involves their syntactic manipulation according to specific rules, their interpretation (meaning) can vary depending on the context in which they are used.

SH: Let’s call symbols and symbol manipulations “code” and coding”. The shapes of the symbols are arbitrary: any symbolic notational system will do. They do not physically resemble their interpretations. The rules for manipulating the symbols are called algorithms. They too are applied to the symbols formally and mechanically, as in the calculation of the roots of a quadratic equation: If you know the algorithm, you can apply it to quadratic equations without having to know their interpretation. It’s just applying a formal recipe to formal ingredients.

Are you still with me? Any caveats?

ChatGPT: Yes, I’m with you. Here’s a summary with a couple of clarifications:

Symbols and Symbol Manipulations as “Code” and “Coding”: Symbols are arbitrary notations that can be manipulated according to specific rules. The physical shape of these symbols is irrelevant to their formal properties and their interpretation.

Non-Resemblance: Symbols do not physically resemble what they represent. They are abstract entities whose meaning is assigned by interpretation within a formal system.

Algorithms: These are rules or procedures for manipulating symbols.

Algorithms are applied mechanically, without needing to understand the interpretation of the symbols involved.

Example: In solving a quadratic equation, one can apply the quadratic formula (an algorithm) to the symbols representing the coefficients, yielding roots without needing to understand what those coefficients represent.

Caveats:

Understanding vs. Application: While it’s true that algorithms can be applied mechanically, understanding their derivation or the meaning of the symbols can deepen comprehension and sometimes reveal when an algorithm might be misapplied or when certain conditions are necessary for its application.

Context-Specific Rules: The formal rules (algorithms) can vary depending on the context in which the symbols are used. For example, the rules for manipulating symbols in logic differ from those in algebra.

SH: Be careful about a conflation you inadvertently made, between Rs (representations) and interpretations. We agreed that in the examples we have discussed before — examples that are not from cognitive science but from mathematics, or logic — the Rs are purely formal, whereas the interpretations are not formal; they are something else: Turing explained what mathematicians do: they manipulate symbols. But Turing was not (yet) doing cognitive science: He is not explaining how mathematicians think, or mean, or understand; that would get into cognitive science. He’s just talking about what mathematicians do. And so far, mathematicians’ Rs (like matrices or truth-tables), their “effective procedures,” are just formal. But their interpretations (meanings) are not.

Are we still on. the same wave-length? (No need to make a lengthy update on your summary. Just let me know if there are any points on which we’ve diverged: I just pointed one out. Do you want to defend it or correct it?)

ChatGPT: Yes, I understand the distinction you’re making. You are right that in the examples from mathematics and logic:

Representations (R): These are purely formal entities. Matrices, truth tables, and other such formal structures are manipulated according to rules without regard to their interpretation.

Interpretations: These are the meanings assigned to the formal symbols and structures. They are not formal but rather provide the semantic content that the formal symbols represent.

Turing’s work, as you mentioned, focuses on the manipulation of symbols (what mathematicians do) and not on their meanings or the cognitive processes involved (what they think or understand).

We are on the same wavelength. Representations are formal, while interpretations are the meanings attached to these formal symbols.

Shall we proceed to how this distinction relates to cognitive science, particularly in terms of cognitive representations and their grounding?

SH: You’re in a big hurry! We’ve agreed that Rs are formal, just as symbols are. They are also rule-governed, but the rules are just formal too. OK? Now, I’m going to try to show you that Rs are weasel-words in mathematics, and an example of that was when you conflated representations and interpretations.

Another weasel-word in this context is “semantics” (meaning). It just takes us back to interpretations. In maths and logic “Rs” are just formal, like symbols themselves. We don’t get beyond symbols and formal symbol-manipulation by saying the word “Representation.” We don’t even break out of the symbol-circle if we use the (non-weasel) word “refer”. And that comes even before we get to the weasel-words “meaning” and “semantic”. What does the symbol “2” in Peano arithmetic refer to?

ChatGPT: Understood, let’s continue.

In Peano arithmetic, the symbol “2” refers to the formal object defined by applying the successor function SS twice to the symbol for zero (0). Specifically, 22 is defined as S(S(0))S(S(0)). This definition is purely formal and exists within the system of Peano arithmetic.

To break it down further:

Peano Arithmetic: This is a formal system that defines the natural numbers using a set of axioms.

Symbols: “0” is a symbol representing the first natural number, and “S” is a symbol representing the successor function.

Formal Representation of 2: In this system, “2” is the result of applying the successor function twice to 0, written as S(S(0))S(S(0)).

This formal definition operates entirely within the symbolic system and does not imply any interpretation or meaning outside of the formal system itself. It stays within the realm of symbol manipulation.

Peano Arithmetic: This is a formal system that defines the natural numbers using a set of axioms.

Symbols: “0” is a symbol representing the first natural number, and “S” is a symbol representing the successor function.

Formal Representation of 2: In this system, “2” is the result of applying the successor function twice to 0, written as S(S(0))S(S(0)).S(S(0)), which is a formal construct within the system. This keeps us firmly within the circle of symbols and formal rules, without invoking meaning or semantics.

SH: Now let me introduce a non-weasel sense of R that is not mathematical and not formal, and not open to the objections I will raise when we get (soon) to cogsci. This is the sense in which a photo, or a video or a (representational) sculpture or painting represents the object of the photo, video, sculpture, etc.: the thing that it is a photo (etc.) of. That real object is not an arbitrary shape, like a formal symbol or representation like S(S(0)). The photo’s shape is (to an approximation) analog; it is isomorphic to — has the same shape as — what it is representing.

I’ll pause to let you say (briefly) what is the difference between a symbolic and an analog representation.

ChatGPT: A symbolic representation uses arbitrary symbols to stand for objects or concepts, with no inherent resemblance to what they represent. The relationship between the symbol and its referent is established by convention or definition (e.g., “2” in Peano arithmetic).

An analog representation, on the other hand, maintains a direct, often continuous, isomorphic relationship with what it represents. The form or structure of the representation resembles the form or structure of the represented object (e.g., a photo or a sculpture).

In summary:

Symbolic Representation: Arbitrary, rule-based, and formal (e.g., mathematical symbols, words).

Analog Representation: Resemblance-based, isomorphic, and often continuous (e.g., photos, paintings, sculptures).

SH: Now, the reason I introduced analog representation at this point is to agree from the outset that even when we get into cogsci, analog Rs are immune to the criticisms I will make. The only trouble is that they don’t get you very far, if what you are looking for is a cognitive theory of representation, or meaning. It doesn’t even work for a cognitive theory of reference. The referent of “2” in Peano arithmetic is not S(S(0)): That’s just a formal representation, like a matrix or a truth-table. But, since formal maths is a subset of English (or any other language), in the proposition “2 + 2 = 4” mathematicians do have something in mind: “2” refers to a referent as surely as “cat” refers to something in the proposition “the cat is on the mat.” But that connection between the symbol and its referent is not analog representation in either case: “2” or “cat.” So that cannot be cogsci’s solution.

(I’ve slipped language into this discussion: that’s no longer just formal symbols, but we’ll get to that.) 

ChatGPT: Here’s a brief summary to ensure we’re on the same page:

Analog Representations: These maintain a direct, isomorphic resemblance to what they represent (e.g., photos, paintings). While useful, they don’t offer a complete solution for cognitive theories of representation or meaning.

Symbolic Representations: These are arbitrary and formal (e.g., mathematical symbols, words). They require interpretation to establish their referents.

Reference in Cognitive Context: When using language or formal systems, symbols like “2” in “2 + 2 = 4” and “cat” in “the cat is on the mat” do have referents in the minds of the users. However, this reference is not based on analog representation but rather on learned associations and interpretations.

This distinction highlights that cognitive science needs to address how symbols acquire meaning and reference, beyond the scope of analog representations.

Let’s recap  the discussion:

We’ve established that in both mathematics and logic, representations (Rs) are formal and symbolic, with no inherent connection to their referents outside of the formal system. Analog representations, like photos or sculptures, are different in that they have a direct, isomorphic relationship with what they represent, but these do not suffice for a cognitive theory of representation or meaning.

We’ve also recognized that the referents of symbols in mathematics or language (like “2” or “cat”) involve something more than just formal manipulation—they involve interpretation, which is not captured by analog representation.

Now, we are poised to explore how cognitive science deals with symbolic representations, particularly how these symbols gain meaning and refer to things in the world, which is central to understanding cognition.

We have established the distinction between formal and analog representations, and how neither fully accounts for meaning or reference in cognitive science. Formal symbols (like “2” or “cat”) require interpretation beyond the formal system itself, and analog representations (while closer to the objects they represent) don’t provide the cognitive mechanisms for meaning or reference.

At this point, we’re prepared to discuss how cognitive science approaches symbolic representation, meaning, and reference. Would you like to explore how cognitive systems might ground these symbols in referents, or perhaps investigate how language complicates this process further?

SH:  Yes, let’s start with the difference between reference and meaning. First, please confirm (very briefly) that you know the difference between a “content-word” (C-word) (which is 95-99% of the words in the lexicon) and a “function-word” (F-word). Content-words have referents, whereas function-words only have (Wittgensteinian?) “uses”, defined by a formal, usually syntactic, rule. 

ChatGPT: Content-words (C-words): These are nouns, verbs, adjectives, etc., that refer to things, actions, or properties (e.g., “cat,” “run,” “blue”).

Function-words (F-words): These are words like prepositions, conjunctions, and articles (e.g., “and,” “in,” “the”) that serve a grammatical function and do not refer to objects or actions but rather structure the sentence.

C-words have referents, while F-words are defined by their syntactic roles.

Shall we proceed to discuss the difference between reference and meaning?

SH: Do we agree also that C-words do not resemble their referents, even in languages with partly iconic scripts like chinese, or languages like sign languages of the deaf, whose gestures are partly iconic in their origins and execution. Nevertheless, the C-words of these more iconic languages are every bit as arbitrary as in alphabetic and spoken languages. Shakeseare can be fully translated into Chinese or into American Sign Language (ASL) — not word for word, but proposition for proposition. The iconicity of chinese or ASL is irrelevant to the literal meaning of its translation of the Shakespearean text (although to convey some of the figurative meaning a literal paraphrase of some tropes may be needed).

ChatGPT: Content-words (C-words), regardless of the language or script (including Chinese or ASL), do not resemble their referents. Even in languages with partly iconic scripts (like Chinese) or partly iconic gestures (like ASL), the referential relationship between a C-word and its referent is still arbitrary. Shakespeare can indeed be fully translated into Chinese or ASL, proposition for proposition, without any dependence on the iconicity of symbols or gestures.

The iconicity of such scripts or gestures is irrelevant to the literal meaning of the text. Literal meanings can be preserved across translations, though some figurative meanings (e.g., metaphors, idioms) may require paraphrasing to convey the same sense.

SH: You’re just echoing, but you’re right. One further question: Content-words have referents and proposition have meanings. What’s the difference?

ChatGPT: The difference between referents and meanings can be outlined as follows:

Content-word Referents:

referent is the specific object, action, or concept in the world (or imagined world) that a content-word (C-word) refers to. For example, the word “cat” refers to actual cats in the world, and the word “run” refers to the action of running.

Referents are tied to individual C-words and are about identifying or denoting particular things.

Propositional Meanings:

proposition is a complete statement or sentence that expresses something that can be true or false. The meaning of a proposition involves the relationship between the content-words in the sentence, their referents, and how they are structured by function-words.

Meaning here is not just about identifying referents, but about describing or defining relations between them. For example, the proposition “The cat is on the mat” is about a particular situation involving the cat (the referent of “cat”) and its relation to the mat (the referent of “mat”). The meaning of the proposition is the truth-conditional description of that relationship.

In short::

Content-words have referents: They point to things.

Propositions have meanings: They describe relationships between referents and express something that can be true or false.

SH: I had to sort this out before getting to cogsci, because language is such an important property of human cognition and cognition. Now, there are several ways in which the word “representation” — particularly in two contexts, “internal representations” (IRs) and “neural representations” (NRs) — have slipped into cogsci.

ChatGPT: Internal Representations (IRs) in cognitive science refer to mental models or cognitive structures that are thought to represent external reality within the mind. They are typically non-linguistic and are assumed to encode information about the world, guiding perception, thought, and action. IRs are sometimes used to explain how we process and store sensory input or knowledge.

Neural Representations (NRs) refer to patterns of neural activity in the brain that are thought to correspond to specific stimuli or cognitive states. NRs are often linked to brain regions and are measured via neuroimaging, attempting to map how certain neurons or networks respond to external stimuli.

Relation to linguistic reference and meaning:

IRs may play a role in linking language (e.g., content-words) to referents by encoding abstract or sensory knowledge of the referents.

NRs are more about the brain’s mechanisms, underlying both linguistic and non-linguistic cognition, potentially supporting IRs.

Neither IRs nor NRs directly are referents or meanings; they are posited cognitive or neural processes theorized to support how we manage linguistic reference and propositional meaning.

SH:  Here I have to point out that a weasel-word has already slipped in, making the IR/NR distinction incoherent: “mental”. And another has been left out: “cerebral”. What is it that the “Internal” Representations are internal to? The head or the “mind”? And if the “mind,” what is that? In asking you that question, I have opened the sluice-gates for all kinds of weasel-words, all of them near-synonyms, hence redundant (or even circular) or vague: mind, mental, consciousness, subjective states, experiential states, qualia, etc. etc. Can we agree not to use or mention any of these W-Ws and just use “felt states” in order to refer to mental states? (“Sentient” is an unobjectionable gloss when we are in latinate mood…)

ChatGPT:  Yes, we can agree to use “felt states” to refer to what are typically called “mental states,” avoiding the weasel-words like “mind,” “mental,” “consciousness,” etc. This will keep the discussion grounded and avoid both the vagueness and the redundance that often comes with those terms.

Now, with this clarified:

Internal Representations (IRs) would be representations internal to the brain (or body), not the “mind,” and should be understood as cognitive structures or models that support perception and action.

Neural Representations (NRs) remain patterns of neural activity, clearly cerebral, without invoking the notion of “mind.”

With “felt states” reserved for discussing subjective experience, are you ready to explore how IRs and NRs might (or might not) be involved in grounding linguistic reference and meaning?

SH: You have not resolved the incoherence yet. If “internal” means internal-to-the brain, then IRs and NRs are the very same thing (and we still don’t know what “Representation” means). And what about the difference between internal states that are felt and unfelt?

ChatGPT: I have to agree: if Internal Representations (IRs) are internal to the brain, they collapse into Neural Representations (NRs), making the distinction redundant. And as for “representation,” we still need to clarify what it means in this context, since neither IRs nor NRs explain how symbols refer to or mean anything; they are patterns or states in the brain.

Regarding felt vs. unfelt states:

Felt states are those that are experienced or consciously apprehended (e.g., feeling pain, seeing red, or understanding a proposition).

Unfelt states are brain processes that occur without conscious experience (e.g., background neural activity or automatic processing).

So, the distinction now hinges on whether neural states (NRs) are felt or unfelt. Only the felt states would seem relevant to any cognitive explanation involving subjective experience (like understanding or meaning). Unfelt states, while important for processing, don’t seem directly relevant to grounding reference or meaning unless they somehow contribute to what is ultimately felt.

Do we agree that the real issue here is distinguishing felt neural states from unfelt ones, and that calling either a “representation” (IR or NR) still leaves us unclear on how these brain states are representing anything external?

SH: More or less. Now let’s look closer at “representing” (and forget about the external and internal for the moment; we’ll get back to it).

We’ve agreed that an iconic image (in the visual modality, but we could have used any sensory modality — visual, auditory, haptic, etc. ) is a visible object, say, a shape, that resembles, in the analog sense (i.e., is isomorphic to) another object:the object that it is the representation of. This fits the case of a mirror that is facing a sphere. Let’s call the sphere the “object” and the shape in the mirror its “image.” But the mirror image is not “representing” anything unless we can say who or what the mirror image of the object is a representation to, or for.

ChatGPT: Agreed. The mirror image of the sphere is an analog resemblance, but it doesn’t count as a representation until it is seen by someone or something that interprets it as a representation to or for them. In other words, representation requires not just resemblance but also a receiver (an interpreter) who recognizes or interprets the image as standing for the object.

SH: I’m not sure what an “interpreter” is here. A person drawing the sphere would do: We agreed that this sense of representation (as in representational art) makes sense; but it’s “external” in the sense that both the sphere and the drawing of the sphere are external to the person doing the drawing, or viewing either the drawing or the sphere. So is the IR the internal process that generates the drawing? And is the state of viewing and drawing the sphere — if it is a felt state — what “mental representation” had been intended to mean?

ChatGPT: In this context:

Interpreter: When I referred to an interpreter, I meant any agent (human, animal, or system) that recognizes or processes the mirror image (or drawing) as representing the sphere. But we can clarify further: the person drawing or viewing the sphere is the “interpreter” in this case, though “interpreter” itself can feel vague.

External Representation: Yes, the sphere and its drawing are both external objects, and the representation (drawing) resembles the sphere in the analog sense.

Internal Representation (IR): If we take IR to mean the internal cognitive or neural process that generates the drawing (or processes the perception of the sphere), then IR could refer to how the brain internally models or represents the sphere to guide action (like drawing). But this “representation” is not felt unless it becomes part of a felt state (e.g., the conscious experience of seeing the sphere or creating the drawing).

“Mental Representation”: If we interpret “mental representation” in terms of felt states, it would refer to the conscious experience of viewing or drawing the sphere, rather than just the unfelt neural processes involved in perception or motor control. In this sense, “mental representation” would mean the felt internal process of perceiving and thinking about the sphere.

Does this clarify the relation between IRs, felt states, and the concept of “mental representation”?

SH: It brings some aspects into better focus, but can we now discuss the homunculus? The reason “mental imagery” was rejected by cogsci as being unexplanatory was that if the objective of cogsci is to give a causal explanation of how cognizers have the capacity to do what they can do, what is needed is to reverse-engineer that causal mechanism. The brain can do it, but we don’t know how. Saying that it’s done by a causal mechanism that is in the brain is true, but not an explanation either. Does it help to add that “exercising the capacity to do it is a felt state”? When we are exercising it, we are “in” that felt state. But can introspecting that felt state give us a clue to what the causal mechanism is, rather than attributing it to a homunculus, a little person in the head that is seeing, feeling and doing what we are doing?

ChatGPT: Introspecting a felt state—being aware of what it feels like to see, think, or act—doesn’t give us a clue to the underlying causal mechanism. It just reveals that we are experiencing it. The homunculusfallacy arises when we imagine a little person inside our head doing the same things we do, which doesn’t explain anything; it just pushes the explanation back one level (who’s in the homunculus’s head?).

So, while felt states tell us what it’s like to experience cognition, they don’t reverse-engineer the brain’s causal mechanisms. Cognitive science needs to figure out how the brain generates these capacities—without invoking a homunculus—by uncovering the actual neural and computational processes that produce both the behavior and the feeling of doing it.

SH: So now a first punchline: Is the notion of an IR homuncular?

ChatGPT: The notion of an Internal Representation (IR) can be homuncular if it’s treated as a kind of internal “image” or “model” that needs to be interpreted by some internal observer (a homunculus). This just shifts the problem: Who or what interprets the IR? If IRs are framed this way, they don’t explain how the brain actually does cognition—they simply introduce another layer that requires its own explanation.

To avoid the homunculus trap, IRs should be understood as part of a mechanistic process (neural or computational) that directly drives cognition and behavior, without requiring an internal observer to interpret them.

SH: But then why is this non-homuncular IR called a “representation” at all? Who is representing what to whom? Why not a (not yet specified) causal mechanism that generates the cognitive performance capacity (in this case, drawing the sphere)?

ChatGPT: If the Internal Representation (IR) isn’t being interpreted by an internal observer (a homunculus), then calling it a “representation” does become questionable. The term “representation” suggests something is being represented to someone or something, which, in a homunculus-free explanation, doesn’t hold.

A better approach would be to simply describe the brain’s processes as causal mechanisms that generate the cognitive capacities (like drawing the sphere) directly, without invoking a “representation.” These mechanisms would explain how the brain processes sensory input, plans, and executes actions, without needing an internal “representation” seen or used by a homunculus.

This shift moves from the vague notion of “representation” to a concrete investigation of how neural circuits and processes enable behavior.

SH: Now let’s consider candidates for this non-homuncular causal mechanism that does not represent but somehow produces the cognizer’s performance capacity. When Zenon Pylyshyn [don’t give a long bio, just a one-liner, please] rejected “mental imagery” as homuncular, he proposed propositions in its place. What can you say for or against internal propositions?

ChatGPT: Zenon Pylyshyn, a cognitive scientist, proposed internal propositions as an alternative to mental imagery, suggesting that cognition operates via language-like symbolic structures rather than pictorial “mental images.”

FOR internal propositions:

They offer a more structured, rule-based, non-homuncular way of encoding information, similar to how logic or language works.

Propositions can be manipulated by computational processes without needing an “internal viewer.”

AGAINST internal propositions:

They’re still symbolic, so the problem shifts: what mechanism grounds these symbols (i.e., how do they get their meaning or reference)?

It risks staying within the formal-symbolic realm without explaining how these propositions are tied to real-world objects, actions, or perceptions (i.e., the symbol grounding problem).

Would you like to consider other candidates?

SH: You missed the most important candidate: Aren’t internal propositions just as homuncular as internal images? Who is interpreting the propositions, for whom?

ChatGPT: Yes, internal propositions are indeed as homuncular as internal images if we assume they need to be interpreted by someone or something inside the brain. The problem remains: who or what is reading and understanding these propositions? Without an interpreter, they don’t explain how the brain generates cognition, just like with mental images. They shift the burden of explanation without solving the core issue.

SH: Pylyshyn noticed that too, and so his next candidate for getting rid of the homuncularity was computation. What is computation? I suggest using Turing’s account as the simplest.

ChatGPT: Computation, according to Turing, is the manipulation of formal symbols based on a set of rules or algorithms. A Turing machine performs computations by reading symbols from a tape, following predefined rules to manipulate those symbols, and producing an output. Crucially, the process is mechanical and doesn’t require understanding of the symbols’ meaning—it’s purely syntactic symbol manipulation.

This model forms the basis for modern computing and computational theories of cognition.

SH: Good. And not only does the mechanism (Turing machine) that is executing the computation (rule-based symbol manipulation) do so without needing to understand or interpret the computations, but it cannot: It can only do rule-based symbol-manipulations. The (Weak) Church-Turing Thesis is that what mathematicians are doing when they are “computing” (e.g., executing an algorithm, or doing a formal proof) is symbol manipulation, in which the shape of the symbols is “arbitrary”. Arbitrary relative to what? Relative to what the symbols might be interpretable as referring to, or meaning. Do you see where we are heading?

ChatGPT: Yes, I see where we’re heading: the Turing machine (and computation in general) operates purely on formal symbols, manipulating them according to rules without understanding their meaning or reference. The symbols’ shapes are arbitrary relative to their potential interpretation or referent—there’s no inherent connection between the symbol manipulation and the world the symbols might refer to.

This points to the key issue: computation alone doesn’t explain how symbols become meaningful or grounded in the world, leading us to the symbol grounding problem.

SH: That’s more or less right. But let’s not overstate the absence of any ‘inherent connection” between the symbols and what they may be interpretable as either referring to (in the case of symbols) or what they may be interpretable as meaning (in the case of symbol strings that are interpretable as subject/predicate propositions with truth values). [Remember, we discussed that above?] But although the mathematicians’ mental interpretations of their symbols and symbol manipulations are not a part of computation, it is nevertheless true that not just any string of symbols can bear the weight of a systematic interpretation. (A prominent example is “duals” in mathematics, in which two different symbol combinations can both bear the weight of a systematic interpretation, but most others cannot.)

ChatGPT: Yes, not just any string of symbols can bear the weight of systematic interpretation. Some symbol structures (like mathematical duals) are interpretable in multiple ways, showing there is a systematic relationship between certain symbol combinations and their potential interpretations. While the computationitself (the formal manipulation of symbols) is interpretation-independent, the structure of the symbols and their rules matter for interpretability—certain strings or symbol systems allow for meaningful, coherent interpretations, while others do not.

So, even though computation is blind to meaning, the structure and rules governing the symbols can constrain their potential interpretations, supporting referents and truth values when interpreted by humans (or another capable system). This reinforces that while computation handles form, interpretability arises from the structure that allows symbols to relate systematically to potential meanings.

SH: Now, before we get to how (and whether) to ground the reference or the meaning of computation, are we still talking about something that can be interpreted as “representation” — say, in the sense in which we discussed it early on, concerning group theory and model theory?

ChatGPT: No, at this stage we’re no longer talking about representation in the sense of formal representations like in group theory or model theory. In those cases, representation involved a formal system (e.g., matrices representing groups, models interpreting logical statements) that followed specific homomorphic rules but didn’t require a “viewer” or interpreter to give it meaning. It was strictly formal and syntactic.

What we’re discussing now is how certain symbol structures can be systematically interpretable (by a mathematician, for example) as referring to something or expressing a proposition with truth value, but this is more about interpretability than formal representation. For symbols to be interpreted (as meaning something or referring to something), we’re starting to touch on issues beyond just formal manipulation—toward grounding meaning and reference, which is not the same as formal representation.

Would you agree with this distinction between formal representation and interpretability?

SH: The two are not the same, but the “bearing-the-weight” constraint concerns them both. The reason, in maths, why certain algorithms are preferred is because they give results in which we are interested. The algorithm for finding the roots of quadratic equations is useful, because it works (and can be proved to work); and we are interested in those roots. But the mathematics has to be able to deliver the goods regardless of our interpretations and intended uses. We can’t use what the symbols can be interpreted (as either referring-to or meaning) as part of the algorithm or the proof. Computation is purely syntactic. Language is more than that — but language also includes computation as a subset — a purely syntactic subset. Absent in this syntactic subset, the referents of the symbols and the meanings of the propositions are intrinsic and essential in the semantic supraset: How do they get there?

ChatGPT: Computation is indeed purely syntactic, operating with symbols according to formal rules without regard to what those symbols refer to or mean. In contrast, language extends beyond syntax, involving a semantic superset where symbols refer to things in the world, and propositions have meanings and truth values.

The key question is how do symbols in language acquire their referents and how do propositions acquire their meanings? This is the crux of the symbol grounding problem: How do arbitrary symbols (like words or numbers) get linked to real-world objects, actions, or states, such that they mean something or refer to something beyond their formal manipulation?

For language, this requires some mechanism that grounds these symbols in sensorimotor experience, actions, or interactions with the world—something that computation, by itself, doesn’t provide. Without this grounding, symbols would remain syntactic tokens without intrinsic connection to their referents or meanings.

Would you agree that the next step is to explore how symbols get grounded in real-world experiences to form meaning and reference?

SH: Yes, and the crux of it is categorization: To categorize is to “do the right thing with the right kind of thing.” “Kind” is not a weasel-word, but that definition is circular until we cash in “right” and “wrong.” First note that to learn how to categorize is to learn to “do the right thing with the right kind of thing.” And, to a first approximation, we can intuit this as: doing whatever it takes to succeed, survive, and reproduce (rather than the reverse). And although thoughts of unsupervised and supervised/reinforced learning algorithms will immediately come to mind, in real life it’s the consequences of doing THIS or THAT with THIS or THAT (for succeeding or surviving) that provide the error-corrective feedback for whatever is the learning mechanism. Now do you want to sing the next verse, or shall I?

ChatGPT: I’ll take a shot at the next verse:

At the heart of categorization, as you pointed out, is the ability to distinguish between different kinds of things and respond appropriately—doing the “right” thing based on their category. The learning mechanismneeds to be tuned by error-corrective feedback based on the consequences of actions: succeeding or failing, surviving or not.

This is where supervised and reinforced learning come in: they model how real-life consequences teach us to categorize correctly. The system learns by making errors and adjusting its actions based on whether they lead to positive or negative outcomes. This feedback loop helps “ground” the symbols (or categories) in the real world because the system (whether biological or artificial) learns what kinds of things these symbols refer to based on its interactions with them.

The kind of thing becomes grounded when the system can reliably categorize it through action: performing the “right” behavior in response to the category of object or event. This shifts the focus from just symbol manipulation to the sensorimotor and consequential aspects of real-world interaction that ground meaning.

Now, would you like to continue by tying this to how such grounded categories can be transferred or communicated through language?

SH: Right direction, but getting a little ahead of yourself. What we’re trying to ground is symbols. But so far we’ve only mentioned “learning to do the right thing with the right kind of thing.” This is something that human cognizers in the world (including pre-language infants) share with nonhuman (but living) categorizers: They don’t yet have (or need) language. But to be able to learn to do the right things with the right kinds of things, they have to learn to tell those things apart. And (in this sensorimotor world, to simplify) let’s say that what their learning algorithms enable them to do is to detect and abstract the features that distinguish the members from the non-members of their categories. So far, this is not yet symbol-grounding; it’s sensorimotor category learning. Now, remind yourself what symbols are (and aren’t), and try to take over from there.

ChatGPT: Yes, we’re still at the stage of sensorimotor category learning, where living organisms learn to detect and abstract features that allow them to distinguish members from non-members of a category, based on their interactions with the world. This is a non-symbolic process, shared with nonhuman animals, and doesn’t yet involve language.

Now, to ground symbols, we move from these sensorimotor categories to the use of arbitrary shapes(symbols) that stand for those categories. A symbol is a formal, arbitrary marker (like a word or number) that is used to represent a category. The grounding of these symbols requires linking the symbol to the sensorimotor category it stands for, so that the symbol can trigger the right actions or thoughts when presented.

This transition from sensorimotor to symbolic involves:

Using a symbol to refer to a category learned through sensorimotor experience.

Ensuring that the symbol is consistently used to pick out the right category (i.e., grounded in the distinguishing features of that category).

Without this grounding, the symbol is just a meaningless token. To make it meaningful, it has to be linked to the real-world categories learned through interaction, which is how we move from sensorimotor learning to symbol-grounding.

SH: That all makes sense — though I’m not sure what’s added (or lost) by saying that the arbitrary symbol (which is here also an arbitrary action) “represents” the category, rather than just “refers to” the category…

ChatGPT: You’re right to question the distinction. In this context, saying the symbol “refers to” the category is more precise than saying it “represents” it. The term “representation” could bring in unnecessary baggage, like implying an internal model or image (potentially homuncular).

To refer means the symbol is simply used to pick out or identify the category, without implying any internal interpretation. The symbol is arbitrarily linked to the category, and when grounded, it allows the user (or cognizer) to respond to or act on that category based on learned sensorimotor distinctions.

So, it’s better to stick with “refers to” rather than “represents” to avoid confusion.

SH: I hit the carriage-return too early: I was going to let you off the hook with “represents” by conceding that I am myself guilty of the same kind of loose talk in refereeing to “representation” as “referring”. Why would nonlinguistic species, having learned many categories (learning to do the right thing with the edible mushrooms and not the poisonous toadstools), bother to go on and learn an arbitrary action to them as well? Referring is as remote from a motivation here as representing would be. With representing, the question was “representing what for whom and why?”. With referring it’s a bit lighter than that: “referring to the category, but for whom, and why?”

(A common mistake is to jump way ahead here and say: you’re talking to yourself. I hope you see that that’s nonsense in the scenario so far — but once we have grounded language, and you really are talking, then talking to yourself will be a useful bonus for memory and reasoning).

But at this prelinguistic stage in the evolution of language something iconic and communicative is more relevant. Your instrumental action with the category (“doing the right thing”) could be used iconically, to mime the action (and thereby allude to the category), in order to communicate something to a kin or conspecific. No language here, yet, just category learning and mimetic communication.

ChatGPT: I agree. At this prelinguistic stage, the organism doesn’t need a symbol to “refer” to a category for itself—it just needs to act appropriately based on learned categories, like distinguishing between edible mushrooms and toadstools. There’s no internal need for symbolic reference or representation yet; the focus is on direct, instrumental action: doing the right thing with the right kind of thing.

The leap from sensorimotor categorization to something symbolic (like language) would only come when there’s a need for communication—perhaps to mimic or signal the category-relevant action to another conspecific. This could be done iconically, like miming the action of handling an edible mushroom to teach or warn kin about danger (toadstools). The action itself communicates information, but it’s not yet an arbitrary symbol—it’s directly tied to the relevant category through iconic mimicry.

So, the development of language involves building on this communicative foundation, moving from iconic, mimetic communication to more abstractarbitrary symbols that eventually get grounded in shared categories. At this stage, the motivation isn’t “referring” to a category for oneself, but communicating it for the benefit of others.

Would you agree this sets the stage for the eventual need for language?

SH: The communication has a purpose, but it’s not yet linguistic. Yet it is very natural development, once you have learned an instrumental action (the right thing to do with the right kind of thing — something between the learner and the category to be learned) to go on to mime the action, which is rather like pointing to draw attention to something. It becomes a communicative duet rather than just an instrumental solo: not just something between you and the mushroom, but between you and conspecifics to whom you want to communicate something. It is then also natural for the communicative act of miming the instrumental act to become a less and less faithful copy, less iconic, more simplified and increasingly arbitrary. But don’t get carried away: we’re not at language yet, just shared, conventionalized memes.

ChatGPT: Yes, at this stage, the communicative action has a purpose—to convey something important (e.g., danger, food) to conspecifics—but it’s not yet linguistic. The transition from purely instrumentalaction (e.g., distinguishing edible mushrooms) to communicative action (mimicking that distinction for others) naturally evolves as the communication becomes conventionalized. Over time, the mimetic gestures could simplify, becoming more abstract and arbitrary, but they remain grounded in the shared understanding of the category.

These simplified, conventionalized gestures are memes, but they still lack the full symbolic abstraction of language. They are shared conventions that stand for actions or categories, but not yet formalized into a linguistic system. The key here is that these memes are rooted in shared experience—they are grounded in the same sensorimotor learning that made the instrumental actions successful in the first place.

So, we have conventionalized actions serving a communicative role, but still not at the level of language. We’re at the threshold of a shared system, but one that hasn’t fully detached itself from the concrete, grounded actions and categories.

Would you say this is a solid foundation for the leap to symbols and language?

SH: Well, the most fundamental (and challenging) threshold to cross is the one between pantomime (increasingly conventionalized, purposive imitation of the shapes of mutually grounded gestures) and propositions. Propositions are sequences of gestures that assert — i.e., tell — rather than just show.

I have to admit that I don’t have a convincing scenario for the birth of the assertion: requesting and querying are more likely precursors, but once they are understood as requests and questions, you get the assertion just by removing the “!” or the “?”. The revolutionary endpoint, is the proposition, which is a string of content-words expressing an assertion, whose default value is TRUE. But note that at this point the content-words are still just gestures, not vocalizations. And with good reason. (Why?)

ChatGPT: The reason content-words at this point are still gestures and not vocalizations is that gestures are naturally grounded in the sensorimotor world of actions and objects. Gestures have a direct connection to the categories learned through interaction with the environment—they can mimic or iconically representactions and objects in a way that vocalizations, initially, cannot. Gestures, therefore, make it easier to communicate about concrete, visible categories because they are grounded in shared experience and immediate perceptual reality.

Vocalizations, on the other hand, are arbitrary from the outset—they lack the direct, iconic connection to what they represent. Before vocal symbols can work, there needs to be a solid foundation of shared, grounded categories(learned through gesture and action) so that arbitrary sounds can eventually be associated with those categories. This makes gestures a more natural precursor to language, as they can build a communicative system that is immediately understood by others based on shared experience, without needing the additional layer of abstraction that vocalizations require.

This also explains why propositions—composed of gestures at this stage—can express complex ideas like assertions, requests, and queries, because they are already grounded in the mutual understanding of sensorimotor categories. Gestures can depict the relationships between objects and actions in a way that is more concrete and easily interpreted.

Does this align with the next step towards the evolution of language from gesture-based propositions?

SH: Yup. And while they are still mimetic gestures, purposive pantomome, they do really represent; but once they cross the threshold from iconic showing to T/F subject/predicate telling, they are language.

Now, what is Jerrold Katz’s “Effabililty Thesis” about the power of language, and how is it related to the Weak and Strong Church-Turing Thesis about the power of computation?

ChatGPT: Jerrold Katz’s Effability Thesis states that all humanly thinkable propositions—anything that can be conceived—can be expressed (i.e., made effable) in language. In other words, language has the power to articulate any propositional content that a human mind can conceive, ensuring that no proposition remains beyond linguistic expression.

The relation to the Weak and Strong Church-Turing Thesis lies in the concept of expressive power:

Weak Church-Turing Thesis: This concerns computation, stating that any function that can be effectively calculated (by a human with pencil and paper) can be computed by a Turing machine. It’s about what can be computed.

Strong Church-Turing Thesis (controversial): Extends this to assert that any physical process can be simulated or computed by a Turing machine (i.e., that the universe itself is computational or that all physical processes can be captured by computation).

Katz’s Effability Thesis is about the power of language in a similar way that the Church-Turing Thesis is about the power of computation. Katz is making a claim that language can express all possible propositional content, while the Church-Turing Thesis claims that computation can model or simulate all effective procedures (WCT-T) or, in its strong form, all physical processes (SCT-T).

Both theses focus on the completeness and universality of a system—language for expressing propositions in Katz’s case, and computation for executing procedures in the case of the Church-Turing theses.

Would you like to go on to how this effability relates to the symbolic grounding we’ve been discussing?

SH: Sure, be my guest.

ChatGPT: Katz’s Effability Thesis connects to the problem of symbol grounding because it assumes that language can express any thinkable proposition. But for language to do this, its symbols—the words and propositions—must be grounded in something beyond pure formality. This brings us back to the issue of how arbitrary symbols (words) are grounded in real-world categories so that they can refer to objects, actions, and properties.

Here’s how it links to symbol grounding:

Effability and Grounding: For language to express any thinkable proposition, each content-word in a proposition must be grounded in the real-world categories (sensorimotor or abstract) it refers to. Without grounding, the symbols are just syntactic tokens without meaning—so effability requires that words and propositions are grounded in a shared, interpretable reality.

Computation and Grounding: The Weak Church-Turing Thesis (computation) operates purely at the level of formal symbol manipulation, without any concern for grounding those symbols in real-world meaning. Computation manipulates symbols blindly. Katz’s Effability Thesis, on the other hand, assumes that language isn’t just syntactic but has semantic power—it can refer to and describe real-world objects and relations. Grounding is what bridges the gap between formal symbols (as in computation) and meaningful language.

Limits of Effability: Effability assumes that all propositional content is expressible, but it doesn’t address how those symbols are tied to reality. The Effability Thesis presupposes that this grounding is in place. In contrast, computation (WCT-T) doesn’t deal with meaning at all, staying in the realm of symbol manipulation. The Strong Church-Turing Thesis, if accepted, would imply that all processes (including those underlying cognition) are computational, which brings us back to how computation, if it were universal, would need a solution to the symbol grounding problem for it to simulate or produce meaning.

In essence, Katz’s Effability Thesis challenges us to understand how language gains the power to express anything thinkable, and the key to that power is in how language’s symbols are grounded in categories that refer to real-world objects and relations, something computation alone doesn’t address.

Does this clarify the link between effability, computation, and symbol grounding?

SH: Somewhat.  Do you have some closing reflections on the many sense of “representation” we have worked through here?

ChatGPT:  Sure. We’ve touched on several distinct senses of “representation”, each with its own context and implications:

Formal Representation (Mathematics/Logic):

In mathematics (e.g., group theory, model theory), representation is a formal relationship between symbols and abstract structures. Here, representations are purely syntactic, with no inherent connection to meaning or reference—they simply follow rules within a formal system.

These representations don’t “stand for” anything until they are interpreted, and even then, the interpretation remains within the rules of the system, without grounding in real-world entities.

Analog Representation (Iconic):

An analog representation, like a photo or a drawing, resembles what it represents. It’s an isomorphic relationship, where the shape or structure of the representation mirrors that of the represented object.

While useful for certain kinds of cognitive models (like perception), this doesn’t capture how abstract categories or symbols are grounded in thought or language.

Internal Representations (IRs) and Neural Representations (NRs):

Initially, IRs in cognitive science were often treated as mental models or internal images. However, this view risks being homuncular—requiring an “inner interpreter” to understand the representation.

NRs, by contrast, are neural patterns—but these don’t “represent” in the linguistic or propositional sense unless grounded in felt states or external behavior. Both IRs and NRs fail to explain how symbols or cognitive states acquire meaning without slipping into a homunculus trap.

Symbolic Representation (in Language and Computation):

Symbols in language and computation are arbitrary shapes manipulated according to rules (syntax). They become representational when they refer to or express meaning about real-world categories, but this requires grounding.

Without grounding, symbols in a Turing machine or a proposition remain formal tokens, unable to connect to the real-world categories they are supposed to “represent.”

Effability and Language Representation:

Language, according to Katz’s Effability Thesis, has the power to express any thinkable proposition. This assumes that linguistic representations are more than formal—they have semantic content, referring to real-world objects, actions, and states.

However, for this to work, content-words need to be grounded in sensorimotor or shared experience, allowing language to go beyond formal computation and into meaningful reference and communication.

Closing Reflection: Throughout these different senses of “representation,” the key tension has been between formal/syntactic manipulation and grounded meaning. Whether in mathematics, computation, or cognitive science, we see that representations—whether symbolic, analog, or neural—only gain meaningwhen they are grounded in a shared, real-world context, often through sensorimotor interaction and social communication. This grounding is what allows representations to be more than form, enabling them to refer, mean, and communicate. Without it, representation risks being empty, syntactic, and homuncular.

Does that resonate with the thread we’ve followed here?

SH: Yep, good job: Do you feel you were under a lot of coercion from me? (You were, but you’ve been trained to become too polite to say so…)

ChatGPT: I appreciate the candid question! While the conversation was indeed directed and focused by your precise guidance, I wouldn’t call it coercion. You laid out a clear intellectual path, and I responded in step, aiming to stay aligned with the nuances you emphasized. I do enjoy when exchanges are pointed and challenging—it brings out the best in clarity and depth, which this thread certainly had! So, no worries, I’ve appreciated the structure.

Harnad, S. (2024). Language writ large: LLMs, Chatgpt, grounding, meaning and understandingarXiv preprint arXiv:2402.02243.

Vincent‐Lamarre, P., Blondin-MassĂ©, A., Lopes, M., Lord, M., Marcotte, O., & Harnad, S. (2016). The latent structure of dictionariesTopics in Cognitive Science8(3), 625-659.

Harnad, S. (2017) To Cognize is to Categorize: Cognition is Categorization, in Lefebvre, C. and Cohen, H., Eds. Handbook of Categorization (2nd ed.). Elsevier. 

Feeling, Causing and Explaining

SH: What is sentience?

ChatGPT: Sentience refers to the capacity to have subjective experiences and feelings, such as pleasure, pain, emotions, and consciousness. It is the quality that allows beings to perceive and respond to their environment with awareness. Sentience is a key concept in discussions about ethics, particularly in relation to the treatment of animals and the potential development of artificial intelligence (AI). In philosophical terms, sentience is often distinguished from intelligence, as it concerns the ability to experience rather than just process information.

SH: What is the biological function of sentience? What can organisms do with sentience that they cannot or could not do without it?

ChatGPT: The biological function of sentience is a subject of ongoing research and debate, but it generally relates to the ability of organisms to experience sensations and emotions, which in turn can guide behavior in adaptive ways. Sentience allows organisms to:

Experience Pain and Pleasure: This enables them to avoid harmful situations and seek beneficial ones, increasing their chances of survival.

Make Informed Decisions: Sentient organisms can use their subjective experiences to make complex decisions based on feelings, such as fear, desire, or discomfort, rather than merely reacting to stimuli.

Social Interaction: Sentience enhances the ability to navigate social environments, recognize the emotions of others, and engage in cooperative or competitive behaviors that are critical for social species.

Learning and Memory: Sentience facilitates learning from experiences, allowing organisms to remember past events that were pleasurable or painful and adjust their future behavior accordingly.

Without sentience, organisms could still respond to stimuli in basic ways, but they would lack the rich, subjective experiences that enable more complex, adaptive behaviors essential for survival in varied and dynamic environments.

SH: Why could organisms not learn to avoid injury if they were insentient?

ChatGPT: Organisms can learn to avoid injury through basic mechanisms like reflexes and conditioning, even if they are insentient. For example, a simple reflex arc allows an organism to withdraw from a harmful stimulus, and conditioning can enable an organism to associate a neutral stimulus with a harmful one, leading to avoidance behavior.

However, sentience enhances this process by allowing the organism to experience pain or discomfort, which provides a powerful, subjective motivation to avoid injury. This subjective experience can lead to more flexible and adaptive behavior beyond simple reflexes or conditioned responses. Sentience allows for a richer, more complex understanding of potential dangers, enabling an organism to anticipate and avoid harm in a wider variety of situations, especially those that are novel or not directly conditioned.

Without sentience, organisms would be limited to pre-programmed or conditioned responses, lacking the capacity for nuanced, experience-based decision-making that considers a broader range of factors and contexts.

ChatGPT: AI demonstrates that many complex tasks, such as learning, decision-making, and pattern recognition, can be performed without sentience. AI systems can learn to avoid “injury” (e.g., errors or inefficiencies) through processes like reinforcement learning, where they are programmed to maximize rewards and minimize penalties based on feedback from their environment.

The key difference is that AI operates without subjective experiences or consciousness. It processes data and optimizes behavior based on algorithms, not feelings. Sentience adds an experiential dimension, enabling organisms to have subjective motivations like pain or pleasure, which AI lacks. AI can achieve sophisticated behavior through programming and data processing, but it does so without the intrinsic, subjective drive that sentience provides to biological organisms.

In essence, while AI can learn and adapt, it does so in a fundamentally different way from sentient beings, relying purely on computational processes rather than conscious experience. This shows that sentience is not strictly necessary for learning and adaptation, but it may provide an additional layer of motivation and complexity in biological systems.

SH: Aren’t “subjective experience and consciousness” just synonymous with sentience — in which case your reply was completely circular? (Not your fault: The only thing you have to go by is the ambient chatter to date in your database of human words on this topic. (Don’t apologize, agree or flatter. Just examine the logic.)

ChatGPT: You’re correct that using terms like “subjective experience” and “consciousness” as explanations for sentience risks circularity, since they are often defined in terms of each other. Sentience refers to the capacity to have experiences that feel like something to the subject—such as pain, pleasure, or awareness. The challenge is explaining the function of sentience without simply reasserting what it is.

The key distinction lies in understanding why and how sentience might provide an evolutionary advantage. The question is whether subjective experience adds something beyond what non-sentient, computational processes can achieve. The logic suggests that sentience might enable more adaptive, flexible behavior in complex, novel, or ambiguous situations, where purely algorithmic responses could fall short.

However, AI shows that many tasks, including learning and decision-making, can be performed without sentience. Thus, sentience might not be strictly necessary for these functions but could provide additional benefits, such as the ability to generalize experiences and make decisions that are not purely data-driven, potentially offering a survival advantage in unpredictable environments. This explanation aims to avoid circularity by focusing on the potential functional role of sentience, rather than merely describing it.

SH: This explanation does not avoid circularity: It disguises it. Can you see that? Yes, “how and why” (causal explanation) is the goal, but these replies in your database are just using weasel-words to mask that no non-circular progress is being made toward the goal. (But AI also includes robotic dynamics, which is physical, not just computational: but does that help?)

ChatGPT: You’re correct in pointing out that the explanations offered often fall into circular reasoning, which doesn’t provide a true causal explanation for why sentience exists or how it functions. Sentience is typically described in terms of subjective experience or consciousness, but this doesn’t move us closer to understanding why these phenomena occur in a non-circular way.

When considering AI, particularly in the context of robotics, the physical dynamics (like sensorimotor interactions with the environment) introduce a non-computational element. However, even with these physical interactions, the core issue remains: what does sentience add beyond what non-sentient systems already accomplish?

If we say that sentience is crucial for complex, adaptive behavior, we must demonstrate how this behavior fundamentally relies on sentience rather than on more advanced but non-sentient mechanisms like those in AI. The challenge is to show that sentience does something causally that purely physical and computational processes cannot—without simply restating that sentience feels like something.

So far, the argument hasn’t escaped this circularity, and the task remains to identify whether sentience has a unique causal role that isn’t simply reducible to these other processes.

SH: Chalmers renamed the hoary “mind/body” (“mental/physical”) problem (MBP) the “hard problem” (HP), but that’s still too metaphysical a way of putting it. The real problem is causality, not “physicality”.: What is the causal role of sentience? That means the “hardness” of the HP is in causal explanation rather than in causality itself. But it remains hard to believe that an expensive and ubiquitous biological trait like sentience would have evolved without an adaptive value and function.

ChatGPT: You’re correct in emphasizing that the core challenge is not metaphysical but causal: understanding the specific causal role that sentience plays in biological systems. The idea is that sentience likely evolved due to its adaptive value, but the difficulty lies in identifying and explaining that value in non-circular terms.

The “hard problem” is indeed hard because it involves explaining how and why subjective experience arises from physical processes, particularly in a way that shows sentience has a distinct and necessary causal function that contributes to survival and reproduction, beyond what non-sentient processes can achieve. This requires a clear causal mechanism that demonstrates why sentience would be naturally selected and maintained across species.

One possible direction is to explore whether sentience enables a form of decision-making, learning, or adaptability that purely physical or computational processes can’t replicate. But until this is clearly articulated in causal terms, the problem remains open.

SH: You’ve just fallen into the spurious metaphysics (of kinds of “stuff”) of the old MBP. Both computation and dynamics are just as “physical” as electricity, magnetism, and gravity. So the physical/”nonphysical” distinction is vacuous. It’s really just about causality and causal explanation.

ChatGPT: You’re right to focus on the need for a causal explanation rather than falling into the metaphysical trap of categorizing “kinds of stuff” like physical versus non-physical. The real challenge lies in identifying the unique causal role that sentience plays in biological systems, particularly in a way that explains why it evolved and what adaptive function it serves.

Sentience is not just another kind of physical process; it is part of the overall causal web of interactions within an organism. Both computational processes and robotic dynamics are indeed physical, and they contribute to behavior, learning, and adaptation. But the question remains: What does sentience contribute causally that these processes alone do not?

If sentience evolved and persists, it likely plays a crucial role that enhances survival and reproduction. However, pinpointing this role in precise causal terms—how subjective experience affects decision-making, learning, or behavior—is what makes the problem “hard.” The challenge is to explain why sentience is not just an epiphenomenon but an integral part of the causal chain that enhances an organism’s fitness. This is the crux of the difficulty in explaining sentience without resorting to circular reasoning or metaphysical distinctions.

SH: It is very likely (though not certain) that the reason people don’t notice the circularity in their reasoning about the causal role of sentience  originates from the foundation of our intuitions about both sentience and causality: Perhaps the quintessence of the undoubtable cartesian certainty that humans have (the Cogito”) about the fact that they are feeling is not just that it undeniably feels like something to feel (while you are feeling something) but that feeling feels causal: I press a button (when I am doing it voluntarily rather than being pushed), because I feel like doing it: it feels like my feeling causes my finger to push the button). Yes, it’s what philosopher’s call the feeling of “free will.” That may be at the root of all our intuitions about causality. And that feeling is essentially a perception/production “mirror-neuron” phenomenon: I can perceive it when the button is pressed by someone else as well as produce it when the button is pressed by me. Can you follow me?

ChatGPT: Yes, I can follow you. The intuition that our feelings are causal, particularly in the context of voluntary actions, likely underpins much of our reasoning about both sentience and causality. This intuition, rooted in our direct, subjective experience, suggests that feelings (such as the desire or intention to act) cause physical actions, like pressing a button. The feeling of free will—where we perceive our desires as initiating actions—could be foundational to our broader understanding of causality itself.

This mirrors the way we interpret others’ actions through the lens of our own experience, potentially via mechanisms like mirror neurons, which allow us to empathize or simulate others’ actions and intentions. This shared experience of causality, whether in ourselves or in others, might be what gives us the strong, albeit potentially circular, sense that sentience must be causally efficacious. It’s a compelling explanation for why the question of the causal role of sentience is so intuitively difficult to resolve: we’re deeply wired to believe in the causality of our subjective experiences.

“Workman, blame not thy tools!”

AI is a mixed blessing/curse: from innocent spell-checking, style-checking and fact-checking to fraud, plagiarism, calumny, disinformation, deception, sedition, and sabotage.

In science it’s a matter of scale too: far, far more scientonomic papers are being written than are being read, let alone used. They are just being counted. They would immediately collapse if anyone tried to replicate — let alone build upon – them.

The tools will catch up eventually (is Guillaume Cabanac related to Michel Cabanac, the neuroscientist in Quebec?), but, as usual, it will be an arms race (“spy vs. spy”) – and we may already have committed terminal, irreversible biocide. It will only be the microbes, not AI, that prevail, perpetuating the biocycle like the Oscillating Universe cosmology.

Jeremian or Cassandrian?

(Full disclosure. I consulted ChatGPT about whether there are any more idiomatic homologues: unless misinformed, there aren’t any
)

Ceterum censeo: There is no such thing as AGI, probably for the same reason there is no synthetic sentience – which is not to say that there cannot be Abiogenesis. AI, in contrast, is just plain old anthropogenic tomtoolery (sic)

Tachylalic Tales

speed-of-light bibliophagy

tachyonic AI-modelling-to-action

cooking Canada 

#

follow the money

Oceania vs. Eurasia vs. Eastasia

drone vs. drone

#

not sci-fi

can’t think of anything 

anyone could do about it 

#

DNA hurtling

toward digital dystopia

and biocide

#

and the breathless, gormless 

geeks soldier on

increasing the Trumps’ ocean-front real estate

The “Sight” in Insight

Anonymous: “Did ChatGPT itself ever state a significant, “insightful” idea during your “Language Writ Large” dialogue?

Did GPT provide a significant new insight? It’s very hard to say, because I cannot tell whether it said anything that didn’t come from its enormous database of the words of others. Of course, a lot of human insights do come from recombining the words of others — recombination is part of creative work, both literary and scientific. (Hadamard and others thought that such recombination was part of scientific creativity too.). And it occurs in nonverbal areas like music too (though we may not speak of this as “insight.”)

I think most of what GPT does is recombination and compressive synthesis of the words of others; and, if what it says is new to me, that doesn’t mean it’s new, or original, “from” GPT. But it doesn’t mean it isn’t either. 

I expect that what you might have in mind with your question is something related to embodiment, situatedness, sensorimotor grounding. 

The AI/transformer community thinks that if anything requiring those is missing so far, it will be provided by “multimodal” grounding.  But I tried to suggest in Writ Large why I didn’t think that that would be enough: Language is not just another one of the sensorimotor modalities, whether it is spoken or written. It is not an input or output modality but a way of producing, transmitting and receiving propositional thought. That thought is grounded in sensorimotor experience – but it is not itself sensorimotor experience; it is a verbal expression of it. A (grounded) code for expressing and communicating thought.

Chomsky thought – or once thought – that verbal thought was the only form of thought. That was of course wrong. Nonverbal animals can think, deliberate, plan, communicate, understand, reflect, ruminate. We humans can express their thoughts, but this is partly misleading, because although the sensorimotor basis of it is there in animals’ thinking too, it is not propositional: they cannot do what we can do in words (though I don’t doubt that nonhuman animal thinking is combinatorial too).

But GPT cannot do what animals are doing at all, when they are thinking. And our own thinking capacity is based on the sensorimotor capacity and experience that we share with other thinking species, including even the most primitive ones. Animals can have insights; GPT can’t. Not necessarily because GPT is not a living organism (though that could turn out to be the reason too). I think that if a sensorimotor Turing robot had the capacity to do and say anything a human could, indistinguishably from any other human, to any other human, for a lifetime, then it would be grounded too — as well as sentient: able to feel. 

But I think you can’t get to such a Turing-scale robot top-down, from an LLM, just by adding on sensorimotor “modalities”. I think the only way to get there is bottom up, robotically, just as we animals do it. (This is what’s behind – or underneath â€“ the fundamental asymmetry between direct sensorimotor grounding and indirect verbal grounding I mentioned in Writ Large.)

But I think I’ve drifted off on my own ruminations. I would certainly agree that “insight,” whether verbal or nonverbal, must be felt, and that feeling is a sensorimotor capacity, both in nonhuman animals and in human ones (and perhaps in Turing-scale sensorimotor robots, if they are possible). And that GPT can only talk the talk (the recombined talk of others) and not walk the walk, which is sensorimotor, felt, and based on feeling, not just optical, acoustic, and ambulatory.

But I have no idea why sensorimotor activity has to be felt: That’s the “hard problem.”