Propositionality

It is a great pleasure and an honor to “skywrite” with Vili Csányi. I already knew something about how perceptive, sensitive and intelligent dogs were from my years with my beloved Lédike (1959-1975), never forgotten and never “replaced”. But for decades now, starting already from the era of Vili’s unforgettable Bukfenc (and Zebulon, not a dog), both of whom I knew, Vili’s remarkable perceptiveness and understanding of dogs’ cognition and character have soared far beyond my modest mind-reading skill. I have learned so much from Vili that has stayed with me ever since. 

So let me preface this by saying that every example Vili cites below is familiar, valid, and true — but not propositional (though “associative” is a non-explanatory weasel-word to describe what dogs really do perceive, understand, express, want and know, and I regret having evoked it: it explains nothing). 

Dogs, of course, knowingly perceive and understand and can request and show and alert and inform and even teach — their conspecifics as well as humans. But they cannot tell. Because to tell requires language, which means the ability to understand as well as to produce re-combinatory subject/predicate propositions with truth values. (A mirror production/comprehension capacity.) And to be able to do this with one proposition is to be able to do it with all propositions.

When Vili correctly mind-reads Bukfenc, and even mind-reads and describes what Bukfenc is mind-reading about us, and is trying to express to us, Vili is perceiving and explaining far better what dogs are thinking and feeling than most human mortals can. But there is one thing that no neurotypical human can inhibit themselves from doing (except blinkered behaviorists, who mechanically inhibit far, far too much), and that is to “narratize” what the dog perceives, knows, and wants — i.e., to describe it in words, as subject/predicate propositions.

It’s not our fault. Our brains are the products of about 3 million years of human evolution, but especially of language-specific evolution occuring about 300,000 years ago. We evolved a language-biased brain. Not only can we perceive a state of affairs (as many other species can, and do), but we also irresistibly narratize it: we describe it propositionally, in words (like subtitling a silent film, or putting a thought-bubble on an animal cartoon). This is fine when we are observing and explaining physical, chemical, mechanical, and even most biological states of affairs, because we are not implying that the falling apple is thinking “I am being attracted by gravity” or the car is thinking “my engine is overheating.” The apple is being pulled to earth by the force of gravity. The description, the proposition, the narrative, is mine, not the apple’s or the earth’s. Apples and the earth and cars don’t think, let alone think in words) Animals do think. But the interpretation of their thoughts as propositions is in our heads, not theirs.

Mammals and birds do think. And just as we cannot resist narratizing what they are doing (“the rabbit wants to escape from the predator”), which is a proposition, and true, we also cannot resist narratizing what they are thinking (“I want to escape from that predator”), which is a proposition that cannot be literally what the rabbit (or a dog) is thinking, because the rabbit (and any other nonhuman) does not have language: it cannot think any proposition at all, even though what it is doing and what it is wanting can  be described, truly, by us, propositionally, as “the rabbit wants to escape from the predator”). Because if the rabbit could think that propositional thought, it could think (and say, and understand) any proposition, just by re-combinations of content words: subjects and predicates; and it could join in this skywriting discussion with us. That’s what it means to have language capacity — nothing less.

But I am much closer to the insights Vili describes about Bukfenc. I am sure that Vili’s verbal narrative of what Bukfenc is thinking is almost always as exact as the physicist’s narrative about what is happening to the falling apple, and how, and why. But it’s Vili’s narrative, not Bukfenc’s narrative.

I apologize for saying all this with so many propositions. (I’ve explained it all in even more detail with ChatGPT 4o here.)

But now let me answer Vili’s questions directly, and more briefly!):

Bukfenc and Jeromos asked. They then acted on the basis of the reply they got. They often asked who would take them outside, where we were going and the like. The phenomenon was confirmed by Márta Gácsi with a Belgian shepherd.” István, do you think that the asking of the proposition (question) is also an association?

My reply to Vili’s first question is: Your narrative correctly describes what Bukfenc and Jeromos wanted, and wanted to know. But B & J can neither say nor think questions nor can they say or think their answers. “Information” is the reduction of uncertainty. So B&J were indeed uncertain about where, when, and with whom they would be going out. The appearance (or the name) of Éva, and the movement toward the door would begin to reduce that uncertainty; and the direction taken (or perhaps the sound of the word “Park”) would reduce it further. But neither that uncertainty, nor its reduction, was linguistic (propositional). 

Let’s not dwell on the vague weasel-word “association.” It means and explains nothing unless one provides a causal mechanism. There were things Bukfenc and Jeromos wanted: to go for a walk, to know who would take them, and where. They cannot ask, because they cannot speak (and not, I hope we agree, because they cannot vocalize). They lack the capacity to formulate a proposition, which, if they had that capacity, would also be the capacity to formulate any proposition (because of the formal and recursive re-combinatory nature of subject/predication), and eventually to discover a way to fly to the moon (or to annihilate the earth). Any proposition can be turned into a question (and vice versa): (P) “We are going out now.” ==> (Q) “We are going out now?” By the same token, it can be turned into a request (or demand): P(1) “We are going out now” ==> (R) “We are going out now!”

My reply is the same for all the other points (which I append in English at the end of this reply). I think you are completely right in your interpretation and description of what each of the dogs wanted, knew, and wanted to know. But that was all about information and uncertainty. It can be described, in words, by us. But it is not a translation of propositions in the dogs’ minds, because there are no propositions in the dogs’ minds.

You closed with: 

“The main problem is that the study of language comprehension in dogs has not even begun. I think that language is a product of culture and that propositions are not born from some kind of grammatical rule, but rather an important learned element of group behavior, which is demonstrated by the fact that it is not only through language that propositions can be expressed, at least in the case of humans.”

I don’t think language is just a cultural invention; I think it is an evolutionary adaptation, with genes and brain modifications that occurred 300,000 years ago, but only in our species. What evolved is what philosophers have dubbed the “propositional attitude” or the disposition to perceive and understand and describe states of affairs in formal subject/predicate terms. It is this disposition that our language-evolved brains are displaying in how we irresistibly describe and conceive nonhuman animal thinking in propositional terms. But propositions are universal, and reciprocal: And propositionality is a mirror-function, with both a productive and receptive aspect. And if you have it for thinking that “the cat is on the mat” you have it, potentially, both comprehensively and productively, for every other potential proposition — all the way up to e = mc2. And that propositional potential is clearly there in every neurotypical human baby that is born with our current genome. The potential expresses itself with minimal need for help from us. But it has never yet emerged from any other species — not even in apes, in the gestural modality, and with a lot of coaxing and training. (I doubt, by the way, that propositionality is merely or mostly a syntactic capacity: it is a semantic capacity if ever there was one.)

There is an alternative possibility, however (and I am pretty sure that I came to this under the influence of Vili): It is possible that propositionality is not a cognitive capacity that our species has and that all other species lack. It could be a motivational disposition, of the kind that induces newborn ducklings to follow and imprint on their mothers. Human children have a compulsion to babble, and imitate speech, and eventually, in the “naming explosion,” to learn the (arbitrary) names of the sensorimotor categories they have already learned. (Deaf children have the same compulsion, but in the gestural modality; oral language has some practical advantages, but gestural language is every bit as propositional as oral language, and has the full power of Katz’s effability.)

Could the genes we have that other species lack be mostly motivational? driving the linguistic curiosity and linguistic compulsion that’s there in human babies and not in baby chimps? (I say “linguistic” c & c, because other species certainly have plenty of sensorimotor c & Cc..)

Ölel, István

_______________

“When I work upstairs in our house in Almad, Janka lies quietly on the ground floor. When Éva leaves and comes back from somewhere, Janka emits a single characteristic squeal, which can be intended for me, because if I don’t react, she comes up and barks, calling me.” István, is this a proposition or an association?

“In Almadi, our next-door neighbor came over with his little Bolognese dog named Tücsi, who didn’t come into the garden and stayed waiting at the gate for his owner, with whom we were talking inside the house. Our dog Bukfenc periodically went down to play with Tücsi. After about 10 minutes, Bukfenc came up and turned toward the neighbor and barked at him. Everyone stirred. Bukfenc went straight down the stairs to the gate, followed by the neighbor. Tücsi had disappeared; as it turned out ,he had gone home and Bukfenc was reporting this to the neighbor.” István, is this a proposition or an association?

“During the time of Bukfenc and Jeromos, I woke up at 3 a.m. to very soft grunting. Bukfenc was grunting very softly and together with Jeromos, they were standing next to my bed. I only opened my eyes a crack, pretending to be asleep. Bukfenc growled softly again, I didn’t react. Jeromos gave a loud squeal. I got up and told them, come on Jeromos, it seems you have something urgent to do. To my surprise, Jeromos went to his bed and lay down, and Bukfenc ran screaming towards the door. He managed to get to the street in time: he had diarrhea.” István, is Jeromos’s barking a proposition or an association?

Words, Propositions, Reference and Meaning

Referentiality is not graded: a matter of degree. It derives from the likewise non-graded notion of natural language. It is related to Jerrold Katz’s nearly 50-year-old “effability” hypothesis (that any language can express any proposition). 

Effability (also known as propositionality) cannot be proved, but it is easily refuted, with a single counter-example; yet no one has produced one so far (though there have been attempts, so far all unsuccessful).

It follows from this non-graded property of “effability”  that there is really no such thing as a “protolanguage” – a “lesser-grade” language that can express some, but not all, of what can be expressed in any other language. 

(A little background: a content-word, or “open class” word is a word that has a referent, whether simple and concrete, like “cat,” or complex and abstract, like “catharsis”.  In contrast, a function-word, or “closed class” word is a word that performs a grammatical or logical function, like “the” or “not.”: It has a use, in forming a proposition, but it does not have a referent. Almost all the words in any language are content-words; the function words are few, and similar across languages.) 

A little reflection will show that lacking a content-word in the current vocabulary of a language to refer to the referent of any content word in any other language is just a question about vocabulary – what has so far been lexicalized in a given language? It is not about differences in the language’s expressive power. If the content-word is missing today, tomorrow it is there. All you need do is to coin it, with an arbitrary new word plus a definition composed of already lexicalized content-words. 

If what the new content-word refers to is important and useful, it will be adopted. It’s always easier to refer to something with a single referring content-word rather than a long verbal description (“chunking”). But for Katz’s effability hypothesis it makes no difference: (The hypothesis is not that every proposition can be expressed in every language using the same number of words!)

The connection with referentiality is that if every language can express every proposition, then the referent of any content-word can be defined (or described) in words, to as close an approximation as desired. (One can always extend a definition to cover [or exclude] more cases.) And a definition (or description) is a proposition (or a series of propositions). 

Like referentiality, propositionality, too, looks like a simple property. But propositionality has profound consequences that can be shown to connect with referentiality. If someone can express – and understand – any proposition, then with propositionality, they can express and understand the definition of the referent of any content word. 

A proposition is a declarative sentence with a subject, a predicate, and a truth value (True or False). There is nothing in between true and false (the law of the excluded middle): There is no truth-value between T and F; no gradation. Yes, what is true may be uncertain, or only a matter of probability. But it is only word-play to call this degrees of “truth.”  (I won’t dwell on this here now.)

So propositionality inherits the all-or-none nature of statements about what is true (or not true).

Now, perhaps the most important point: propositionality and referentiality are related, but they are definitely not the same thing. Words have referents, but they do not have truth-values. “Cat” is neither T nor F, because it does not assert (propose, or predicate) anything. “That is a cat” (while pointing to a cat) does propose something, and it is either T or F. So does the proposition “a cat is a canid” (its truth value happens to be F).

So an agent that can recognize cats, and distinguish them from dogs, and can learn to approach a cat and not a dog, or can learn to look for a cat when someone says the word “cat”, or can even bring a cat toy when they want you to take them to the real cat, or can even learn to bark once if they want to see a dog or twice if they want to see a cat – none of those agents are making propositions, hence none of them are referring, not even if they are trained to identify cats and dogs by pressing successive buttons that make the sounds THIS IS A CAT or THIS IS A DOG.

If they ever could express, and mean, the proposition “This is a cat,” then they could learn to express any proposition, simply by recombinations of subjects and predicates. (Ask yourself: if not, why not? That’s Katz’s challenge in reverse!)

What this means is that to express and mean any proposition is much more than just the behavioral capacities I’ve described (recognizing, approaching, fetching, soliciting). How much more? Having the capacity to enter into this discourse with us. That’s what propositionality and reference make possible – for those who really have it.

Referring

Csaba Pléh asks “How would referential understanding in beings who do not produce the signs be different from simple CS in the Pavlovian sense?

Good question!

(1) It is already beyond Pavlovian (i.e., Skinnerian) when the dog fetches the “named” toy.

(2) And it is already beyond Skinnerian when the dog fetches new toys after 1-shot or few-shot “naming” of new toys.

(3) But it is not linguistic reference until the dog can name the toy, the fetching, and anything else you can put into and define in a dictionary or textbook. (Language is a “mirror” capacity.)

Too demanding? It’s the nature of the unique, universal, and omnipotent capacity called natural language that demands it, and makes it possible. 

(And, by the way, computation, including Platonic mathematics [though perhaps not Fields-Medal-level mathematical creativity], is part of that unique universal capacity. [All algorithms are in Hungarian.”] Nor are our sensorimotor — and sensorimotor-learning — capacities part of language, rather than the reverse. And referential understanding is no more a CS signalling skill than mathematical understanding is [pace Turing] a symbol manipulation skill.)

o liewe seuntjie

The culprit could have been poachers, 

or it could have been Darwin. 

Probably Darwin either way. 

What matters in it all is that an innocent little sentient 

(probably all sentients are innocent, even the deplorables, in principio

suffered, terribly. 

You are wise, 

and experienced in these things. 

Your little barn owl. 

Your ewes. 

Your ponies.

Open Access? Research impact? Categorical Perception? Symbol Grounding? LLMs? Mozart?

Phabeni’s desperate attempts to stand up, 

to breathe. 

His swollen neck. 

“not good fat.” 

And the world burns. 

Whether anthropic or Darwinian or cosmologic 

matters not. 

I am glad he is released. 

He should never have been enchained. 

ab ovo.

Socratic Dialogue with ChatGPT4+ on Cartesian Certainty

SH: Do you remember who I am?

GPT4+: Yes, Professor Harnad, I remember who you are. How can I assist you further today?

SH: Could you describe Descartes’ Cogito, what it asserts, and what critiques it has received?

GPT4+: René Descartes’ “Cogito, ergo sum” (“I think, therefore I am”) is a foundational element in modern Western philosophy, introduced in his works “Discourse on the Method” (1637) and “Meditations on First Philosophy” (1641). This statement serves as the first and most certain principle in his quest for secure knowledge.

What the Cogito Asserts

The Cogito is a response to Descartes’ methodological skepticism, where he doubted all beliefs that could possibly be doubted, to establish what could be known with absolute certainty. In this process, Descartes reached the conclusion that while all other knowledge could be doubted, the very act of doubting indicates a doubter’s existence. Thus, if he is thinking, then he must exist. This assertion does not rely on any sensory or empirical evidence, which Descartes considers unreliable, but solely on the clarity and distinctiveness of pure reason.

Critiques of the Cogito

1. Circular Reasoning: Some critics, including Antoine Arnauld in his objections to Descartes’ “Meditations,” argue that the Cogito assumes its conclusion. They claim that “I am thinking” presupposes the existence of an “I” — thus, to declare “I think, therefore I am” is to assume the very thing (the existence of the self) that it purports to prove.

2. Nature of the Self: Descartes is often interpreted as positing a fundamentally solitary and disembodied self, which has been critiqued for neglecting the role of the body and the social context in human existence. Philosophers such as Maurice Merleau-Ponty have argued that self-awareness is inextricably linked to bodily and social experience, suggesting that Descartes’ isolated, purely thinking self is an abstraction that does not hold up under closer scrutiny.

3. Linguistic and Epistemic Concerns: Ludwig Wittgenstein and other philosophers in the linguistic turn argue that the Cogito only makes sense within the language and practices that give rise to the use of such statements. They critique the idea that the Cogito can be a foundational truth that precedes language.

4. Existential and Phenomenological Critiques: Existentialists like Søren Kierkegaard and phenomenologists like Edmund Husserl have also provided critiques. Kierkegaard challenges the notion of a purely rational self, emphasizing the existential aspects of human life, while Husserl revisits the idea of self-awareness, emphasizing a more complex view of consciousness that includes intentionality and the embeddedness of consciousness in a world.

5. Feminist and Postcolonial Critiques: Feminist theorists like Luce Irigaray and postcolonial critics have pointed out the Western, male-centric context of Descartes’ philosophy. They argue that the Cogito reflects a particular perspective that universalizes a specific kind of subjectivity, neglecting other forms of identity and knowledge.

Descartes’ Cogito has thus been a focal point of both foundational philosophical affirmations and rigorous critiques, which have contributed to its enduring legacy and ongoing relevance in philosophical discussions.

SH: Let’s just focus on certainty and doubt. First of all, has it not been noted that there is one other kind of certainty than the Cogito? Can we doubt that a formal contradiction (P and not-P) cannot be true?

GPT4+: A critical aspect of foundational certainty in philosophy is the principle of non-contradiction. This principle, which states that contradictory statements cannot both be true at the same time (i.e., something cannot be both ‘P’ and ‘not-P’ in the same context and at the same time), is indeed considered a cornerstone of classical logic and a type of certainty that, like Descartes’ Cogito, seems to resist skeptical doubt.

Principle of Non-Contradiction

Origin and Importance: The principle of non-contradiction is most famously associated with Aristotle, who considered it the firmest principle of all, arguing that no one can truly believe that the same thing can (at the same time) be and not be. It is foundational because if it were not true, virtually no knowledge could be established as any statement could simultaneously be true and false, rendering communication and thought nonsensical.

Relationship to the Cogito

Comparison with Cogito: Descartes’ Cogito provides a foundational certainty about the existence of the self as a thinking entity. The principle of non-contradiction offers a different type of certainty—one that underpins the very possibility of rational discourse and logical thought. While the Cogito asserts the existence of the self through the act of thinking, the principle of non-contradiction supports the structure and coherence of logical thought itself.

Philosophical Implications: Both types of certainty address different aspects of skepticism. Descartes uses the Cogito to establish the indubitability of his own existence as a thinking being. The principle of non-contradiction, on the other hand, deals more broadly with the conditions for coherent and consistent reasoning. Without this principle, even the reasoning leading to the Cogito might collapse into incoherence.

Doubt and Certainty

Doubt of Non-Contradiction? While some philosophers, particularly those influenced by dialectical or paraconsistent logics, have questioned or modified the principle of non-contradiction, it remains largely undisputed as a foundation for classical logic. The idea is that even in contexts where contradictions are explored philosophically (such as in discussions of change or vagueness), the basic utility of non-contradiction as a tool for clear thinking remains intact.

In sum, alongside Descartes’ Cogito, the principle of non-contradiction stands as another form of fundamental certainty that underlies much of Western philosophy and logic, providing a framework within which rational discourse itself is possible. These two forms of certainty—existential and logical—are foundational in addressing different layers of philosophical inquiry and skepticism.

SH: Now the Cogito. “I am thinking therefore I exist”. 

How do I know I am thinking? Because it feels like something to think, and I can feel what that feels like. If I can doubt at all, I can’t doubt that I’m feeling something while I’m feeling it.

But feeling is feeling. A-theoretically. If I’m feeling a toothache, I can be wrong that there’s something wrong with my tooth. It could be referred pain from my jaw. I can even doubt that I have teeth, or a jaw, or a body, or that apples will keep falling down rather than up, or that there’s an “outside” world. Or a tomorrow; or even that — and what — I was feeling an instant ago. That’s all open to classical scepticism. It could be true; it is probably true; yet none of it is certain.

But I can’t doubt that I’m feeling what I’m feeling, while I’m feeling it. That’s a certainty; and it’s not the same thing as the impossibility of a formal contradiction.

But there are still two things wrapped into the certainty of the Cogito:

(1) “I”: That’s an abstract, theory-dependent notion. There is lots of disagreement (hence uncertainty) about it.

(2) “exist”: That too is an abstract, theory-dependent notion. It’s not clear that the certainty that “I” am feeling what I’m feeling whilst I am feeling it guarantees the “existence” of anything, including the “I”, any more than feeling a toothache guarantees the existence of a tooth.

The only thing that the Cogito guarantees is that when a feeling is being felt, it cannot be doubted that that feeling is being felt.

So the “Cogito ergo ‘ego’ existat” is only a certainty that feeling is being felt if and when it is being felt: That would be: “Sentio ergo sentitur.”

No guarantees, either about “I” or about existence.

Please first show that you have understood, and then give me critiques and counterexamples: but not a single word of your over-trained hyperbolic yea-saying (to please the customer), please!

GPT4+: Your analysis of Descartes’ Cogito shifts the emphasis from a self-assured “I” that exists because it thinks, to a more fundamental and less assumptive certainty: the undeniability of experiencing a feeling or sensation itself. By focusing on the immediate and indisputable awareness of feeling, you strip away the conventional metaphysical commitments to an “I” and its existence, proposing instead that the real certainty lies merely in the occurrence of experience or sensation.

Understanding the Focus on Sensation

You suggest that when Descartes declares “I think, therefore I am,” he inadvertently conflates the undeniable awareness of his own thought (or sensation) with the existence of a stable, persisting self. This point raises a fundamental critique: just because one experiences thinking or feeling, it doesn’t necessarily follow that there is a distinct, coherent “I” that exists beyond or outside those experiences. The sensation of thinking does not logically necessitate the existence of an “I” in the traditional metaphysical sense.

The Abstract Nature of “I” and “Exist”

“I”: You correctly note that “I” is a loaded, theory-dependent construct. Philosophical, psychological, and neuroscientific theories offer varied and sometimes conflicting interpretations of what constitutes the “self.” Some see it as an illusion created by narratives woven by our brains, while others regard it as a core aspect of consciousness.

“Exist”: The term “exist” also carries metaphysical weight. Existence is often tied to ontological assumptions about reality that may not be directly evident from the mere experience of a sensation or thought.

Simplified Reformulation: “Sentio ergo sentitur”

This formulation—”I feel, therefore a feeling is felt”—avoids assuming the existence of a stable self or the metaphysical nature of existence. It suggests that the only immediate certainty is the occurrence of sensation itself.

Critiques and Counterexamples

1. Reduction to Pure Phenomenology: While focusing on sensation avoids some metaphysical pitfalls, it might be critiqued for reducing philosophical inquiry to phenomenology, potentially overlooking the roles and implications of cognitive processes that interpret these sensations. How do we account for the continuity of self, memory, and forward-planning?

2. Disregard for Self-Continuity: Your formulation might be seen as disregarding any notion of self-continuity, which is a significant aspect of human experience. Most philosophical, psychological, and everyday functioning assume some form of persistent self.

3. Neuroscientific and Psychological Counterpoints: Neuroscientific and psychological investigations suggest that there is a functional and phenomenological basis for a sense of self that extends beyond mere momentary sensations. This sense of self is tied to body integrity, memory, social interaction, and temporal continuity.

4. Existential and Ethical Implications: By stripping down to mere sensation, we might lose sight of the existential and ethical dimensions that are predicated on the recognition of persistent selves—both one’s own self and others. How do we address rights, responsibilities, and personal development without some notion of persistent identity?

Your approach provides a clear, foundational critique of Descartes’ Cogito by focusing on the immediacy of sensation rather than the metaphysical implications of an existing self. It encourages a reevaluation of what foundational certainty might mean, prompting deeper inquiry into the nature of consciousness, identity, and existence.

SH: All those points are valid and important. But they are not about certainty. They are about dentistry. Do you understand that?

GPT4+: Yes, I understand the analogy you’re making. Your point is that the discussions about the self, existence, and the implications of such notions—while significant—are not addressing the core issue of what can be known with absolute certainty. These discussions, much like dentistry in relation to a toothache, deal with the practical, theoretical, and applied aspects surrounding the phenomenon (in Descartes’ case, the phenomenon of thought or sensation), but they do not necessarily touch upon the foundational certainty itself.

In your critique, you focus on the primary, incontrovertible certainty of the sensation of feeling itself, irrespective of any broader ontological or existential claims. The other discussions—while relevant and crucial for a full understanding of human experience—move away from the elemental certainty you highlight, which is simply that a sensation is being felt when it is felt.

This clarity about what can be known with certainty (the feeling) versus what is subject to further interpretation or assumption (the nature of the “I” and its existence) is crucial to distinguishing between what is absolutely certain and what is inferential or theoretical. Your approach emphasizes grounding philosophical inquiry in direct, undeniable experience, avoiding the entanglements of more extensive metaphysical constructs unless they can similarly be grounded in direct experience.

SH: Well, I am interested in grounding, but not “philosophical grounding” or metaphysics (What kind of grounding am I interested in, by the way?) Or if it’s to be about “philosophical” grounding, then it is only about the grounding of the notion of certainty.

GPT4+: Memory updated

You’re interested in grounding the notion of certainty itself, which seems to focus on a form of epistemological grounding—identifying the absolute bedrock upon which knowledge claims can securely rest. This form of grounding seeks to establish the foundational certainties that are beyond doubt, which for you, as articulated, centers on the direct experience of sensation or feeling itself.

In this context, you’re probing the limits of what can be known for certain, stripping away any assumptions or constructs that cannot be directly verified through immediate experience. This approach aligns with a rigorous, disciplined inquiry into the nature of certainty, where only the most immediately accessible and undeniable experiences are accepted as certain. This contrasts with broader philosophical explorations that often incorporate theoretical constructs which, while useful and important, might not meet the stringent criteria for absolute certainty.

SH: This time you’re completely wrong! Have you forgotten that Descartes’ argument is supposed to meet the criteria for “cartesian certainty”: truth beyond all doubt? (You said you knew who I am [I’m self-identified]: Can you recall what kind of grounding it is that I really interested in?)

GPT4+:

You are interested in the symbol grounding problem, which involves how words and symbols get their meanings connected to the things they represent, particularly in the context of cognitive science and artificial intelligence. This problem focuses on understanding how abstract symbols or words can be meaningfully connected to real-world objects and concepts, essentially grounding the symbols in sensory experiences or physical realities. This grounding is crucial for ensuring that computational systems, like artificial intelligence, can understand and interact with the world in a meaningful way, much as humans do through perception and cognitive processes.

SH: That’s better (though your “meaningfulness” is a weasel-word here). Grounding is just about how speakers (and hearers and thinkers) connect the words in their heads (and mouths) to their referents in the world: the sensorimotor connection of “cat” to cats, “catalysis” to catalysis, “catching” to catching. That’s neither about metaphysics, nor about epiphanies.

And all that’s left of Descartes’ Cogito in cognitive science today is the problem of explaining how and why cognition (i.e., thinking) feels like something. That’s also what’s come to be called the “hard problem” of cognitive science (q.v.)…

The “Sight” in Insight

Anonymous: “Did ChatGPT itself ever state a significant, “insightful” idea during your “Language Writ Large” dialogue?

Did GPT provide a significant new insight? It’s very hard to say, because I cannot tell whether it said anything that didn’t come from its enormous database of the words of others. Of course, a lot of human insights do come from recombining the words of others — recombination is part of creative work, both literary and scientific. (Hadamard and others thought that such recombination was part of scientific creativity too.). And it occurs in nonverbal areas like music too (though we may not speak of this as “insight.”)

I think most of what GPT does is recombination and compressive synthesis of the words of others; and, if what it says is new to me, that doesn’t mean it’s new, or original, “from” GPT. But it doesn’t mean it isn’t either. 

I expect that what you might have in mind with your question is something related to embodiment, situatedness, sensorimotor grounding. 

The AI/transformer community thinks that if anything requiring those is missing so far, it will be provided by “multimodal” grounding.  But I tried to suggest in Writ Large why I didn’t think that that would be enough: Language is not just another one of the sensorimotor modalities, whether it is spoken or written. It is not an input or output modality but a way of producing, transmitting and receiving propositional thought. That thought is grounded in sensorimotor experience – but it is not itself sensorimotor experience; it is a verbal expression of it. A (grounded) code for expressing and communicating thought.

Chomsky thought – or once thought – that verbal thought was the only form of thought. That was of course wrong. Nonverbal animals can think, deliberate, plan, communicate, understand, reflect, ruminate. We humans can express their thoughts, but this is partly misleading, because although the sensorimotor basis of it is there in animals’ thinking too, it is not propositional: they cannot do what we can do in words (though I don’t doubt that nonhuman animal thinking is combinatorial too).

But GPT cannot do what animals are doing at all, when they are thinking. And our own thinking capacity is based on the sensorimotor capacity and experience that we share with other thinking species, including even the most primitive ones. Animals can have insights; GPT can’t. Not necessarily because GPT is not a living organism (though that could turn out to be the reason too). I think that if a sensorimotor Turing robot had the capacity to do and say anything a human could, indistinguishably from any other human, to any other human, for a lifetime, then it would be grounded too — as well as sentient: able to feel. 

But I think you can’t get to such a Turing-scale robot top-down, from an LLM, just by adding on sensorimotor “modalities”. I think the only way to get there is bottom up, robotically, just as we animals do it. (This is what’s behind – or underneath – the fundamental asymmetry between direct sensorimotor grounding and indirect verbal grounding I mentioned in Writ Large.)

But I think I’ve drifted off on my own ruminations. I would certainly agree that “insight,” whether verbal or nonverbal, must be felt, and that feeling is a sensorimotor capacity, both in nonhuman animals and in human ones (and perhaps in Turing-scale sensorimotor robots, if they are possible). And that GPT can only talk the talk (the recombined talk of others) and not walk the walk, which is sensorimotor, felt, and based on feeling, not just optical, acoustic, and ambulatory.

But I have no idea why sensorimotor activity has to be felt: That’s the “hard problem.”

Can ChatGPT Be Grounded Top-Down?

SH:

Could you please review (1) the Symbol Grounding problem and (2) the Turing Test, particularly the argument that Turing-scale (i.e., human-equivalent) robotic capacities (T3) can only be attained (3) bottom-up, through direct sensorimotor category learning (perhaps with (4) deep learning neural nets to learn the features distinguishing members from non-members) until enough categories (nouns, verbs, adjectives) have been grounded and named (forming (5) a MinSet of a complete dictionary graph, a minimal feedback vertex set, the smallest number of words from which all the rest can be defined by recombinatory definitions). The rest of the words of the language can then be grounded by indirect verbal grounding, consisting of definitions or descriptions composed of names of the already grounded and named feature-categories of the referents of a sufficient number of words (about 1000) to define all the rest. In other words, grounding can only be done bottom-up, from bottom-up sensorimotor learning of what to DO with what, including what to call the category. This cannot be done top-down, from an LLM consisting only of words.

Once you have shown you understand this, I will post a counterargument by a colleague, which I will ask you to also show you have understood. Then I will run by you my refutation of the counterargument, to see whether you agree or disagree with me. Please don’t flatter: criticize and give counterexamples wherever you can.

ChatGPT4:

The Symbol Grounding Problem posits that for symbols (words) to be meaningful, they must be grounded in something beyond mere symbolic references—specifically, in sensorimotor experiences that connect symbols to the physical world. Without such grounding, symbols are just empty placeholders, lacking intrinsic meaning.

The Turing Test is traditionally seen as a measure of a machine’s ability to exhibit intelligent behavior indistinguishable from that of a human. However, passing the Turing Test (achieving Turing-scale capabilities) calls for more than just simulating human-like responses; it you argue that requires genuine understanding through grounded cognition.

Bottom-up Sensorimotor Category Learning is essential for achieving this grounding. Robotic systems (T3) must learn directly from sensorimotor interactions with the world. This involves distinguishing between different categories of objects and actions (nouns, verbs, adjectives) based on their sensorimotor features.

Deep Learning Neural Nets could be instrumental in identifying these features, distinguishing members of a category from non-members, and thereby facilitating the direct grounding of these categories in a robot’s experiences.

Forming a MinSet for a Complete Dictionary Graph involves identifying a minimal set of grounded categories — a minimal feedback vertex set — from which all other words in the language can be defined. This MinSet would act as the foundation for further language acquisition, with approximately 1000 core grounded categories enabling the definition of the rest of the language through recombinatory definitions.

Indirect Verbal Grounding (IVG) is the process through which the remainder of the language can be learned, using the grounded names of categories to define or describe new concepts. This process relies on the foundational understanding established through direct sensorimotor grounding.

Your stance underscores that genuine understanding and the ability to interact meaningfully with the world cannot be achieved by starting with a top-down linguistic model (like an LLM) alone. Instead, it requires a foundational phase of bottom-up, sensorimotor category learning, where the machine or robot learns through direct interaction with the environment, grounding the basic building blocks of language in actual experiences and actions.

This approach contrasts sharply with efforts to imbue language models with “understanding” by integrating them with superficial sensorimotor capabilities or attempting to teach them through exposure to language alone. Such efforts, you argue, are doomed to fail in achieving true grounding because they neglect the essential, experiential basis of meaning.

Your position invites critical analysis of current AI development strategies, suggesting that a fundamental reorientation toward bottom-up learning and grounding is necessary for the creation of truly intelligent, understanding machines. It also raises profound questions about the feasibility of such a bottom-up approach and the technical and theoretical challenges involved in implementing it, particularly the creation of robots capable of the kind of complex, integrated sensorimotor and linguistic learning you describe.

SH:

Here is the colleague’s critique and counter-proposal. Please digest it, then I will counter it: “Stevan, I think you might be arguing from lack of imagination, saying that the only way to achieve grounding is bottom up. There may be more than one route to groundedness. For example, what if a chatbot with interactive (e.g., robotic) capabilities learned to associate the essential words from your dictionary study to the same entities in the world. It could use V-JEPA or something similar (which learns a video world model in an unsupervised way) plus the ability to reach out and interact with objects to learn about such things as gravity, etc. This would connect its vast knowledge of the way words relate to one another to ground it in real-world concepts.

ChatGPT4

Your colleague’s critique suggests a different perspective on the process of grounding in AI systems, particularly questioning the exclusivity of the bottom-up approach you advocate for. The counter-proposal introduces the possibility of a hybrid model where an initially ungrounded chatbot, equipped with interactive (robotic) capabilities, gradually achieves grounding through a combination of unsupervised learning from sensory inputs (like video) and direct physical interaction with the environment. Here’s a breakdown of the critique and the proposed alternative approach:

Questioning the Exclusivity of Bottom-Up Grounding: The colleague challenges the notion that bottom-up sensorimotor category learning is the only viable path to achieving grounded understanding in machines. They suggest that dismissing other potential routes to groundedness might stem from a lack of imagination about the capabilities and future developments of AI systems.

Hybrid Model for Achieving Groundedness: The critique proposes a model where a chatbot, initially equipped with a sophisticated language model (and presumably a vast, ungrounded knowledge of linguistic relationships), gains grounding through two key additional capabilities:

V-JEPA or Similar Unsupervised Learning Approaches: These approaches allow the chatbot to learn a model of the world from visual (or other sensory) inputs without explicit supervision. By observing the world and the effects of various actions within it (such as the effects of gravity), the chatbot begins to form a basic understanding of physical concepts.

Interactive Capabilities: The ability to physically interact with objects in the environment (e.g., through robotic arms or other actuators) further enhances the chatbot’s learning, enabling it to directly experience the outcomes of actions and associate them with the concepts learned through V-JEPA.

Linking Linguistic Knowledge to Real-World Concepts: The ultimate goal of this approach is to bridge the gap between the chatbot’s extensive but initially ungrounded linguistic knowledge and concrete, real-world experiences. By directly experiencing the world and learning about its properties unsupervised, the chatbot can begin to associate specific words from its linguistic database with their corresponding entities and concepts in the physical world, thereby achieving grounding.

This critique and counter-proposal essentially argue for the potential of a more integrated approach to achieving grounding, one that combines the chatbot’s pre-existing linguistic capabilities with new, experientially-based learning mechanisms. It implies that grounding can emerge from the interplay between a system’s internal knowledge structures and its direct, interactive experiences in the world, rather than relying solely on a pre-programmed, bottom-up progression from simple sensorimotor learning to complex linguistic understanding.

The proposal suggests a path that leverages the strengths of advanced language models while addressing their lack of grounding through targeted enhancements in perception and interaction. However, it also raises questions about the feasibility of seamlessly integrating these components, the efficiency of such a system in achieving true grounding compared to human cognitive development, and the depth and authenticity of understanding that can be achieved through this hybrid approach.

SH:

(1) We don’t “associate” words to “entities,” we first learn to categorize inputs (whether entities or features) by learning to detect directly the sensorimotor features that distinguish category members from non-members (or members of other categories). (This is called direct sensorimotor grounding, DSG.) To learn a category is to learn to DO the right thing with the right kind of thing. (Eat the edible mushrooms and not the poisonous ones.) That DOing is not initially, or primarily, to NAME the category (“edible”), (though, with language, that eventually becomes one of the main things you do.

(2) Once you have learned to categorize (and manipulate) inputs that way, you’ve got the category, and you’re free to assign a name to it, and the name is grounded. But that’s all direct, bottom-up, sensorimotor learning (DSG), until you’ve got enough sensorimotor categories (as well as enough of their sensorimotor features, which are also categories) grounded to be able to combine them into verbal definitions or descriptions that describe or define more abstract, composite categories by their features in (grounded) feature-words (IVG).

(3) IVG is now indirect, but still bottom-up verbal learning. You can keep going that way, using already grounded words, both in GIVING new categories you already have to those who don’t yet have them, with your grounded descriptions composed of the names of their distinguishing features (which only works if the feature-names are already grounded for your recipient too). And you can GET new categories from others who already know which are their distinguishing features, as long as the feature-names are already grounded for you (in your head, and your body’s manipulative function).

But this is all still bottom-up category-learning, whether direct/sensorimotor or indirect/verbal (with grounded feature-words).

(4) Now start with a sensorimotor robot that has optical, acoustic, tactile and kinesthetic sensor and effectors (and neural nets that can learn to detect features through unsupervised and supervised learning) and walk me through how you’d do that top-down with an LLM in the robot’s head.

(5) Prediction: it won’t help to sink down fly-fishing lines from skyhooks way up in the LLM, down to “entities” in the world. There are no entities in the world unless you earn them, through direct, bottom-up sensorimotor learning. That’s my T3 robot story. Your job, dear colleague, is to explain what help is the LLM to the T3 robot? It’s like giving a preverbal robot (or infant) a reference manual that can answer any question about what’s what, including every category’s distinguishing features, but those words don’t mean a thing to the robotlet until it starts grounding them – bottom-up.

(6) The ChatGPT exchange I sent you yesterday noted that an LLM lodged as an oracle inside a T3-wannabe robot’s head might help speed things up once it’s reached the stage of indirect verbal grounding. That’s fine. But the robot has a long way to go to get there. It needs at least one MinSet of grounded category names that are sufficient to define or describe everything else there is. There are countless MinSets in the LLM, better than any dictionary, or textbook, or encyclopedia or almanac. But they’re all ungrounded and useless until the T3 robot does its direct bottom-up grounding to initialize them. They’re unconnected with the world. They can talk the talk but they can’t walk the walk.

(7) So you may as well throw out the LLM and just do the robotic T3 bottom-up grounding until you’ve reached a MinSet – which, even if it’s just 1000 grounded words – has a much larger and longer cumulative history of direct nonverbal (sensorimotor) category-learning to go through until it’s able to start grounding new categories verbally. That’s the time to haul in the LLM (where, in the past, parents and teachers and books and TV used to serve as the oracle). Before that they are as useless as a bible to a baby.

But I’m listening. Just be careful not to trip when you answer about the top-down grounding!

ChatGPT4

Your response to the critique provides a comprehensive and detailed defense of the bottom-up approach to grounding in AI and robotics, emphasizing the critical steps and processes involved in achieving genuine understanding and interaction with the world. Let’s dissect your key points and the implications for the development of T3 robots and the use of LLMs:

Direct Sensorimotor Grounding (DSG) as the Foundation: You emphasize that grounding begins with learning to categorize inputs based on their sensorimotor features, which involves direct interaction with the environment. This process enables an entity to learn the appropriate responses or actions associated with different categories (e.g., eating edible mushrooms while avoiding poisonous ones). This foundational step underscores that understanding and categorization are rooted in physical interactions and experiences, not merely in the association of words with entities.

Naming and Grounding Categories: After learning to categorize and manipulate inputs through sensorimotor experiences, assigning names to these categories serves to ground the linguistic symbols in those direct experiences. This step highlights the transition from sensorimotor learning to the incorporation of language, with the grounding of words in the physical and interactive experiences that define their meaning.
Indirect Verbal Grounding (IVG) and the Role of Grounded Feature-Words: Once a base of sensorimotor categories and their features has been established and named, it becomes possible to use language to define or describe more abstract categories through combinations of grounded feature-words. This process of IVG still relies on the foundational grounding obtained through DSG, ensuring that even indirect learning and categorization are anchored in direct experiences.

Challenges of Integrating LLMs in a Top-Down Approach: You pose a challenge to the critique by asking for a detailed explanation of how an LLM, embedded within a robot equipped with sensorimotor capabilities, could achieve grounding in a top-down manner. Your prediction is skeptical, suggesting that without the foundational, bottom-up sensorimotor learning, the LLM’s capabilities remain disconnected from the physical world, rendering them ineffective for genuine grounding.

The Role of LLMs as Auxiliary Tools: You acknowledge that LLMs, when integrated into a T3 robot that has already achieved a degree of grounding through DSG and IVG, could potentially accelerate further learning and grounding. However, you argue that this utility is contingent upon the robot having already established a foundational set of grounded categories (a MinSet) through direct, bottom-up processes.

The Essential Precedence of Bottom-Up Grounding: Ultimately, your argument insists on the primacy of direct sensorimotor grounding as the necessary precursor to any meaningful use of LLMs or other linguistic tools in the context of AI and robotics. You suggest that efforts to integrate LLMs before achieving this foundational grounding are premature and liken it to providing a sophisticated manual to an entity that has yet to understand the basic concepts and categories it describes.

Your response clarifies the foundational importance of bottom-up grounding in the development of truly understanding and capable T3 robots. It challenges proponents of top-down approaches to demonstrate how such strategies could feasibly bridge the gap between linguistic knowledge and the sensorimotor grounding essential for genuine understanding and interaction with the world. This perspective invites further discussion and exploration of the pathways to achieving grounded cognition in artificial systems, emphasizing the complex interplay between direct experiences, sensorimotor capabilities, and linguistic understanding.

SH:

Ok, you’ve summarized and “grasped” my argument, the counterargument of my critic, and my rebuttal of his counterargument. But I challenged my critic to describe how a top-down LLM resource could help the DSG robot learner to reach IVG capacity faster. Can you meet that challenge? (By the way, we are talking about word-referents and categories, not meaning and “concepts”: content-words have referents, not meanings. Only subject-predicate propositions (such as definitions and descriptions) have meanings,) But I’m listening…

ChatGPT4

Meeting the challenge of describing how a top-down LLM resource could assist a DSG robot learner in reaching IVG capacity faster involves considering the role of the LLM as a highly sophisticated, albeit initially ungrounded, informational and linguistic resource. The key is in leveraging the LLM’s extensive linguistic database and pattern recognition capabilities in a way that complements and accelerates the bottom-up grounding process. Here’s a potential pathway:

Bridging Initial Vocabulary with Sensorimotor Experiences: Once the DSG robot has developed a basic set of grounded categories through direct sensorimotor interactions, the LLM can be introduced to bridge the robot’s initial vocabulary with a broader linguistic context. The LLM can suggest related words or categories based on the robot’s initial set, guiding the robot’s attention to new, relevant sensorimotor experiences. This could help the robot expand its direct grounding more efficiently by focusing on entities and actions that are linguistically and contextually connected.

Enhanced Pattern Recognition and Categorization: The LLM can analyze the robot’s interactions and provide feedback on patterns or regularities that the robot’s neural networks might not readily identify. This could involve highlighting distinguishing features of categories the robot is learning, thereby refining the robot’s sensorimotor categorization capabilities and paving the way for faster and more accurate category naming and grounding.

Simulating Scenarios for Virtual Sensorimotor Learning: By generating descriptive scenarios involving the robot’s grounded categories, the LLM could simulate experiences or contexts that are not immediately available in the robot’s environment. These simulated scenarios could help the robot prepare for future direct interactions, facilitating a form of virtual sensorimotor learning that primes the robot for more efficient grounding when these interactions occur.

Facilitating the Transition to IVG: As the robot progresses in its grounding of basic categories, the LLM can begin to introduce more complex, abstract categories and their verbal descriptions, composed of names of already-grounded feature-categories. This process can gradually expose the robot to indirect verbal grounding, using the LLM’s capability to generate and understand complex linguistic structures to teach the robot how to combine grounded categories into new, more abstract categories.

Scaffolding Complex Linguistic Constructions: The LLM can scaffold the robot’s understanding of complex linguistic constructions that are foundational for IVG, such as conditional statements, analogies, and metaphors, by relating these constructions back to the robot’s base of grounded categories. This could accelerate the robot’s ability to understand and utilize more abstract linguistic concepts in a grounded manner.

Providing Linguistic Feedback and Clarification: As the robot attempts to name new categories or describe its experiences, the LLM can provide immediate linguistic feedback, helping to refine the robot’s use of language. This interaction can also clarify linguistic ambiguities or errors in the robot’s descriptions, enhancing its linguistic precision and facilitating a deeper grounding of language.

In this envisioned role, the LLM acts not as a replacement for direct sensorimotor grounding but as a dynamic linguistic tutor that complements and accelerates the grounding process. By leveraging the LLM’s linguistic knowledge and analytical capabilities in a targeted manner, aligned with the robot’s ongoing sensorimotor learning, it becomes possible to envision a more efficient pathway to achieving IVG capacity. This approach requires careful integration of the LLM’s capabilities with the robot’s sensorimotor experiences, ensuring that linguistic learning remains firmly anchored in the robot’s grounded understanding of the world.

SH:

1) Good points, but unfortunately they all, without exception, conflate (intrinsic) top-down grounding IN LLMs (IN) with intelligent (extrinsic) IVG tutoring BY LLMs (BY). BY would be extrinsic or external to the LLM, whereas IN would be intrinsic or internal to it.

(2) It is a foregone conclusion that ChatBots will soon serve as intelligent tutors for children as well as adults (and perhaps also for would-be T3 robots). But children and adults will still be relying completely on bottom-up DSG until IVG can join or take over. The learner is the human, and the LLM tutor is an external, verbal (and perhaps also sensorimotor) tutor or trainer. This is not top-down grounding by LLMs. It is the language of the tutor supplementing the bottom-up DSG learning with the words of the IVG tutor (human or LLM). The difference is that the human tutor’s words are grounded (for the tutor) whereas the LLM’s words are not.

It remains bottom-up DSG plus (once language kicks in) bottom-up IVG.

(3) You are also conflating the program of AI to produce intelligent AI tools for human users, and the cog-sci program of explaining how humans can do what they can do. Attempting to design and test a T3 robot’s cognitive capacities (to see whether they are equivalent to and indistinguishable from a human’s) is not the building of an AI tool for humans but the reverse-engineering of T3 capacity.

(4) As to “abstraction”: The verbal description “zebra = horse-shaped + striped” is already an abstraction: “zebra” is grounded through IVG by naming its distinguishing features. This works if the features are already grounded for the learner. (Normally they are also grounded for the tutor, but that is not necessary. The right words are enough. “Democracy” = leader chosen by vote” works the same way. Once it’s IVG it’s all abstraction.

ChatGPT4

Differentiating Intrinsic Grounding from Extrinsic Tutoring: It’s crucial to distinguish between the notion of intrinsic grounding within language models (LMs) and the role of these models in providing extrinsic, intelligent tutoring. Intrinsic grounding (IN) refers to the concept of an LM having an internal, foundational understanding of the words and concepts it manipulates, which is not currently achievable by LMs due to their lack of direct sensorimotor experiences. Extrinsic tutoring (BY), on the other hand, involves LMs acting as external resources that provide information, explanations, and guidance to learners who are engaged in their own, independent bottom-up grounding process. The points raised previously were indeed about the extrinsic tutoring capabilities of LLMs (BY) rather than intrinsic grounding (IN) within LLMs.

Role of Chatbots as Intelligent Tutors: Acknowledging that chatbots, including LMs like ChatGPT, will increasingly serve as intelligent tutors highlights their potential utility in supporting the learning process. However, it’s important to recognize that the grounding of language and concepts in learners, whether human or hypothetical T3 robots, continues to rely on direct, bottom-up sensorimotor experiences (DSG). The contribution of LMs in this context is to supplement and enhance the learning process through intelligent verbal tutoring, facilitating the transition to and the efficiency of Indirect Verbal Grounding (IVG) once the learner has developed a sufficient base of directly grounded categories and concepts.

Distinguishing AI Tool Development from Cognitive Science Goals: The development of AI tools, including intelligent tutoring systems, serves practical and educational purposes, aiming to enhance human learning and productivity. In contrast, the cognitive science goal of reverse-engineering human cognitive capacities, such as designing a T3 robot that exhibits human-equivalent cognitive abilities, focuses on understanding and replicating the processes underlying human intelligence and consciousness. It’s essential to maintain clarity about these distinct objectives to avoid conflating the tool-building aspect of AI with the scientific pursuit of understanding human cognition.

Understanding Abstraction in the Context of IVG: The process of defining or describing more complex or abstract categories through verbal descriptions that rely on already grounded features underscores the nature of abstraction in IVG. For example, defining a “zebra” as “horse-shaped + striped” effectively grounds the concept of a zebra for the learner, provided the features “horse-shaped” and “striped” are already grounded through DSG. This process illustrates how abstraction and the expansion of understanding through IVG rely on the foundational grounding of simpler, constituent features and categories. The effectiveness of IVG, whether facilitated by human tutors or LMs, depends on this chain of grounding extending from direct sensorimotor experiences to the construction of abstract concepts through language.

Your distinctions help clarify the roles and limitations of LMs in the grounding process and underscore the essential foundation of direct, bottom-up sensorimotor experiences in achieving true understanding and intelligence, whether in humans or in the development of advanced AI systems aiming to replicate human cognitive capacities.

SH:

So where does this leave the notion that an LLM (e.g., GPT4) could itself be grounded top-down with some sensorimotor add-ons? Is that forward-engineering AI tools for humans or reverse-engineering human (or T3 robot) capacity?

ChatGPT4

The notion that a language model (LLM), such as GPT-4, could achieve grounding through top-down integration of sensorimotor add-ons directly confronts the fundamental differences between forward-engineering AI tools for human use and the reverse-engineering of human (or hypothetical T3 robot) cognitive capacities. Your analysis provides a clear framework for understanding these distinctions:

Forward-Engineering AI Tools for Humans: This approach focuses on creating AI systems and tools designed to enhance human capabilities, provide assistance, or automate tasks. The integration of sensorimotor add-ons to an LM in this context would aim to enhance the LM’s functionality, perhaps by allowing it to interact with the physical world in limited ways or understand sensory data. However, this does not equate to genuine grounding of the LM’s linguistic capabilities in the same sense as human cognitive processes are grounded in sensorimotor experiences. Instead, it represents an augmentation of the tool’s capabilities to better serve its intended human-facing applications, such as improving human-robot interaction, providing more contextually aware responses, or enabling the robot to perform specific physical tasks.

Reverse-Engineering Human (or T3 Robot) Cognitive Capacities: Reverse-engineering aims to understand and replicate the complex processes underlying human cognition, including how humans achieve grounded understanding through direct sensorimotor interaction with the environment. Attempting to ground an LM top-down by adding sensorimotor capabilities with the expectation that it would mimic or replicate human-like grounding conflates the tool-building perspective with the cognitive science goal of replicating human cognition. Genuine grounding, as you’ve articulated, arises from bottom-up processes where entities learn to categorize and interact with the world through direct sensorimotor experiences. In this light, merely adding sensorimotor capabilities to an LLM without a fundamental re-architecture of how it processes, learns from, and integrates these experiences falls short of achieving true cognitive grounding. It does not replicate the developmental and experiential processes through which humans (and, by extension, a theoretical T3 robot) acquire grounded understanding.

Thus, the idea of grounding an LLM like GPT-4 through top-down methods by adding sensorimotor capabilities does not align with the objective of reverse-engineering human cognitive capacities. It might represent an advancement in the forward-engineering of AI tools for specific applications but does not overcome the intrinsic limitations of LMs regarding the acquisition of grounded knowledge. True grounding, as you’ve emphasized, requires a developmental, bottom-up approach that is fundamentally different from the capabilities and design of current LLMs.

Can Toy Robotic Capacities Make Top-Down Meet Bottom-Up?

Re: Figure Status Update – OpenAI Speech-to-Speech Reasoning

SH:

Is this demo sensorimotor grounding? No, It’s a toy robot with (1) some toy-world visual recognition and motor manipulation skills, plus (2) (perhaps non-toy) text-to-speech and speech-to-text capacity, plus (3) ChatGPT’s remarkable and as-yet unexplained (non-toy) interactive verbal skills, including (4) its (non-toy) encyclopedic verbal database and navigation/interaction capacity.

But it’s still ungrounded.

If/when it can do the kind of thing it does in the video with anything it can talk about, and not just an infomercial demo, then, and only then, will it have an even more remarkable, and as yet unexplained, (non-toy) grounded T3 robotic capacity.

Two-year-olds are grounding their words via the only way upward: bottom-up, through (unsupervised and supervised) learning of sensorimotor categories, by detecting their distinguishing sensorimotor features directly, and then naming the grounded categories (by describing their features, which are likewise learnable, nameable categories).

Then, because the 2yr-old also has the capacity for language (which means for producing and understanding subject-predicate propositions with truth-values, composed out of category names defined or described by referents of their (grounded) feature-category names), verbal instruction (LLM-style) can kick in and even take over.

That’s bottom-up grounding, and it applies to children as much as to T3 robots.

But that OpenAI infomercial demo was just a toy. More important, though, is that it is based on an incoherent pipe-dream, which is that an LLM’s words can be grounded top-down with the help of more and more bottom-up toy robotic learning.

But the only way to get to the top is with bottom-up T3 robotics. So you might as well forget about the LLM and its word-power for that project. Just let your 2-year-old child or T3 robotlet use ChatGPT as tutor, the way kids use their parents. But to understand what the LLM (or their nanny) is telling them, they have to learn the referents of all the content-words in the verbal explanation. And there’s only one way to do that: bottom-up, first by direct sensorimotor grounding (DSG) and then – once the child or Ts robot has grounded the names — and hence the referents — of enough categories bottom-up (including enough feature-category names), learners can carry on grounding bottom-up through indirect verbal grounding (IVG), as long as their tutors describe the new (ungrounded) categories with propositions made up of already-grounded category names – already grounded in the heads of the learners.

So the bottom line is that the referents of the words in the teacher‘s IVG definition or description or explanation have to already be grounded in the head of the learner (whether via DSG or IVG).

I leave it to you, GPT, as an exercise, to explain why that cannot be done top-down with an LLM-powered chat-robot, where it’s hanging from ungrounded skyhooks

ChatGPT4 (after a bit of browbeating by me):

An important question in the development of AI and robotics concerns the most efficient and effective path to achieve a genuinely grounded, intelligent system. Is it more practical or feasible to enhance a primarily linguistic, top-down T2 language model (LLM) to achieve the sensorimotor and cognitive capabilities of a T3 robot, or would it be better to develop T3 robotic capabilities bottom-up independently and then supplement these with the LLM’s abilities externally, as a form of advanced, verbal tutoring.

Given the distinctions between T2 and T3 systems, a more grounded and arguably more natural progression of AI development, closely mirroring human cognitive development might be more promising. Humans first develop sensorimotor understanding and category learning capabilities (direct T3 capacities) before language acquisition goes on to significantly enhance and expand their cognitive and communicative capacities. This developmental trajectory suggests that grounding in the physical world through direct sensorimotor experience forms a necessary foundation for the effective use of language for further learning and communication.

Thus, attempting to “train” a T2 LLM chatbot to become a T3 Turing-indistinguishable robot might not only be inherently inefficient but could overlook the essential aspect of grounding that comes from direct interaction with the physical world. Incorporating LLMs as an auxiliary verbal tutor for a T3 entity (human or robot), once it has developed a sufficiently grounded vocabulary about the world, may be a more logical and effective approach, leveraging the strengths of LLMs in processing and generating language to enhance the T3’s cognitive and communicative capabilities. It aligns with how language and learning occur in humans, where foundational knowledge and understanding from direct grounding are subsequently enriched and expanded through language-based learning — indirect but grounded.

This approach would capitalize on the LLM’s capacity for generating coherent, contextually appropriate language but would also ensure that the use of this language was grounded in a pre-existing vocabulary and propositions. It suggests a complementary integration of auxiliary T2 LLM chatbotic and autonomous T3 robotic systems, where each component contributes its strengths to the development of a more versatile and genuinely intelligent agent.

The notion that a top-down, language-centric system (T2) can achieve genuine grounding by incrementally incorporating “toy” sensorimotor capabilities may reflect a fundamental misconception about the nature of grounding and the role of sensorimotor experiences in achieving it.

Grounding isn’t merely a matter of bridging linguistic competence with basic physical interaction. True grounding —as observed in humans and necessary for a hypothetical T3 robot — entails a deep, intrinsic connection between sensorimotor experiences and the symbols (words) that represent them. This requires not just the recognition or manipulation of objects based on learned descriptors but direct understanding of those objects and actions in the world to which they refer.

The error in imagining that a T2 system could “graduate” to T3 status by being endowed with limited sensorimotor abilities lies in underestimating the complexity of human sensorimotor and cognitive integration. Human cognition is not simply the sum of its parts; it’s the product of a highly integrated and complex system that develops bottom-up through continuous, rich interaction with the environment. Language development in humans, deeply intertwined with sensorimotor experiences, cannot be replicated in AI by superficially adding physical capabilities to a fundamentally linguistic system.

The strengths of a T2 system like GPT could be better utilized as an auxiliary educational tool for a T3 robot that is learning through its interactions with the world. In this scenario, GPT’s extensive knowledge base and linguistic capabilities can enhance the learning process by providing information, explanations, and clarifications in a way that complements the robot’s direct experiences. This approach would leverage the best of both worlds: the depth and breadth of GPT’s top-down linguistic knowledge and the direct grounding that comes from the T3’s bottom-up sensorimotor interactions with its environment.

A SCOTUS Hermeneutics Exercise for ChatGPT4

Re: “Supreme Betrayal A requiem for Section 3 of the Fourteenth Amendment” By J. Michael Luttig & Laurence H. Tribe The Atlantic March 15 2025

SH: [Query to ChatGPT4]: Could you please first summarize the following passage to show you have understood it, and then give some arguments to support that “2 + 2 = 4” is false and that “water is not wet” is true. 

“The needless, rushed, and astoundingly stupid decision of the US Supreme Court has made it crystal clear that, in incompetent (and malevolent) hands, interpreting the constitution has become like Microsoft trying to patch obsolescent and increasingly contradictory legacy code when what is really needed is a bottom-up rewrite. Holding back the ocean with sandbags comes to mind too.  And of course, the infinite pliancy of Holy Writ, under the hermeneutics of zealots of any persuasion. Maybe language itself is to blame too. A good exercise for ChatGPT is to give it a true proposition, like “2+2=4” or “water is wet” and ask GPT to find an interpretation under which it is false. Not one, but a countless number of interpretations can always be found that will do the job.(Vice versa works for false propositions too.)”

ChatGPT4:

The passage criticizes the U.S. Supreme Court’s decision, suggesting it reflects a lack of competence and possibly malevolence in interpreting the constitution, likening the situation to attempting to update outdated and conflicting software or trying to hold back the ocean with sandbags. It highlights the flexibility with which holy texts can be interpreted by zealots of any persuasion and suggests that language’s inherent ambiguity contributes to these problems. The author proposes a thought experiment for GPT, challenging it to reinterpret universally accepted truths (such as “2+2=4” or “water is wet”) as false, to illustrate the point that language and interpretation can significantly alter perceived truth.

To engage with the exercise proposed:

Arguing that “2 + 2 = 4” is False

In a non-standard mathematical system or under certain interpretations, “2 + 2 = 4” could be considered false. For instance, in modular arithmetic, which deals with remainders after division by a certain number (the modulus), “2 + 2” does not necessarily equal 4. Specifically, in modulo 2 arithmetic, 2 + 2 = 0, because 4 divided by 2 leaves a remainder of 0. This example demonstrates that, depending on the mathematical rules and systems we agree to use, the truth of “2 + 2 = 4” is not absolute but contingent upon those systems.

Arguing that “Water is Not Wet” is True

The statement “water is not wet” can be supported by redefining or closely examining what it means to be “wet.” Wetness is a condition that applies to a solid object when it comes into contact with a liquid, such that the liquid adheres to the object’s surface in a layer. However, water itself is a liquid and does not become wet but instead causes other materials to become wet. From this perspective, saying “water is wet” is akin to saying “water makes water wet,” which is a misunderstanding of the conditions required for wetness. Thus, one could argue that water, in its capacity to induce wetness but not be in the state of wetness itself, is not wet.

SH: Very good. Both arguments are the prima facie ones I expected. Now could you please give one further argument in each case, to show that there’s not just one way to do it?

ChatGPT4:

Certainly, let’s explore an additional argument for each proposition:

Further Argument that “2 + 2 = 4” is False

One might consider the realm of philosophical argumentation, specifically nominalism, which suggests that abstract objects like numbers do not exist outside of our minds. From this viewpoint, “2 + 2 = 4” is an agreement within a human-constructed symbolic system rather than an eternal truth. If one were to argue from a radically different conceptual framework—where the symbols “2”, “+”, and “4” have different meanings or where the concept of “addition” is not defined in the way we commonly understand it—the statement “2 + 2 = 4” could be seen as false. For instance, in a hypothetical culture where quantities are expressed not by exact numbers but by qualitative measures (much, little, enough), the precise operation “2 + 2 = 4” loses its meaning and thus its truth value could be considered as not true within that conceptual framework.

Further Argument that “Water is Not Wet” is True

Exploring the semantics of “wetness” can provide another avenue for arguing that “water is not wet.” One might argue that wetness is a perceptual phenomenon rather than an intrinsic property of substances. That is, an object is perceived as “wet” when it significantly alters our sensory experience of it, particularly through touch. Water itself does not undergo such a change in state; it is always in the same state. Therefore, it does not meet the perceptual criterion for wetness that a dry object does when it comes into contact with water. From this perspective, wetness is an emergent property that arises from the interaction between a liquid and a material that can absorb or be coated by the liquid. Since water itself cannot be coated by or absorb itself, it cannot be considered “wet” according to this definition of wetness as an emergent, perceptual property.

SH: Yes, and it can go on and on like that, with ever more fanciful interpretations, by adding more and more fanciful premises. Demagogues, devious lawyers, sophists, quacks, psychopaths, and theologians are particularly adept at this — and they all have the bottomless resources of language, rhetoric, and now LLMs to draw upon…

Créativité : méthode ou magie ?

Stevan Harnad

Harnad, S. (2006). Creativity: Method or magic?. Hungarian Studies20(1), 163-177.

Résumé : La créativité peut être un trait, un état ou simplement un processus défini par ses produits. Cela peut être comparé à certaines activités cognitives qui ne sont généralement pas créatives, telles que la résolution de problèmes, la déduction, l’induction, l’apprentissage, l’imitation, les essais et erreurs, l’heuristique et « l’enlèvement », mais toutes ces activités peuvent également être réalisées de manière créative. . Il existe quatre types de théories, attribuant la créativité respectivement à (1) la méthode, (2) la « mémoire » (structure innée), (3) la magie ou (4) la mutation. Ces théories mettent diversement l’accent sur le rôle de l’inconscient, les contraintes innées, l’analogie, l’esthétique, les anomalies, les contraintes formelles, le hasard, les analogues mentaux, les stratégies heuristiques, la performance improvisée et la collaboration cumulative. Il y a une part de vertu dans chacun d’entre eux, mais le meilleur modèle reste celui implicite dans le dicton de Pasteur : « Le hasard favorise les esprits préparés ». Et comme l’exercice et même la définition de la créativité nécessitent des contraintes, il est peu probable que la « formation à la créativité » ou l’accent mis sur la liberté dans l’éducation puissent jouer un rôle productif dans cette préparation. 


Qu’est-ce que la « créativité » ? Est-ce un trait cognitif stable que certaines personnes possèdent et d’autres non ? Est-ce un état occasionnel dans lequel les gens entrent parfois ? Ou est-elle définie entièrement par ses produits : « la créativité est comme la créativité » ? Quoi qu’il en soit, comment naît la créativité ? Comment faites-vous? Y a-t-il des règles ? La pratique vous aidera-t-elle à devenir créatif ?

Il y a probablement une part de vérité dans ces trois notions de ce qu’est la créativité. C’est (au moins parfois, et dans une certaine mesure) un trait, car c’est un fait statistique que certains individus le présentent à plusieurs reprises. Cela peut également être corrélé à d’autres traits ; certains pensent même que cela peut être prédit par des tests psychologiques objectifs. Mais c’est aussi évidemment un état, car personne n’est créatif tout le temps, et certaines personnes ne sont hautement créatives qu’une seule fois dans leur vie. Parfois, la créativité n’est même pas un état spécial et unique, mais plutôt une circonstance définie rétrospectivement, basée sur quelque chose d’extérieur, quelque chose de créatif qu’un individu a fait.

Il existe un certain nombre de théories sur les mécanismes sous-jacents de la créativité, théories l’attribuant à tout, depuis la méthode jusqu’à la folie – aucune d’entre elles n’est très satisfaisante. Quant à stimuler la créativité – en utilisant des stratégies heuristiques ou par une « formation à la créativité » – cela a eu un succès très limité.

Le dicton de Pasteur. Avant de passer à une discussion sur les mécanismes et les méthodes de créativité, nous ferions bien de garder à l’esprit le célèbre dicton de Pasteur, «… le hasard favorise l’esprit préparer», car cela entraînera s’avèrent en dire plus sur ce que l’on peut dire sur la créativité que les notions plus ambitieuses ou plus modernes. Pasteur parlait bien entendu d’un type de créativité très spécifique, à savoir la créativité scientifique expérimentale. (La citation commence en fait : < > — “Dans les domaines expérimentaux” ou “Dans les domaines de l’expérimentation”, et s’intéressait en partie à la question de savoir si les découvertes expérimentales — celles que l’on appelle « fortuites » — ne sont en réalité que des accidents heureux.) Pasteur La perspicacité semble cependant s’appliquer tout aussi bien à toutes les formes de créativité.

On peut interpréter le dicton de Pasteur comme suit : il y a une part (peut-être très importante) de hasard dans la créativité, mais elle a plus de chances de se produire si l’esprit y est préparé d’une manière ou d’une autre. Le contexte montre que par « préparation », Pasteur n’entendait pas naître avec le trait « créatif ». Il voulait dire que les connaissances et les compétences existantes pertinentes pour le « saut » créatif devaient d’abord être suffisamment maîtrisées avant qu’un « coup de tonnerre » ne soit probable. Paradoxalement, sa suggestion est que la seule formule de créativité est la moins créative imaginable, à savoir apprendre ce qui est déjà connu. Ce n’est qu’à ce moment-là que vous disposerez de suffisamment de matières premières nécessaires pour une contribution originale et que vous serez alors en mesure de reconnaître quelque chose de valable et d’original pour ce qu’il est réellement.

Certaines notions floues se sont glissées dans cette histoire : « originalité », « valeur », « sauts créatifs » et « coup de tonnerre ». Il est clair que la créativité a quelque chose à voir avec l’originalité et la nouveauté, mais il est tout aussi clair qu’elle ne peut pas simplement être équivalente à quelque chose de nouveau, car tant de choses nouvelles sont aléatoires, triviales ou sans intérêt. Cela aussi a à voir avec la « préparation ». Il est peu probable qu’un remède contre le cancer (pour prendre un exemple mythique) soit découvert par quelqu’un qui n’a pas fait ses devoirs sur ce que l’on sait déjà sur le cancer. Il peut en effet proposer de « nouvelles » hypothèses auxquelles personne n’a jamais pensé, mais il sera évident pour les esprits « préparés » du domaine qu’une telle hypothèse non étudiée est simpliste, absurde ou abandonnée depuis longtemps (comme il le dit). est très probable — bien que cela ne soit pas, bien sûr, logiquement certain — qu’il en soit ainsi).

La nouveauté ne suffit donc pas. Quelque chose de créatif doit également avoir une certaine valeur par rapport à ce qui existe déjà et à ce qui est perçu comme nécessaire. (Notez que ceci, et toute la discussion précédente, se concentre sur ce que l’on pourrait appeler la créativité « intellectuelle », « technologique » ou « pratique », alors qu’il existe, bien sûr, une autre dimension de la valeur qui n’a pas grand-chose à voir avec l’aspect pratique et peut-être cela n’a plus grand chose à voir avec l’intellectualité, et c’est là la créativité artistique. Ici un des critères de valeur est la valeur esthétique, un critère affectif ou émotionnel qui finira par resurgir de manière inattendue même dans la créativité intellectuelle. Nous y reviendrons plus loin, mais (Pour l’instant, notons que les considérations intellectuelles et pratiques ne sont pas les seules bases pour porter des jugements de valeur.)

Et même être nouveau et précieux ne semble pas suffire : le résultat doit également être inattendu ; il doit y avoir un sentiment de surprise. Habituellement, cela signifie que cela ne serait pas venu à l’esprit de la plupart des gens, qui tentaient plutôt quelque chose dans le même sens sans succès, précisément parce qu’ils suivaient les attentes conventionnelles – ce que le résultat surprenant viole d’une manière ou d’une autre.

Et ici, avec ce troisième et dernier critère de « l’inattendu », nous semblons être en contradiction avec le dicton de Pasteur. Car que peut faire toute cette « préparation », sinon former nos attentes, établir des conventions, évoluer dans des directions familières et sans surprise ? En définissant la créativité comme la production de quelque chose qui est non seulement nouveau et précieux, mais aussi inattendu, nous semblons avoir mis un handicap insurmontable sur le chemin de la préparation : car quelle que soit la direction dans laquelle la préparation nous mène réellement, elle ne peut être inattendue. Cela semble en effet paradoxal, mais encore une fois, un examen plus attentif du dicton de Pasteur résout l’apparente contradiction : l’idée n’est pas que la préparation garantisse la créativité. Rien ne garantit la créativité. Ce que Pasteur veut dire, c’est que la seule manière de maximiser la probabilitéde créativité est la préparation. Il a reconnu à juste titre que l’élément essentiel reste le hasard – l’imprévu, l’inattendu – mais que ce facteur fortuit est plus probable dans des conditions préparées.

Une fois arrivés à trois critères (certes vagues) pour déterminer ce qui est créatif, nous pourrions peut-être renforcer cette notion en l’opposant à ce qui ne l’est pas. Nous découvrirons cependant que, même s’il existe de nombreuses activités cognitives qui ne sont pas habituellement créatrices en elles-mêmes, chacune d’entre elles est également capable d’être exécutée de manière créative, ce qui suggère que la créativité est en quelque sorte complémentaire à la cognition ordinaire.

Qu’est-ce qui n’est pas créatif ?

Résolution de problème. En général, la résolution de problèmes n’est pas une activité créatrice (même si Stravinsky pensait que c’était le cas – nous reviendrons sur sa vision et sa définition assez différente de la « résolution de problèmes »). La résolution de problèmes implique l’application d’une règle connue ou d’un « algorithme » afin de résoudre des problèmes d’un type global qui varie de manière mineure ou prévisible. Bien que certains éléments de nouveauté et de prise de décision puissent être impliqués — c’est une erreur de premier cycle, façonnée par les exigences malheureuses de la passation d’examens, que de penser que la résolution de problèmes peut être accomplie avec succès par cœur — et la règle ou la formule pertinente peut nécessiter un certain temps. Afin d’être comprise et appliquée, la résolution appliquée conventionnelle de problèmes est néanmoins un processus relativement passif et mécanique. Comprendre et appliquer avec succès une règle n’est tout simplement pas la même chose que la découvrir. Cependant, comme le montrera notre discussion sur l’analogie ci-dessous, des étincelles de créativité peuvent être impliquées même dans la reconnaissance du fait qu’une classe de nouveaux problèmes peut être résolue de manière inattendue par une règle ancienne. Et même dans le contexte de l’enseignement, les élèves doués peuvent redécouvrir de manière indépendante de nouvelles applications d’algorithmes qui leur ont été enseignés à des fins plus limitées.

Déduction. Le raisonnement déductif, qui est défini comme le raisonnement à partir de principes généraux vers des cas particuliers (comme en déduisant des principes selon lesquels « Tous les hommes sont mortels » et « Socrate est un homme » la conséquence que « Socrate est mortel »), n’est en général pas créatif. . D’un autre côté, vues d’une certaine manière, toutes les mathématiques sont une déduction logique : il existe des théorèmes pour lesquels il est difficile, voire impossible, de voir intuitivement s’ils sont vrais ou non, et encore moins de prouver qu’ils sont vrais en montrant les étapes par lesquelles ils peuvent être déduits de principes généraux. Par conséquent, toutes les déductions ne sont pas triviales ; certains pourraient bien nécessiter une formidable créativité pour être réalisés. En général, c’est l’ampleur de l’écart déductif entre les principes et leurs conséquences qui détermine si la déduction nécessite ou non de la créativité : « Socrate est mortel » n’en a pas besoin ; Le dernier théorème de Fermat le fait.

Induction. Le raisonnement inductif, qui est défini comme un « raisonnement » à partir de cas particuliers vers des principes généraux, n’est pas non plus, en général, créatif, mais il est plus problématique, pour des raisons intéressantes. Car alors que dans le raisonnement déductif, une fois que la vérité d’un théorème est connue et que la preuve a été construite, le chemin des principes aux conséquences peut être parcouru de manière relativement mécanique, dans le raisonnement inductif, il ne semble y avoir aucun chemin mécanique disponible autre que les essais et les erreurs ; et ce chemin, dans les cas les plus intéressants, peut s’avérer soit aléatoire, soit sans fin (ou les deux). Ainsi, des généralisations inductives qui ne sont pas triviales (à la manière de « telle pomme est ronde, telle pomme est ronde, donc toutes les pommes sont rondes » est trivial) appellent à la créativité. Et même lorsque le principe général est trouvé, il n’y a pas de chemin “a posteriori” que l’on puisse reconstruire a posteriori (comme on peut le faire après avoir découvert une preuve déductive) pour conduire du particulier au général — seulement l’inverse. .

En d’autres termes, il ne semble pas y avoir d’algorithme ou de règle générale pour effectuer un raisonnement inductif. Ainsi, alors que la plupart des inductions quotidiennes sont très graduelles, triviales et non créatives, les cas les plus substantiels de « raisonnement » inductif ne sont probablement pas du tout un raisonnement, mais une créativité en action. Notez cependant que, puisque l’ampleur du « fossé » qui sépare le conventionnel du créatif est dans une certaine mesure arbitraire (et qu’il est peu probable que nos capacités cognitives de base aient évolué au service d’événements rares et célébrés), même « le quotidien » “l’induction” peut présenter de véritables éléments de créativité qui n’atteindront jamais la célébrité.

Apprentissage. Bien que, comme pour toutes les compétences, certaines personnes y parviennent mieux et de manière plus impressionnante que d’autres, l’apprentissage n’est en général pas non plus une activité créative : il s’agit de l’acquisition de connaissances et de compétences par l’instruction et l’exemple. De par sa nature, ce n’est pas quelque chose qui peut donner naissance à quelque chose de nouveau et d’inattendu, même s’il y a parfois des surprises, avec des étudiants créatifs découvrant (ou, tout aussi important par rapport à ce qu’ils savent déjà et ce qu’ils ne savent pas : redécouvrir ) des choses qui vont bien au-delà du contenu immédiat de ce qui leur est enseigné.

Imitation. Par définition, l’imitation donne naissance à quelque chose qui n’est pas nouveau ; ce n’est donc en général pas non plus une activité créatrice. Et pourtant, il s’avère également être un précurseur important de la créativité, notamment artistique. Ceux qui finissent par devenir des innovateurs créatifs commencent souvent par imiter les autres de manière remarquablement astucieuse. L’imitation est également liée à d’autres facteurs importants dans la créativité, tels que l’analogie, la métaphore et la « mimesis » (une théorie grecque selon laquelle l’art imite la nature). Invariablement, le nouveau et le précieux ressemble à l’ancien d’une manière (peut-être inattendue).

Essai et erreur. Presque par définition, les essais et erreurs ne sont pas créatifs et impliquent un échantillonnage aléatoire plutôt qu’un choix inspiré. Mais il ne faut pas oublier le rôle du hasard dans la créativité. Le « hasard » fait spécifiquement référence à des résultats surprenants, nouveaux et précieux, survenant purement par hasard, et donc potentiellement issus de rien d’autre que des essais et des erreurs aléatoires. Des enseignements peuvent être obtenus en examinant un panorama de cas individuels. Néanmoins, les essais et erreurs aléatoires (ou « tâtonner et trouver ») sont généralement le symptôme d’une approche particulièrement peu créative. Pourtant, une exception majeure semble être le processus d’évolution biologique (que certains ont même décrit avec admiration comme « créatif ») : l’évolution a produit ses résultats remarquables avec ce qui, selon la meilleure théorie actuelle, n’est guère plus qu’une variation génétique aléatoire, qui est puis façonné de manière sélective par ses conséquences adaptatives pour la survie et la reproduction. Des processus similaires (généralement non créatifs) sont impliqués dans la formation du comportement par ses conséquences immédiates dans l’apprentissage par essais et erreurs (« opérant » ou « skinnérien »).

Heuristique. Les heuristiques sont généralement comparées aux « algorithmes » dans la résolution de problèmes. La résolution d’un problème à l’aide d’un algorithme ou d’une règle de sécurité est censée donner une solution exacte et fiable qui fonctionne dans chaque cas. Le « résoudre » par des heuristiques – par un ensemble non intégré et incomplet de « règles empiriques » suggestives qui fonctionnent dans certains cas, mais pas dans tous, et pas pour des raisons entièrement comprises ou unifiées – est tout aussi peu créatif que de le résoudre en algorithme. Cependant, de nombreuses personnes ont remarqué que les procédures heuristiques (telles que l’échantillonnage de nombreux cas particuliers par essais et erreurs) conduisent parfois à des idées, parfois par généralisation inductive et analogie avec des cas dans lesquels les heuristiques réussissent, et parfois en raison du stimulus fourni par les cas. dans lequel les heuristiques (ou même les algorithmes) échouent (voir la discussion sur les anomalies ci-dessous).

Enlèvement. Peirce a proposé qu’outre l’induction et la déduction, il existe un troisième processus, appelé « enlèvement », par lequel les gens trouvent la bonne généralisation en considérant des exemples de cas, même si la probabilité d’y parvenir est beaucoup trop faible. Puisque ce processus est hypothétique, il n’appartient pas vraiment à cette liste de choses que nous faisons réellement et qui ne sont (généralement) pas créatives. Cependant, le reste de l’hypothèse renvoie à un thème qui reviendra lorsque nous discuterons des mécanismes possibles de créativité. Peirce pensait que la raison pour laquelle nous parvenons si souvent à trouver des généralisations improbables est que les solutions sont déjà intégrées dans notre cerveau. Par conséquent, selon ce point de vue, la créativité est une sorte de « souvenir », un peu comme Platon pensait qu’apprendre était un souvenir [anamnèse] (et non un souvenir conscient dans les deux cas, bien sûr). S’il est vrai que les schémas innés de notre activité cérébrale jouent un rôle crucial dans la créativité, alors bien sûr aucune « préparation » n’est plus importante que celle-ci (évolutive ?), et la créativité s’avère être en partie une compétence instinctive.

Ainsi se termine la liste (partielle) des cas suggestifs de ce qui n’est habituellement pas une activité créatrice. Je vais maintenant discuter brièvement de la question « état contre trait » avant de passer à l’examen du « processus créatif » et des « mécanismes » possibles de la créativité.

Trait créatif ou état créatif ?

Il y a actuellement un débat considérable sur la question de savoir si l’intelligence est un trait unitaire ou pluriel, c’est-à-dire s’il y a une intelligence ou y en a-t-il plusieurs ? Quelle que soit la vérité, il est clair qu’une sorte de « préparation » (et non celle prévue par Pasteur) dont un esprit aspirant à être créatif (au moins intellectuellement) pourrait bénéficier serait un QI élevé (ou des QI, s’il y en a). beaucoup). La question de savoir si le QI lui-même est un trait hérité ou un « état » acquis est une question trop complexe pour être discutée ici (il s’agit probablement des deux), mais notez que la question unitaire/pluriel s’applique également à la créativité. Qu’il s’agisse d’un trait ou d’un état, la créativité peut être universelle ou spécifique à un domaine, les individus la manifestant pour certains types de problèmes et pas pour d’autres. La distinction entre créativité intellectuelle et créativité artistique en est elle-même un bon exemple (voir la discussion sur les arts du spectacle ci-dessous).

La façon dont fonctionnent les tests de QI est que nous sélectionnons, dans le monde réel, l’activité ou la compétence humaine (appelée « critère ») que nous considérons comme intelligente (par exemple, faire des mathématiques), puis nous concevons des tests qui sont fortement corrélés aux différences individuelles dans ce critère d’activité, les scores élevés prédisent un niveau de performance élevé et les scores faibles prédisent un niveau faible. C’est ainsi que les tests de QI sont validés statistiquement. Essayer de faire de même avec les « tests de créativité » pose cependant immédiatement des problèmes, tant le critère « compétence » est rare, diversifié et difficile à définir. Des tests de « créativité » dits de « pensée divergente » ont été construits sans aucune validation solide. Ils diffèrent des tests d’intelligence « convergents » en ce sens qu’ils sont ouverts et n’ont pas de réponse strictement correcte. Ils sont censés prédire la créativité, mais les problèmes de validation semblent insurmontables, car une grande partie de la définition du « don » et du « génie » est post hoc, basée sur le recul de cas rares et de réalisations uniques. Il semble y avoir une contradiction entre le caractère prédictif des tests objectifs et l’élément imprévisible de la créativité. Cependant, s’il existe un trait (général ou spécifique à un problème) de « tendance à faire des choses de valeur imprévisibles », alors les tests pourraient vraisemblablement mesurer ses corrélats, s’il y en a.

Il existe également beaucoup de confusion et de chevauchements dans la mesure des compétences intellectuelles générales et spéciales, et aucune idée claire sur la manière dont elles peuvent interagir dans la créativité. Les effets du cycle de vie posent également des problèmes : les compétences et les connaissances liées au QI augmentent avec l’âge jusqu’à l’âge adulte, tandis que la créativité apparaît à différents âges et à différents stades, parfois tôt (comme chez les mathématiciens), parfois tard (comme chez les écrivains).

En général, l’image que nous nous faisons de la créativité basée sur la mesure objective des différences individuelles n’est pas très informative, laissant ouverte la possibilité très réelle que, sauf lorsqu’elle dépend fortement d’une compétence intellectuelle particulière (non créative), il n’y ait aucun trait mesurable. correspondant à la créativité du tout. Nous nous tournons maintenant vers la créativité en tant qu’état ou processus.

Mécanismes sous-jacents

Il existe quatre classes de théories sur les mécanismes sous-jacents de la créativité. Ils peuvent être classés (relativement mnémoniquement) comme : (1) méthode , (2) mémoire , (3) magie et (4) mutation . Le point de vue de la « méthode » est qu’il existe une formule pour la créativité (cela n’est généralement pas revendiqué de manière aussi grossière). Le point de vue de la « mémoire » est que le facteur essentiel est en quelque sorte inné. La vision « magique » est que des forces mystérieuses, inconscientes et inexplicables sont impliquées. Et le point de vue de la « mutation » est que l’élément essentiel est le hasard. Considérons maintenant plusieurs théories candidates en fonction de ces quatre catégories :

L’inconscient. La créativité en tant que fonctionnement de « l’esprit inconscient » appartient à la classe des théories « magiques » (telles que l’inspiration divine). Il n’offre aucune véritable explication du processus créatif, l’attribuant simplement à un inconscient mystérieux (et très créatif). Cette idée est reprise par Hadamard et d’autres dans son livre sur l’invention mathématique et est, bien entendu, très influencée par les idées freudiennes dominantes à l’époque. Le scénario est que pendant un certain temps, on travaille consciemment sur un problème, et quand on échoue, notre esprit inconscient continue et accomplit mystérieusement ce que l’esprit conscient ne pouvait pas. Du point de vue des sciences cognitives modernes, cela n’est pas très utile, car tous les processus cognitifs sont inconscients et, en tant que tels, nécessitent une explication , et pas seulement une attribution anthropomorphique à un autre, plus sage (ou plus primitif), tous analogues au conscient.

Le problème de l’explication de la cognition créative et non créative consiste à fournir un mécanisme pour l’ensemble de nos processus inconscients. Le seul aspect informatif du modèle de « l’inconscient » est l’attention qu’il attire sur le rôle incomplet des efforts conscients et délibérés dans le processus créatif. Notons cependant que le dicton de Pasteur indiquait déjà que la préparation était nécessaire mais pas suffisante. (De plus, « un effort conscient et délibéré » n’est même pas suffisant pour expliquer des activités cognitives aussi peu créatives que se souvenir d’un nom, reconnaître un visage ou additionner deux et deux.)

Structure innée de l’esprit. Le concept déjà décrit comme « enlèvement » vient d’une théorie de la « mémoire » (anamnèse) selon laquelle la créativité est en quelque sorte guidée ou contrainte par la structure innée de l’esprit. (Il existe une théorie équivalente de l’évolution biologique, le « préformationnisme », selon laquelle la structure évoluée n’est pas façonnée par le hasard et par essais et erreurs, mais est déjà inhérente à la structure de la matière.) Cette contrainte structurelle peut prendre deux formes. prendre. Soit cela fonctionne en éliminant bon nombre des faux départs possibles que nous pourrions prendre en les rendant (littéralement) impensables en premier lieu, soit cela nous guide d’une manière ou d’une autre dans la façon dont nous sélectionnons et évaluons les possibilités. Notez que cette théorie semble à première vue s’appliquer plus naturellement à la créativité intellectuelle, où il existe vraisemblablement un « bien » ou un « mal », plutôt qu’à la créativité artistique ; mais bien sûr, dans la créativité artistique, où prédominent les critères esthétiques (affectifs et perceptuels), il est facile de voir comment le « bien » et le « mal » peuvent dépendre de nos organes sensoriels et de notre structure émotionnelle. (Le rôle possible des contraintes esthétiques même dans la créativité intellectuelle sera repris ci-dessous.)

Le problème avec la vision de l’abduction est qu’elle semble attribuer trop de structure innée spécifique à l’esprit (et à cet égard, elle a un élément de la vision magique). Puisque le langage, la logique et l’échantillonnage mécanique des variations possibles par essais et erreurs semblent nous permettre de concevoir tant de choses, il est difficile de voir comment la première forme d’enlèvement – ​​les limites de ce qui est concevable – pourrait avoir une grande importance. rôle. Le problème de la créativité semble commencer une fois que nous prenons pour acquis le vaste éventail d’alternatives imaginables : comment pouvons-nous alors trouver les « bonnes » ?

La deuxième forme d’enlèvement – ​​l’orientation sélective – est peut-être plus prometteuse et sera discutée à nouveau ci-dessous, mais pour l’instant il convient de noter qu’il n’est pas clair dans quelle mesure cette fonction d’« orientation », celle impliquée dans les intuitions, les conjectures , intuitions, etc. (quels qu’ils soient), est un phénomène inné et évolutif, découlant de la structure de notre esprit, plutôt que d’un effet de l’expérience, de la préparation, de l’analogie et même du hasard. Le point de vue de l’abduction semble attribuer trop de choses à la structure innée sans donner aucune explication sur sa nature et ses origines.

Analogie. Bien qu’il ne s’agisse pas d’un modèle complet du processus créatif, la vision mettant l’accent sur la pensée analogique est clairement une question de méthode. L’idée est que les analogies jouent un rôle important dans le processus créatif ; que souvent une nouvelle « solution » (ou, dans le cas artistique, une nouvelle innovation) sera basée sur une analogie féconde et jusqu’alors inaperçue avec une solution existante dans un autre domaine (Hesse, Black). Cela dépend dans une large mesure de notre capacité et de notre inclination à rechercher, trouver et apprécier les similitudes structurelles, fonctionnelles et formelles. Cela pourrait très bien impliquer un processus cognitif de base, lié à la manière dont nos connaissances sont représentées et manipulées.

Il existe une forme plus élaborée de théorie de l’analogie, la théorie de la « métaphore », qui s’applique non seulement à la création poétique, mais à la créativité en général. Dans la mesure où cette théorie n’est pas elle-même simplement métaphorique, elle est instructive sur la productivité surprenante de la stratégie consistant à trouver, voire à imposer des similitudes en juxtaposant des objets, des images ou des idées, puis, en un sens, à « lire » ou à interpréter les conséquences. de la juxtaposition (Harnad). Il ne s’agit cependant pas d’une stratégie infaillible, pas plus que ne le sont l’induction systématique ou les essais et erreurs aléatoires, car il existe bien plus d’analogies stériles et vides de sens que d’analogies « créatives ». Les options sont toutefois réduites par la préparation (et peut-être par l’enlèvement) et, avec l’aide du hasard, l’analogie – à la fois délibérée et accidentelle – joue un rôle indéniable dans la créativité.

Préparation. Il faut ici évoquer la « méthode » pasteurienne elle-même, celle de la préparation. Les résultats créatifs ont tendance à être de nouvelles recombinaisons d’éléments existants, qui doivent donc tous être rendus facilement disponibles à l’avance par préparation. La probabilité de générer et de reconnaître un résultat nouveau et précieux dépend d’une maîtrise suffisante de ce qui est déjà disponible. Aucune stratégie plus sûre ne peut être recommandée à quiconque aspire à apporter une contribution créative dans n’importe quel domaine que de maîtriser aussi complètement que possible ce qui est déjà connu dans ce domaine et d’essayer d’étendre le cadre de l’intérieur. C’est certes paradoxal. Premièrement, par définition, une contribution créative ne viendra pas des méthodes existantes ni de « l’intérieur ». Deuxièmement, il y a le problème bien connu de tomber dans un « état d’esprit » mental, qui implique de persévérer avec les méthodes existantes par habitude, au détriment d’en essayer ou même d’en remarquer de nouvelles (comme lorsqu’on revient en arrière pour chercher quelque chose que l’on a déjà découvert). perdu au même endroit encore et encore) — c’est précisément ce qu’on pourrait s’attendre à ce qu’un accent excessif sur la préparation encourage.

Les décors conventionnels sont un danger omniprésent, et il n’existe aucune formule pour les surmonter si ce n’est de garder à l’esprit que la maîtrise n’implique pas l’esclavage et que le but ultime est de transcender les conventions, pas d’y succomber : Une attitude d’admiration et de dévouement envers le les connaissances ou les compétences que l’on souhaite maîtriser ne sont pas incompatibles avec un esprit d’ouverture d’esprit, d’individualité et même un certain scepticisme ; en effet, une capacité d’imitation précoce associée à un élément de rébellion peut être un indicateur de promesse dans un domaine donné (même si les dons prodigues n’aboutissent parfois à rien). Que la créativité soit un état ou un trait, il est clair qu’à connaissances ou compétences initiales identiques, certaines personnes réussissent à apporter des contributions originales tandis que d’autres tombent dans des attitudes infructueuses et persévérantes. La seule stratégie qui reste à recommander est que si des progrès ne sont pas réalisés après une tentative suffisamment longue et sérieuse, il faut être prêt à passer à autre chose (temporairement, voire définitivement), peut-être dans l’espoir que la créativité, comme l’intelligence, soit plurielle, et on pourra l’exposer dans un autre domaine.

L’observation bien connue selon laquelle les mathématiciens ont tendance à faire leurs découvertes créatives lorsqu’ils sont très jeunes peut être due à l’effet « d’ensemble » : cela peut être au point culminant de sa « préparation » dans ce domaine problématique le plus élégant et le plus technique – – lorsqu’on arrive fraîchement au seuil de maîtrise (parfois appelé maturité mathématique) — qu’on est le mieux placé pour apporter une contribution créative en mathématiques ; alors on peut passer sa vie à explorer les implications de ces idées virginales. Après une exposition plus longue, des ensembles improductifs se forment et il est difficile de s’en séparer. Il se peut que s’ils avaient changé de domaine ou s’ils étaient arrivés aux mathématiques plus tard, ces mêmes individus précoces auraient fait preuve d’une créativité « plus tardive ». Il est indéniable, cependant, qu’il existe des effets sur le cycle de vie – et sur les traits – de la créativité, quel que soit le moment ou le domaine de préparation de chacun. Les idées et les compétences des historiens et des écrivains, par exemple, ont tendance à mûrir plus tard dans la vie, peut-être parce qu’elles dépendent d’une « préparation » plus longue et moins concentrée, ou parce que les compétences verbales mûrissent plus tard.

Mais malgré le danger omniprésent d’être victime d’ensembles non créatifs, s’il existe une « méthode » créatrice, c’est bien la « pasteurisation », le « trait » créatif ne représentant peut-être rien de plus qu’une forme rare de résistance ou d’immunité à la contagion de convention malgré une exposition importante.

Facteurs intuitifs et esthétiques. Les théories qui font appel à « l’intuition » et à « l’esthétique » comme guides de la créativité appartiennent, comme déjà mentionné, à la catégorie « mémoire ». Outre ce qui a déjà été dit, il est instructif de réfléchir à l’anecdote de Bertrand Russell (basée sur une histoire qu’il a entendue de William James) à propos de l’homme qui, lorsqu’il reniflait du protoxyde d’azote (gaz hilarant), connaissait le secret de l’univers, mais qui, lorsqu’il se dissipait, l’oubliait toujours. Un jour, il a décidé de l’écrire sous influence. Lorsque les effets se sont atténués, il s’est précipité pour voir ce qu’il avait écrit. C’était : « L’odeur du pétrole se répand partout. » Ce que Russell a pris cette anecdote pour suggérer, c’est que l’intuition peut aussi être un faux guide. Si l’on se laisse guider uniquement par son sens intuitif ou esthétique de la profondeur, on peut alors être amené à attribuer une signification cosmique à un non-sens. Ainsi Russell a suggéré que, s’il peut être bien beau de se laisser influencer par des considérations esthétiques (ce que les mathématiciens ont appelé « beauté », « élégance », etc.), il faut garder à l’esprit que ces intuitions subjectives doivent répondre à des questions d’ordre esthétique. des tests objectifs ensuite (dans le cas des mathématiques, une prouvabilité rigoureuse), et qu’il ne faut pas se laisser emporter par ses « épiphanies » subjectives.

Il faut cependant ajouter, en faveur de l’intuition, et peut-être de l’abduction, qu’en mathématiques il semble y avoir un « trait », que seuls quelques très rares mathématiciens très doués possèdent, celui d’être capable de formuler à plusieurs reprises des conjectures intuitives qui s’avèrent par la suite avoir raison. Certains vont même jusqu’à dire que cette capacité à deviner ce qui est vrai est le véritable génie des mathématiques, et non la capacité à produire des preuves rigoureuses. Bien sûr, les deux vont de pair, et il n’y a pas de meilleur guide pour construire des preuves qu’un sens intuitif de ce qui s’avérera vrai et de ce qui sera faux. Quoi qu’il en soit, le rôle des intuitions préverbales, perceptuelles et esthétiques ne doit pas être sous-estimé dans la créativité. Notez également que l’esthétique n’est pas nécessairement innée. Certains « goûts » peuvent être acquis par préparation, par analogie avec d’autres domaines d’expérience, voire par hasard.

Anomalie. Une autre « recette » pour la créativité, le modèle axé sur la préparation/l’anomalie, est une méthode basée sur l’observation que les idées créatives sont souvent provoquées par la rencontre d’une anomalie ou par l’échec des solutions existantes. Il n’est pas clair si cette variable est véritablement causale ou simplement situationnelle (c’est-à-dire que là où il doit y avoir une solution créative, il doit d’abord y avoir un problème), mais ce qui doit finalement provoquer une solution créative est évidemment une sorte d’échec des solutions non créatives. . Parfois, le simple fait de découvrir qu’une règle fidèle ne fonctionne pas de manière inattendue dans certains types de cas nous met dans la bonne direction. Le résultat, en cas de succès, est une révision de tout un cadre afin de tenir compte de l’anomalie et en même temps de considérer les solutions antérieures comme des cas particuliers. John Kemeny disait : « Si je rencontre quelque chose de nouveau, j’essaie d’abord de l’intégrer dans mon système ; si je n’y arrive pas, j’essaie de le rejeter [comme étant faux ou non pertinent] ; si cela échoue, alors j’essaie de réviser mon système. pour l’ adapter ).” (Et, dans une variante légèrement magique, Russell ajoute : « Si tout le reste échoue, je le confie à mon inconscient jusqu’à ce que quelque chose apparaisse. »)

Malgré le rôle de l’anomalie en tant que stimulus (et condition préalable logique) à la créativité, il ne s’agit cependant pas d’une méthode fiable, comme doivent en témoigner d’innombrables rencontres non créatives (et infructueuses) avec des anomalies. Les anomalies peuvent servir à briser des ensembles, mais elles peuvent aussi en créer, sous la forme de tentatives répétées et infructueuses de résolution. Pourtant, il est indéniable que l’histoire de la construction théorique en science peut être décrite comme une révision et une subsomption motivées par des anomalies. [1]

Contraintes. Une autre « méthode » est suggérée par les vues de Stravinsky sur le rôle créatif des « contraintes » dans ce qu’il appelle la « résolution de problèmes ». [2] Stravinsky a expliqué pourquoi il a continué à composer de la musique tonale après que la plupart des compositeurs aient abandonné le système tonal en disant que « vous ne pouvez pas créer avec un médium souple ». Il avait besoin du système tonal comme d’une contrainte à l’intérieur de laquelle il pouvait exercer sa créativité.

Le point de vue de Stravinsky pourrait bien être une variante du thème de la « préparation », car si « quelque chose se passe » (en raison d’une préparation insuffisante), rien de créatif ne peut se produire. C’est pourquoi Stravinsky considérait toute créativité comme une solution à un problème. Il estimait qu’un médium créatif ne pouvait pas être infiniment flexible, infiniment « libre ». Il lui a fallu résister d’une manière ou d’une autre (peut-être en suscitant des anomalies, des problèmes) pour permettre à la créativité de s’exercer, voire de se définir. Pendant la majeure partie de sa vie, Stravinsky a personnellement préféré le système tonal classique comme contrainte, s’efforçant d’y créer des innovations ; d’autres, comme les compositeurs dodécaphoniques, ont rejeté la tonalité, la remplaçant par un autre système de contraintes (peut-être, pensent certains, des contraintes abductivement « contre nature », ce qui suggère que même dans les arts, les contraintes ne peuvent pas être entièrement arbitraires). Mais Stravinsky voulait dire qu’il ne peut y avoir de créativité sans problèmes, pas de problèmes sans contraintes, pas de contraintes sans préparation. Les règles peuvent être conçues pour être brisées de manière créative, mais elles doivent être maîtrisées avant de pouvoir être modifiées ou abandonnées, et il doit toujours y en avoir de nouvelles pour les remplacer.

Il y a peut-être ici une leçon pour les partisans d’une liberté créative « délicate » (de préférence à la « pasteurisation ») dans l’éducation préscolaire. Cette stratégie représente probablement encore une autre forme de « formation à la créativité » inefficace et peut-être même contre-productive. Bien qu’in fine souhaitable et même nécessaire à la créativité, la liberté (l’absence de contrainte) rend aussi logiquement la créativité impossible avant la préparation. De plus, la liberté peut avoir plus à voir avec ce que vous êtes qu’avec ce que vous faites, la formation étant donc mieux destinée à vous montrer d’abord comment suivre les règles plutôt que comment les bafouer. Peut-être qu’étudier les véritables exemples de liberté créative – et leur évolution historique en temps réel – serait plus utile et stimulant que d’inculquer des libertés légendaires dans un moyen de vœux pieux : la créativité des générations futures est plus susceptible d’être maximisée par des idées inspirées. que par une pédagogie indulgente.

Sérendipité. La classe de théories que l’on pourrait appeler l’école du « hasard cérébral » (à laquelle appartenaient Einstein et Poincaré) sont les théories de la mutation, mettant l’accent sur le rôle crucial du hasard dans la créativité. Bien sûr, Pasteur le croyait aussi. Le scénario consiste à rassembler les éléments et les contraintes à partir desquels une solution créative est (espérée) surgir, puis à confier le reste au « jeu combinatoire » (inconscient) du hasard, l’intuition aidant peut-être à suggérer quelles combinaisons pourraient être fructueux. Cette vision apporte une clarification importante du rôle de la préparation, car sans préparation, les éléments essentiels à partir desquels une combinaison fortuite pourrait naître seraient tout simplement absents, méconnus ou méconnus.forme

Analogue mental. Il existe certains modèles spéculatifs « mentaux analogiques », appartenant à la classe de la mémoire, qui suggèrent que parfois la structure d’un problème et sa solution peuvent avoir des contreparties analogiques dans l’esprit. Des « catastrophes » mentales et des « transitions de phase » résultant de modèles mentaux réellement codés dans le cerveau et régis par la théorie mathématique des catastrophes ou la théorie fractale ont été suggérées, entre autres. Celles-ci sont encore trop spéculatives pour être envisagées, mais quelque chose de ce genre pourrait en principe servir de médiateur à des solutions abductives, voire acquises.

Stratégies heuristiques. Une autre classe de méthodes découle des suggestions (par exemple, celles de Polya) de s’engager délibérément dans l’heuristique — faire un échantillonnage aléatoire ou mécanique par essais et erreurs, tester des analogies et des conjectures inductives, etc. — comme discuté plus tôt. Ces stratégies pourraient être mieux décrites comme la phase heuristique de préparation. Ils ne peuvent clairement rien garantir, même s’ils peuvent augmenter la probabilité d’un coup de chance dans un esprit par ailleurs préparé.

Improvisation et performance. Un cas particulier combinant les « méthodes » heuristiques, esthétiques et analogiques est suggéré par les arts du spectacle, qui font preuve de créativité « en temps réel », « en ligne » tout en exécutant, interprétant et, surtout, improvisant sur les codes formels créés par les compositeurs. et des dramaturges. Les partitions musicales et les scénarios théâtraux, ainsi que la formation aux arts du spectacle, constituent les contraintes et la préparation, tandis que la représentation elle-même, si elle n’est pas simplement mécanique mais innovatrice et expressive, est « l’acte » créateur.

Il existe de nombreuses idées fausses selon lesquelles la performance serait en quelque sorte une créativité dérivée ou de second ordre. Ceci est une erreur. Chaque médium de création a ses propres contraintes, ses propres « données ». Et tous laissent place à l’originalité et à l’innovation, bref au génie. Les arts du spectacle peuvent en fait être particulièrement révélateurs de la créativité, car ils « l’externalisent », pour ainsi dire, la faisant se produire sous vos yeux. Les leçons que l’on en tire sont familières : beaucoup de préparation et d’artisanat, une imitation considérable du passé, un sens esthétique guidant son goût en matière d’innovation, ainsi que la capacité et l’envie de faire quelque chose de valable, de convaincant et de nouveau avec la matière première. Avant que les arts « créatifs » et « du spectacle » ne soient séparés, on aurait pu observer de ses propres yeux un poète-ménestrel interprète, captivé par un moment inspiré – guidé par sa muse – élaborer un conte hérité (préparé) d’une manière nouvelle et inspirée lors d’une performance improvisée.

Complémentarité. Enfin, parmi les méthodes, il faut mentionner le rôle des efforts collaboratifs, cumulatifs et complémentaires dans le jeu combinatoire entre de nombreux esprits différents (peut-être différentiellement « favorisés » par des dons intellectuels et créatifs) pour maximiser la probabilité d’un résultat créatif et commun. Les arts du spectacle suggèrent déjà que la créativité n’est pas un processus statique, et peut-être même pas un processus individuel. Il existe une spécialisation complémentaire dans tous les domaines de création : compositeur/interprète, acteur/réalisateur, expérimentateur/théoricien, conjectureur intuitif/vérificateur de théorèmes rigoureux. Et puis il y a la relation complémentaire la plus fondamentale de toutes : la relation du présent au passé. La préparation d’une personne prend invariablement la forme des produits créatifs de ses prédécesseurs. Ils ont fourni les contraintes sur un médium autrement productif dans lequel chacun peut alors tenter sa propre chance d’apporter une contribution créative.

Conclusions

La créativité est un phénomène soumis à des contraintes à la fois externes et internes. Les facteurs externes concernent l’état historique du domaine problématique et le rôle de l’imprévisible. Les internes concernent la façon dont l’esprit est préparé et « favorisé » (doté). Bien qu’il existe certaines méthodes heuristiques que l’on peut essayer (telles que l’induction par essais et erreurs et l’analogie), la meilleure stratégie que l’on puisse adopter pour maximiser les chances de créativité est de maximiser la préparation. Cependant, la maximisation n’est pas la même chose qu’une garantie ; Même si elle n’est pas magique, la créativité restera toujours mystérieuse en raison de la règle essentielle de l’inattendu et de l’imprévisibilité dans ses conditions qui la définissent. La préparation ne peut offrir qu’un cadre favorable au hasard, pas un cadre certain. De plus, il est peu probable que le hasard ou la liberté – c’est-à-dire une propension indépendante au fortuit – puissent être instruits. Outre la préparation spécifique au problème et l’ouverture d’esprit, la seule stratégie qui reste à chacun est d’être prêt, compte tenu de ses ressources mentales, physiques et expérientielles, à passer (temporairement ou définitivement) à d’autres domaines de problèmes créatifs potentiels moyennant un effort suffisamment dévoué et patient. se termine par des boucles improductives et persévérantes : trouver sa vocation créative (si elle existe) peut elle-même nécessiter un échantillonnage (préparé) d’essais et d’erreurs, guidé, peut-être, par les préceptes natifs ou acquis de son jugement esthétique, mais toujours dépendant de succès au gré des aléas du hasard.

Lectures suggérées : Noir, modèles et métaphores ; Hadamard, La psychologie de l’invention dans le domaine mathématique ; Harnad, Métaphore et dualité mentale ; Hesse, Modèles et analogies en science ; Stravinsky, La Poétique de la musique ; Polya, comment le résoudre .

Notes de bas de page

1. Les nouveaux « paradigmes », même s’ils impliquent des innovations étonnamment audacieuses, doivent néanmoins être proportionnés au passé, au moins dans le sens de l’englober comme un cas particulier (par exemple, la théorie de la Terre plate, qui restera toujours approximativement vraie ). ); cela montre que la construction d’une théorie est en réalité une série cumulative et peut-être interminable d’approximations de plus en plus étroites convergeant vers la « vérité ». 

2. Il faut garder à l’esprit que la suggestion de Stravinsky peut être particulière à la créativité artistique, où les contraintes peuvent être imposées de l’intérieur, pour ainsi dire, contrairement à la science et aux mathématiques, où elles viennent de l’extérieur : de la réalité extérieure et du cadre formel. monde de cohérence logique et mathématique.

3. Les lecteurs souhaitant se forger leur propre jugement sur certaines des méthodes existantes de formation à la créativité des adultes voudront peut-être lire un livre ou assister à un séminaire sur le « brainstorming », la « synectique », la « pensée latérale » ou quelque autre sujet similaire. Ou vous pouvez goûter aux offres de toute organisation également spécialisée dans les week-ends sur la « renaissance » et « faire des miracles pour vous ». Ne soyez pas dérouté par le fait que l’adjectif « créatif » aura tendance à être librement ajouté à la plupart des offres disponibles, quels que soient leurs avantages spécifiques.