GENERATIVE TRANSFORMATIONSGRAMMATIK

Gramática generativa transformacional

(Recop.) Justo Fernández López

 

Vgl.:

Kompetenz vs. Performanz / Modell / Grammatik / Humboldt, W. v. / Innere Sprachform / Energeia / Ergon / Algorithmus / Satz / Logische Form / Spurentheorie / Lexikalische vs. Transformationalistische Hypothese / GB / Prädikat / Kasustheorie / Kasusgrammatik / Theta-Theorie  / Generieren / Rekursivität / Erzeugungsgrammatik / Kalkül / Transformationsgrammatik  / Revidierte Erweiterte Standardtheorie / Tiefenstruktur / Kreativität / Behaviorismus / Kognitive Linguistik / Funktionalistische Sprachwissenschaft

 

Generative Transformationsgrammatik (GTF bzw. TG) = Gramática generativa-transformacional

Mathematisch-formaler Ansatz von N. CHOMSKY: Eine Sprache ist eine (finite oder infinite) Menge der von einem bestimmten (als System formaler Regeln konzipierten) Grammatikalgorithmus generierbaren Ketten von Symbolen aus einem gegebenen finiten Alphabet. 

System von Regeln, im Gehirn des kompetenten Sprechers einer Sprache gespeichert (vom Linguisten ins Bewusstsein gerufen), nach denen  sprachlichen Elemente aus kleinen Bestandteilen aufgebaut und miteinander zu größeren Einheiten kombiniert werden, nach denen alle akzeptablen Sätze einer Sprache erzeugt (generiert) werden.   

«Generative Grammatik

Generative Grammatik ist eine Menge von Regeln, die Form und Bedeutung von Wörtern und Sätzen in einer Sprache, wie sie in einer bestimmten Gemeinschaft gesprochen wird, festlegt. eine MENTALE GRAMMATIK ist die hypothetische generative Grammatik, die ein Mensch unbewusst im Gehirn gespeichert hat. Beide sind nicht zu verwechseln mit einer PRÄSKRIPTIVEN GRAMMATIK oder STILGRAMMATIK, die in der Schule gelehrt und in Stilratgebern dargelegt wird; dabei handelt es sich lediglich um Richtlinien, die angeben, wie man in einem gehobenen oder geschriebenen Dialekt sprechen «sollte».»

[Pinker, Steven: Der Sprachinstinkt. Wie der Geist die Sprache bildet. München: Knaur, 1998, S. 529-530]

«Eine generelle Bemerkung über die Grammatiktheorie Chomskys:

»Das fundamentale Ziel in der linguistischen Analyse einer Sprache L ist es, die grammatischen Sequenzen, die Sätze von L sind, von den ungrammatischen Sequenzen zu trennen, die keine Sätze von L sind ' und die Struktur der grammatischen Sequenzen zu untersuchen. Die Grammatik von L ist also ein Instrument, das alle grammatischen Sequenzen von L generiert und keine der ungrammatischen« (Chomsky, 1957, S. 13).

Eine Grammatik ist demnach ein formaler Kalkül, der nach bestimmten Regeln Zeichensequenzen generiert, und zwar in einem anderen Sinn als ein realer Sprecher Sätze produziert und ausspricht bzw. aufschreibt. Die Konstruktion einer solchen Grammatiktheorie ist ‑ genauso wenig wie die Konstruktion eines Logikkalküls ‑ Teil eines psychologischen Forschungsprogramms und hat daher zunächst mit empirischen Hypothesen über menschliches Verhalten nichts zu tun (vgl. Lyons, 1970, S. 83‑95). Allerdings erstellt die Grammatiktheorie Richtlinien für die Ausarbeitung einer selbständigen psychologischen Theorie des Spracherwerbs und der Sprachperformanz, die mit anderen psychologischen Auffassungen in Konflikt geraten kann. Obwohl Chomsky in seinen späteren Arbeiten mehr dazu neigt, die Linguistik als einen Zweig der kognitiven Psychologie zu betrachten, hält er doch an folgendem fest:

»Zweifelsohne wird ein vernünftiges Modell der Sprachverwendung die generative Grammatik als grundlegende Komponente integrieren, die die Sprachkenntnis des Sprecher‑Hörers zum Ausdruck bringt; aber diese generative Grammatik stellt von sich aus keine Vorschrift dar für den Charakter und das Funktionieren eines Modells der Perzeption oder eines des Sprechvorganges« (1965, S. 20; vgl. auch Herriot, 1970, S. 56‑78 ). »

[Kraiker, Christoph: Psychoanalyse Behaviorismus Handlungstheorie. Theoriekonflikte in der Psychologie. München: Kindler, 1980, S. 154-155]

«Chomskys Kompetenz ist dynamischer als de Saussures langue, sie beinhaltet eine kreative Komponente, die zur Folge hat, dass eine Sprache mehr ist als die Summe sämtlicher bisher in ihr vorliegenden Äußerungen, »Es ist ... notwendig, von de Saussures Begriff der langue als lediglich einem systematischen Inventar von Einheiten abzugehen und zurückzugehen auf das Humboldtsche Verständnis der zugrunde liegenden Kompetenz als einem System generativer (‘erzeugender’) Prozesse« (Chomsky 1965: 14, dt. Übers.) – Sprache (mit Humboldts Worten) nicht als ergon (griech. ‘Werk’, etwas Fertiges), sondern als enérgeia (griech. ‘wirkende Kraft’).

Mit Chomsky, so kann man sagen, hat ein neues Faktor Einzug in die Sprachwissenschaft gehalten – zugleich auch ein sehr alter Faktor: der Mensch. Während der Strukturalismus das Ziel hatte, durch Analysieren von parole-Äußerungen das zugrundeliegende langue-System zu entdecken, ist es das Anliegen eines generativen Sprachmodells, die Kompetenz des Sprechers/Hörers nachzubilden. Der Strukturalismus suchte eine endliche Menge vorliegender Sätze zu beschreiben, die gTG, eine unbegrenzte Menge von Sätzen zu erzeugen.»

[Pelz, Heidrun (1987):  Linguistik: eine Einführung. Hamburg: Hoffmann und Campe, 41999, S. 170]

«Man könnte versucht sein, Konstituentenstrukturgrammatik und generative Grammatik einander gegenüberzustellen mit Gegensatzpaaren wie

Strukturalismus

 gTG

beschreibend

erzeugend

statisch (endliches Corpus)

dynamisch, Sprache als enérgeia

(Neues schaffende Kreativität)

von der parole realer Sprecher (Informanten) ausgehend

von der langue (= Kompetenz) des idealen Sprechers ausgehend

empirisch

mentalistisch

Orientierung an den Naturwissenschaften

Orientierung am philosophischen Rationalismus

Orientierung am Positivismus

Orientierung an mathematischen und automatentheoretischen Modellen

[Pelz, Heidrun (1987):  Linguistik: eine Einführung. Hamburg: Hoffmann und Campe, 41999, S. 178-179]

«Generative Transformationsgrammatik (abgekürzt (G)T.G.)

Nach der formalen (traditionellen) und strukturalen Grammatik ist die generative Transformationsgrammatik die heute am meisten diskutierte. Sie hat ihren Ausgangspunkt in dem von N. Chomsky 1957 veröffentlichten Werk ‘Syntactic Structures’, (das 1965 starke Veränderungen erfuhr). Die TG bedeutet eine Überwindung des positivistisch ausgerichteten Strukturalismus, der nur beobachtbare Daten bei der Sprachbeschreibung zulässt. Der größte Mangel des Strukturalismus ist – nach W. Hüllen – die Tatsache, dass er Mehrdeutigkeiten nicht befriedigend zu erklären vermag. Die TG dagegen wagt sich an die Beschreibung von rein mentalen Prozessen, die sie explizit und möglichst eindeutig abzubilden versucht, und stellt damit ein Modell für die Beschreibung aller natürlichen Sprachen auf. Ihr zentraler Gedanke ist die Unterscheidung von Oberflächen- und  Tiefenstruktur, zwischen denen kein adäquates Abbildungsverhältnis besteht. Satzoberflächen sind durch Reduktionen, Expansionen, Implikationen oft ambivalent. Beispiel: /Der Entdeckung des Studenten erregte Aufsehen / Flying planes can be dangerous /.

Die Zahl der Tiefenstrukturen, die man sich in Kernsätzen vorstellt, dürfte seht begrenzt sein, wogegen die Zahl der möglichen Paraphrasen sehr groß ist. Mit der Einbeziehung der Semantik in die grammat. Analyse wird die Linguistik eine erkenntnispsychologische Disziplin und steht damit im Gegensatz zum Behaviorismus. Das bedeutet aber zugleich eine Abkehr vom Empirismus und eine Hinwendung zum Rationalismus, da die Intuition als mentaler Prozess einbezogen wird und der Spracherwerb auf den dem Menschen eingeborenen kognitiven Strukturen beruhe.

Die Kritik an der TG hat sich hauptsächlich an dem Begriff der Tiefenstruktur entzündet: Für die einen ist sie eine syntaktische Struktur, die durch semantische Elemente aufgefüllt wird, für die anderen ist sie eine semantische Struktur, die syntaktische Transformationen bewirkt.

Neueste Kritik an der Aspekt-Version der Generativen Transformationsgrammatik bringt das Funkkollege Sprache. Sie bezieht sich im wesentlichen auf den Semantik-Teil der T. G. Schüler N. Chomskys haben eine Alternativtheorie ausgearbeitet, in dem sie das Konzept der Tiefenstruktur aufgegeben haben. Als entscheidende Neuerung kann gelten, dass die Generierung eines Satzes nicht mehr mit der Erzeugung einer syntaktischen Tiefenstruktur beginnt, sondern statt dessen eine abstrakte Bedeutungsstruktur in der Basiskomponente erzeugt wird. Die Tiefenstruktur der älteren Version wird durch eine so genannten semantische Satzrepräsentation ersetzt, d.h. der Erzeugungsprozess des Satzes beginnt nicht mehr mit der Syntax, sondern mit der Semantik. Daraus muss die Erkenntnis gefolgert werden, daß synonyme Sätze die gleiche Satzrepräsentation haben, selbst wenn sie syntaktisch nicht gleich gebaut sind. Um die semantischen Satzrepräsentationen aufzufinden, die vielen Sätzen gemeinsam sind, hat man die Beschreibungsmethode der lexikalischen Dekomposition eingeführt, die geeignet ist, die so genannten atomaren Prädikate aufzudecken. Sie sind die Ausgangsformen einer abstrakten semantischen Struktur. Die Relationen zwischen diesen atomaren Prädikaten lassen sich durch Bedeutungspostulate darstellen.» [Heupel, C., S. 78-79]

«Mit dem Terminus generative Transformationsgrammatik (abgekürzt GTG oder TG) werden formale Sprachbeschreibungsmodelle bezeichnet, die ab Mitte der 50er Jahre in den USA entwickelt wurden. Die Bezeichnung generativ deutet darauf hin, dass die entsprechende Grammatik Erzeugungsregeln hat. Diese Regeln sollen genau alle korrekten Sätze der betreffenden Sprache erzeugen können: die Grammatik darf keinen abweichenden Satz erzeugen und keinen korrekten Satz auslassen. Der Erzeugungsvorgang muß explizit erfolgen, d. h. er muss mechanisch durch ein Regelwerk geleistet werden, ohne dass noch die Intuition eines Linguisten oder einer Linguistin eingreifen müsste. Eine generative Grammatik muss zudem in der Lage sein, jedem erzeugten Satz mechanisch eine Strukturbeschreibung zuzuordnen.

Der Terminus Transformation(sgrammatik) verweist darauf, dass die Grammatik einen „Transformationsteil“ enthält. Transformationen sind Operationen, die dazu dienen, bestimmte Strukturen in andere umzuwandeln (zu „transformieren“). In der klassischen Form der GTG, dem Aspects-Modell (Chomsky 1965) (später als „standard theory“ („ST“) bezeichnet), werden zunächst abstrakte Tiefenstrukturen generiert. Durch verschiedene Transformationen werden diese dann schrittweise in die so genannten Oberflächenstrukturen übergeführt, die den Sätzen entsprechen, die schließlich realisiert werden. Grammatik ist in diesem Modell als die Summe aller an der Satzerzeugung beteiligten Operationen zu verstehen. Die GTG wurde maßgeblich von Noam Chomsky entwickelt, der sie Mitte der 50er Jahre als Weiterentwicklung der Phrasenstrukturgrammatik und zugleich als Gegenmodell dazu entwarf.

1965 veröffentlichte Chomsky dann in dem Buch Aspects of the Theory of Syntax die ‘klassische’ Form der TG. Kernstück dieses Modells ist die „syntaktische Komponente“. Sie enthält zunächst einen Phrasenstrukturteil, d. h. ein nach den Prinzipien der Phrasenstrukturgrammatik aufgebautes Regelwerk, mit dem, beginnend mit dem Anfangssymbol S (für sentence / Satz) schrittweise alle möglichen abstrakten syntaktischen Satzstrukturen der betreffenden Sprache erzeugt werden können.

Diese Kette heißt Tiefenstruktur. Sie ist der Output des Phrasenstrukturteils. Die Tiefenstruktur ist der Ausgangspunkt für zwei verschiedene Operationen:

§       Durch semantische Interpretationen werden die lexikalischen Elemente zu Satzbedeutungen zusammengefasst (amalgamiert).

§       Wichtiger sind die Änderungen der Satzstruktur, die im Transformationsteil durch die Transformationen vorgenommen werden, damit die uns vertrauten und zugänglichen Oberflächenstrukturen zustande kommen.  In Aspects-Modell gilt, dass die Transformationen die Bedeutung („meaning“) nicht verändern dürfen. Als bedeutungsgleich gelten dabei Sätze, die in allen Kontexten gleiche Wahrheitswerte haben.

Im Aspectsmodell würden die Sätze

       Onkel Donald hat seinen Neffen doch das Sparschwein geklaut.

       Seinen Neffen hat Onkel Donald doch das Sparschwein geklaut.

       Das Sparschwein hat Onkel Donald doch seinen Neffen geklaut.

alle als mittels verschiedener Transformationen aus einer identischen Tiefenstruktur entwickelt und als gleichbedeutend angesehen werden1. Andererseits können auch Sätze, die sich an der Oberfläche gleichen, auf verschiedene Tiefenstrukturen zurückgehen. Die syntaktische Struktur, die entsteht, wenn alle Transformationen durchlaufend sind, also der Output des Transformationsteils, wird Oberflächenstruktur genannt. Auf den Oberflächenstrukturen operieren noch einmal die phonologischen Regeln: Sie passen die Oberflächenstrukturen den tatsächlichen Aussprachegewohnheiten an. Das Schema des Aspects-Modells sieht, vereinfacht, folgendermaßen aus:

Die Zeit nach Aspects war für die generative Bewegung zunächst dadurch gekennzeichnet, dass sie sich in eine Vielzahl von konkurrierenden Bewegungen aufsplitterte. Diese können grob zwei Hauptrichtungen zugeordnet werden:

-   der Interpretativen Semantik, vor allem vertreten durch Chomsky selber und einige seiner Anhänger wie Katz und Jacobs und

-   der Generativen Semantik; zu dieser lose zusammenhängenden Gruppe zählt man Lakoff, McCawley, Ross, Perlmutter u. a.

Der Hauptunterschied zwischen beiden Richtungen besteht darin, dass in der generativen Semantik semantische Strukturen direkt generiert werden. Sie werden durch Transformationen in Oberflächenstrukturen umgewandelt. Dagegen hält die interpretative Semantik an einem der Grundpfeiler des Aspects-Modells fest: es werden zunächst syntaktische Strukturen mit den entsprechenden Lexemen erzeugt. Erst auf den schon lexikalisch festgelegten Ketten, den Tiefenstrukturen, operieren die Transformationen. Ihnen werden erst sekundär (durch die Interpretationsregeln) semantische Strukturen zugeordnet.

Eine Sonderform der generativen Grammatik stellt die Kasusgrammatik dar. Sie ist eng mit dem Namen ihres Initiators C. J. Fillmore verbunden. Die Grundidee dieses Ansatzes besteht darin, in der Tiefe bestimmte universelle Kategorien, Tiefenkasus, wie Agentiv (belebte/r Veranlassende/r), Instrumental (unbelebte Kraft oder Aktion), Lokativ (Ort oder räumliche Orientierung von Zustand oder Aktion) anzunehmen. Diese Kasus sind mit den einzelsprachlich festgelegten Oberflächenkasus nicht identisch.

In der ersten Hälfte der 70er Jahre verlor die bis dahin in der Linguistik dominierende Transformationsgrammatik deutlich an Einfluss. Sie wurde von linguistischen Richtungen wie Sprechakttheorie, Soziolinguistik und Konversationsanalyse abgelöst, die nicht mehr primär an Grammatik und an Satzstrukturen interessiert waren. Auch in der Grammatikforschung wurden andere Modelle stärker beachtet.

Die bisher dargestellt Theorie der GTG wird gewöhnlich als ST (Standard Theory) bezeichnet. In der Zwischenzeit wurde sie in wesentlichen Punkten erweitert und revidiert, so dass die ‘erweitete Standardtheorie (Extended Standard Theory) EST, und schließlich die „revidierte erweiterte Standardtheorie“ (Revised Extended Standard Theory) REST, entstanden. REST unterscheidet sich von der Zwischenphase EST im wesentlichen durch die Einführung der sog. Spuren. Das in dieser Weise weiterentwickelte Grammatikmodell  wird inzwischen auch meist nicht mehr als „TG“, sondern als „GB“ bezeichnet (nach Government and Binding, Chomsky 1981).»

[Hentschel / Weydt: Handbuch  der deutschen Grammatik, S, 415-423]

__________________________                                       

1       Dabei würde nicht berücksichtigt, dass die Sätze in verschiedenen Kontexten vorkommen und unterschiedliche Thema-Rhema-Strukturen haben. Solche Unterscheidungen können in einer rein wahheitswertorientierten Semantikkonzeption nicht repräsentiert werden.

«Die Generative Transformationsgrammatik hat einen Grammatikbegriff, der sich in wesentlichen Punkten von dem traditionellen unterscheidet. Sie versteht unter Grammatik ein Modell des gesamten sprachlichen Wissens einer Sprecherin [sic], und es geht ihr weniger um die Beschreibung eines spezifischen Einzelsprache als um eine universelle Erklärung der menschlichen Sprachfähigkeit. Entsprechend ist der Umfang des generativen Begriffs „Grammatik“ größer als der traditionelle: Er schließt zusätzlich noch das „Lexikon“, den gesamten Wortschatz. In ihrer klassischen Form, der Standardtheorie von 1865, fasste Chomsky die Sprache strikt als die Summe aller möglichen korrekten Sätze auf und begrenzte die Grammatik auf einen Generierungsmechanismus, der alle möglichen Einzelsätze hervorbringen kann.»

[Hentschel / Weydt: Handbuch  der deutschen Grammatik, S, 7]

«Ob ein Satz richtig ist, hängt offensichtlich nicht davon ab, ob er verständlich ist. Chomskys berühmt gewordener Beispielsatz Farblose grüne Ideen schlafen wütig wird jeder für völlig richtig gebildet und doch für völlig unverständlich halten. Den Satz Müde klein die Kind feste schlafe dagegen wird jeder recht gut verstehen und niemand grammatikalisch finden. Manche Sätze lasen sich unter Beibehaltung ihrer Wörter umstellen, ohne dass sich ihre Bedeutung dabei veränderte: die Elemente hassen das Gebild der Menschenhand kann durch Anwendung anderer syntaktischer Regeln zu das Gebild der Menschenhand hassen die Elemente oder von den Elementen wird der Menschenhand Gebild gehasst umgewandelt werden, ohne dass sich die Bedeutung änderte. Diese und andere Beobachtungen haben die Chomskyaner zu der Auffassung gebracht, dass Syntax etwas Autonomes sei, ein System, das unabhängig von irgendwelchen Bedeutungen existiert und wirkt. (Und in diesem Punkt hat die Transformationsgrammatik den meisten Widerspruch herausgefordert; die Sache ist bis heute nicht entschieden.)

Die imaginäre Grammatikmaschine, der Syntaxautomat in unserm Kopf erzeugt zulässige Satzstrukturen. Er tut es sozusagen in zwei Arbeitsgängen. Sie unterscheiden sich dadurch, dass in jedem eine andere Art von Regeln zum Zuge kommt. Der erste Arbeitsgang, die so genannte Basis, bringt eine Reihe einfacher Satzmuster hervor: das, was Chomsky früher die „Tiefenstruktur“ nannte und was man auch mit Wilhelm von Humboldt als die innere Form der Sätze bezeichnen könnte. Die Tiefenstruktur ist abstrakt: ein Grundmuster des Satzes, wie Linguisten es sich denken; es tritt in den konkreten Sätzen nicht unbedingt offen in Erscheinung. Im zweiten Arbeitsgang wird die Tiefenstruktur zu den endgültigen konkreten Sätzen umgewandelt, ihrer „Oberflächenstruktur“ oder äußere Form. Hinter der großen Fülle und Verschiedenartigkeit der Oberflächenstrukturen verbirgt sich eine viel kleinere Zahl von Tiefenstrukturen.

Die Tiefenstruktur wird erzeugt durch so genannte Phrasenstrukturregeln. Anders gesagt: Die Tiefenstruktur ist jenes gedachte Grundmuster eines Satzes, zu dessen Erzeugung die Anwendung von Phrasenstrukturregeln ausreicht. Phrasenstrukturregeln geben an, wie Gruppen zusammengehöriger Wörter – Phrasen eben in der Terminologie der modernen Linguistik – zusammengestellt werden. [...]

Die Transformationsgrammatik beschreibt also Sätze nicht nur, indem sie die Beziehungen zwischen ihren Elementen beschreibt. Sie beschreibt gleichzeitig, in welcher Beziehung ein Satz zu unähnlich gebauten Sätzen gleicher Bedeutung und zu gleich gebauten Sätzen unähnlicher Bedeutung steht; von welchen Sätzen er abgeleitet werden kann und welche Sätze sich aus ihm ableiten lassen.»

[Zimmer, Dieter E.: So kommt der Mensch zur Sprache. Über Spracherwerb, Sprachentstehung und Sprache & Denken. München: Wilhelm Heyne Verlag, 1986, S. 74-75 und 79]

«Transformationsgrammatik [Abk. TG]

(1)  Oberbegriff für jede Generative Grammatik, die Transformationsregeln verwendet.

(2)  Im engeren Sinn die von N. Chomsky entwickelte Theorie der (generativen) T., deren Ziel es ist, durch ein System von expliziten Regeln das (dem aktuellen Sprachgebrauch zugrunde liegende) implizite Wissen von Sprache abzubilden. Im Unterschied zu taxonomischen Strukturalismus von Harris, Bloomfield u.a., der auf Segmentierung und Klassifizierung, d.h. der Katalogisierung konkreter Sprachdaten beruht, bezieht sich Chomskys Modell auf vom kompetenten Sprecher bewertete Daten, auf die sprachlichen Intuitionen, die ein kompetenter Sprecher bezüglich seiner Sprache explizieren kann.

Wissenschaftlich steht Chomsky in der Tradition des Rationalismus von Leibniz und Descartes. Mit dem Ausbau des Konzepts der »angeborenen Ideen« wendet sich Chomsky gegen die behavioristische Sprachauffassung des amerik. Strukturalismus und erweitert seine Grammatiktheorie zu einer Theorie des Spracherwerbs, indem er die Entwicklung der Kompetenz durch einen angeborenen Spracherwerbsmechanismus auf der Basis von grammatischen Universalien erklärt. Dabei hat die Theoriebildung Vorrang vor der Datenanalyse, d.h. die T. geht deduktiv vor, indem sie Hypothesen über den sprachlichen Erzeugungsmechanismus aufstellt unter besonderer Berücksichtigung des »kreativen« Aspekts des Sprachvermögens.

Dies gilt bereits für die erste, durch Chomskys [1957] erschienenes Buch »Syntactic Structures« begründete These der T.: Eine endliche Menge von Kernsätzen, die durch kontextfreie Phasenstrukturregeln erzeugt werden, bilden die Basis für die Anwendung von Transformationsregeln, die einen prinzipiell unendlichen Gebrauch von endlichen Mitteln gewährleisten.

In der zweiten Phase der T., dokumentiert durch Chomskys [1965] erschienene Abhandlung »Aspects of the theory of syntax«, wird die ursprünglich nur syntaktische Theorie zu einer allgemeinen Grammatiktheorie erweitert, in die auch Phonologie und Semantik einbezogen sind. Kennzeichnend für dieses sog. »Aspekte.Modell« (auch: Standardtheorie, Abk.: ST) sind folgende Revisionen bzw. Erweiterungen gegenüber dem Ansatz von 1957: Die Grammatik (im Sinn einer umfassenden Sprachtheorie) besteht aus einer generativen syntaktischen Komponente sowie den interpretativen semantischen und phonologischen Komponenten. Basis der Syntax ist die durch kontextfreie Phrasenstrukturregeln (die durch Selbsteinbettende Konstruktion auch Rekursivität gewährleisten, was im früheren Modell durch generalisierende Transformationen erreicht wurde) und die durch Lexikonregeln erzeugte Tiefenstruktur, die als abstrakte, zugrunde liegende Strukturebene alle semantisch relevanten Informationen enthält und die Ausgangsebene für die semantische Interpretation von Sätzen ist. Durch bedeutungsneutrale Transformationen wie Tilgung, Umstellung u.a. werden die entsprechenden Oberflächenstrukturen erzeugt, die die Basis für die phonologisch-phonetische Repräsentation bilden. Kritik an diesem Konzept setzte sich vor allem mit der Rolle der Semantik auseinander, da die semantische Interpretation eines Satzes auch von Phänomenen der Oberflächenstruktur (wie Intonation, Wortstellung, Thema-Rhema-Problemen) abhängt, und führte in den 60er und 70er Jahren zur Entwicklung zweier konkurrierender Richtungen:

(a)  der Generativen Semantik sowie der

(b)  »Erweiterten Standardtheorie« (= engl. Extended Standard Theory, Abk.: EST), vgl. Lexikalische vs. Transformationalistische Hypothese.

       Die durch Jackendoff und Chomsky angeregten Revisionen der »Standardtheorie« bestehen einerseits in einer Einschränkung der Reichweite von Transformationen durch universelle Beschränkungen, andererseits in einer veränderten Auffassung von der semantischen Interpretation, die sich nunmehr in jeweils deutlich zu unterscheidender Weise sowohl auf die Tiefen- als auch auf die Oberflächenstruktur bezieht.

Die in der Folgezeit (seit 1973) unter der Bezeichnung »Revidierte Erweiterte Standardtheorie« (REST) vollzogene Veränderungen gegenüber der »Erweiterten Standardtheorie« betreffen vor allem

(a)  die genaue Abgrenzung und Definition der einzelnen gramm. Komponenten, insb. die strikte Trennung zwischen Syntax und Semantik (sowie Phonologie, Stilistik, Pragmatik);

(b)  die Verwendung der (in der Phonologie entwickelten) Markiertheitstheorie;

(c)  die Reduzierung der Transformationen auf strukturerhaltende Umstellungstransformationen bzw. auf die Anweisung  »Bewege Alpha«;

(d)  universell zu formulierende Beschränkungen, die mit psychologisch interpretierbaren Universalien korrespondieren und durch einzelsprachliche Parameter spezifiziert werden;

(e)  die Einführung von »Spuren« als abstrakte (leere) Kategorialknoten der Oberflächenstruktur, die die ehemalige Position umgestellter NP-Konstituenten markieren und ermöglichen, dass

(f)   die semantische Interpretation nur noch über einer einzigen Ebene, der durch semantische Information aus der Tiefenstruktur angereicherten Oberflächenstruktur (der sog. S-Struktur, engl. surface structure) operieren; vgl. Spurentheorie.

In der sog. GB-Theorie von Chomsky [1981] erhält der Begriff der Rektion eine zentrale Bedeutung; innerhalb der Kerngrammatik wird eine stärkere Modularisierung der Syntax angestrebt; Phänomene der Einzelsprachen sollen durch geeignete Parametrisierungen erfasst werden.» [Bußmann, H., S. 801-803]

«Generative Transformationsgrammatik / generative (transformational) grammar / grammaire générative (transformationnelle).

Die generative Transformationsgrammatik (abgekürzt: ‘TG’) versteht sich als der Versuch der Erstellung eines formalen Modells zur Abbildung der sprachlichen Kompetenz eines idealisierten Sprecher/Hörers (Muttersprachlicher Sprecher). Hören wir Noam Chomsky, den Begründer dieser Theorie, selbst:

„Unter einer generativen Grammatik verstehe ich einfach ein Regelsystem, das auf explizite und wohldefinierte Weise Sätzen Struktur-Beschreibungen zuordnet.“  (Chomsky 1965: Aspekte, p. 19).

Wohlgemerkt: ‘Generative Grammatik’ ist nicht notwendig synonym mit ‘Transformationsgrammatik’. Die Bezeichnung ‘Generative Grammatik’ ist vielmehr als Sammelname für all jene algorithmischen grammatischen Modelle zu verstehen, die das Ziel verfolgen, (auf mechanische Weise) Sätze zu generieren (und ihnen Strukturbeschreibungen zuzuweisen).

Eine solche ‘generative Grammatik’ heißt dann ‘transformationell’oder ‘generative Transformationsgrammatik’, wenn sie darüber hinaus mit Transformationen operiert. Nicht jede generative Grammatik mit endlich vielen Zuständen (Automat) und die Phrasenstrukturgrammatik). Andererseits besteht aber eine transformationelle Grammatik (im modernen Gebrauch des Terminus) nicht ausschließlich aus Transformationen. Sie ist statt dessen ein Modell, das sich die Vorteile der Phrasenstrukturgrammatik zunutze macht und deren Unzulänglichkeiten durch die hypothetische Annahme gewisser formaler Operationen (eben der Transformationen) zu überwinden sucht.

‘Generativ’ als Attribut einer Grammatik G besagt, dass G

(a)  ‘projektiv’ bzw. ‘prädiktabel’ 

       Die Forderung, dass G nicht nur schon aktualisierten Sätzen (etwa eines bestimmten Korpus) das Prädikat ‘ist wohlgeformt (grammatisch)’ zuweist, sondern auch potentiell aktualisierbaren; mit anderen Worten: nicht nur zur Diagnose, sondern auch zur Prognose fähig ist.

(b)  ‘explizit’.

         Die Grammatik G ist explizit, wenn sie alle (und nur die) grammatikalischen Sätze einer Sprache generiert und jedem Satz automatisch eine (oder mehrere) Strukturbeschreibung(en) zuordnet. Eine Grammatik, die der Forderung nach Expliziertheit Rechnung tragen soll, muss als ein über ein Subsystem von rekursiven Regeln verfügender formaler Apparat konzipiert werden; der Versuch, die Menge aller grammatikalischen Sätze extensional zu definieren, scheitert an der (von vielen Linguisten (cf. auch Chomsky 1957, p. 23) angenommenen) unendlichen Anzahl der Elemente dieser Menge.

Daneben wird der Terminus ‘generativ’ im heutigen Linguistenjargon auch in dem ‘übertragenen’ Sinne von ‘den Prämissen und Methoden der generativen Transformationsgrammatik folgend’ verwendet, etwa in Fügungen wie: ‘eine generative Analyse/Beschreibung/ ... des Phänomens x’ oder ‘ein generativer Grammatiker/Linguist/ ...’.

Für den in die Anfangsgründe der TG bereits etwas eingeführten Leser sind im folgenden noch einige Schematisierungen und Schaubilder zur geschichtlichen Entwicklung der TG zusammengestellt.

Schaubild zur Anfangsphase der TG (Modell Chomsky 1957, p. 46)                       

Vereinfachtes Schaubild zum Aufbau der TG-Standardtheorie:

                                                                                             

Zur Definition von (generativer) Grammatik in der Anfangsphase der TG:

        „... grammar is autonomous and independent of meaning.“   (Chomsky 1957, p. 17)

       „A grammar of a particular language ist (...) an hypothesis about the principles of sentence formation in this language. It represents a factual claim concerning the rules that underlie the data that have been collected.“ (Chomsky 1961, p. 219)

Entwicklungsphasen der generativen Transformationsgrammatik und das Aufkommen konkurrierender Modelle:

Die von Vertretern der Pragma- und Soziolinguistik unternommenen Angriffe auf die generative Transformationsgrammatik seien hier ausgeklammert.

Änderungen im TG-Modell:

Zu den wichtigsten Motivationen für eine Revision des Modells Chomsky 1957 cf. J. Bechert/D. Clement/W. Thümmel/K. H. Wagner 1970, pp. 179-189 sowie die weitere, dort angegebene Literatur.»

[Welte, Werner: Moderne Linguistik. Terminologie. München: Hueber, 1974, Bd. 2, S. 158-164]

«Ausgangspunkt der Generativen Semantiker bildeten gewisse Schwierigkeiten, die sich bei der Anwendung der von Chomsky in den Aspects vorgeschlagenen Tiefenstruktur ergaben. Für unsere Zwecke besonders instruktiv ist das Problem der Quantoren, also die Frage, wie die Funktionen solcher Wörter wie »alle«, »einige«, »jeder« etc. zu verstehen sind. Chomsky hatte in den Aspects eine Analyse vorgeschlagen, die dazu führt, dass zwischen den Tiefenstrukturen der beiden Sätze

(1)  Kleine Jungen spielen gerne Verstecken, und

(2)  Einige Jungen spielen gerne Verstecken

insofern kein Unterschied besteht, als in beiden Tiefenstrukturen die Ausdrücke ‚kleine Jungen’ und ‚einige Jungen’ als einheitliche Nominalphrasen auftreten, die sich nur dadurch unterscheiden, dass das Wort ‚kleine’ im Satz (1) der Kategorie ‚Adjektiv’, das Wort ‚einigen’ im Satz (2) dagegen der Kategorie ‚Artikel’ (‚determiner’) zugeordnet wird. Die dem Logiker ins Auge springende Tatsache, dass es sich bei dem Ausdruck ‚einige’ um einen Quantor handelt, dessen logische Eigenschaften durch die Kategorie ‚Artikel’ noch nicht scharf gefasst sind, erkennt Chomsky als Kriterium für seine syntaktische Tiefenstruktur nicht an.

Deutlicher wird dies noch, wenn Chomsky in den Aspects erklärt, der Bedeutungsunterschied zwischen den Sätzen »jeder in diesem Raum sprich mindestens zwei Sprachen« und »mindestens zwei Sprachen werden von jedem in diesem Raum gesprochen« brauche sich nicht in der Tiefenstruktur zu zeigen. Logisch besteht zwischen beiden Sätzen aber ein erheblicher Unterschied (Vertauschung in der Reihenfolge der Quantoren), und dieser logische Unterschied entspricht genau dem Bedeutungsunterschied, den auch Chomsky anerkennt (Aspects, 224). Soll die Tiefenstruktur die für die Bedeutung relevanten Informationen enthalten, so läge es nahe, sich hier an der Logik zu orientieren.

So lautet der Vorschlag der Generativen Semantiker. Sie haben unter Hinzuziehung umfangreichen grammatischen Materials gezeigt, dass für solche Sätze eine Analyse viel angemessener ist, bei der Quantoren-Ausdrücke zunächst außerhalb der Satzteile stehen, in denen sie in der Oberflächenstruktur auftreten, und bei der die diesen Satzteilen entsprechenden Tiefenstrukturelemente Variablen enthalten.

Hier wiederholt sich eine der wesentlichen Einsichten der modernen Logik, nämlich die, dass die heute als ‚Quantoren’ bezeichneten Ausdrücke eine völlig andere Funktion haben als Prädikatausdrücke und mit diesen keinesfalls verwendet werden dürfen. Die Logiker (zuerst Frege) haben Darstellungsmittel entwickelt, die es gestatten, die logische Struktur von Sätzen mit Quantoren zu explizieren.

Die von Chomsky in den Aspects gewählte Weise, Tiefenstrukturen von Sätzen zu formulieren, enthält keine entsprechenden Darstellungsmittel, sie erweist sich also sowohl aufgrund logischer Überlegungen als auch aufgrund der von den Generativen Semantikern herangezogenen grammatischen Argumente als inadäquat. Es wäre noch zu klären, in welchem Umfang die grammatischen Argumente Ausdruck logischer Verhältnisse sind. Hieraus ergibt sich die Forderung nach einer Revision des Aspects-Vorschlags für die Tiefenstruktur. [...]

Aus diesen Überlegungen ergibt sich für die Generativen Semantiker ein Grammatik-Modell, das von Chomskys Aspects-Modell erheblich abweicht. Eine Grammatik hat nach dieser Vorstellung im wesentlichen aus drei Teilen zu bestehen: der semantischen Komponente, der phonetischen Komponente und einem System von Transformationsregeln, das die phonetische Beschreibung eines Satzes aus der semantischen abzuleiten gestattet. Die semantische Komponente übernimmt dabei die Rolle des bei Chomsky nach syntaktischen Gesichtspunkten konstruierten Basisteils der Grammatik; sie erhält dadurch, am Aspects-Modell gemessen, ein unvergleichlich größeres Gewicht und in den Augen der Generativen Semantiker damit endlich die ihr gebührende Stellung. Sie wird zur Basis der Grammatik und erscheint nicht mehr als bloßes Anhängsel eines Lautkettenkalküls.

Bei dieser Konzeption wird die Semantik zur generativen Basis der Grammatik, ihr kommt nicht mehr die Rolle zu, eine unabhängig von ihr erzeugte Struktur zu interpretieren. Wo der Ausdruck ‚generativ’ nicht im Gegensatz zu ‚interpretativ’ steht, wird er oft nur im Sinne von ‚explizit’ verstanden.»

[Schneider, Hans Julius: Pragmatik als Basis von Semantik und Syntax. Frankfurt a. M.: Suhrkamp, 1975, S. 48-52]

«Die generative Transformationsgrammatik ist eine Grammatiktheorie, die erklären will, auf welche Weise es dem Menschen möglich ist, mit einer endlichen Menge von Regeln und Zeichen eine unendliche Menge von Sätzen hervorzubringen und zu verstehen [6]. Im Mittelpunkt der generativen Grammatik steht die Analyse des von einem Sprecher Erzeugten. Der Begriff generative Grammatik ist auf Humboldt zurückzuführen. Humboldt sprach vom Verständnis der zugrunde liegenden Kompetenz als ein System generativer („erzeugender“) Prozesse.

Gegenstand der Forschung ist die Sprachkompetenz eines idealen Sprecher-Hörers aus der gleichen Sprachgemeinschaft wie die Forschenden, ohne begrenztes Gedächtnis, ohne Zerstreutheit oder mangelnde Konzentrationsfähigkeit. Mit Sprachkompetenz sind die angeborenen Fähigkeiten gemeint, die es uns erlauben, die der Sprache zugrunde liegenden Regeln zu erfassen. Der Sprachkompetenz steht die Sprachverwendung (aktueller Gebrauch, bzw. „performance“) gegenüber.

Der bemerkenswerteste Aspekt der Sprachkompetenz liegt in der Kreativität der Sprache, d.h.  der Fähigkeit des Sprechers, neue Sätze zu produzieren, die von anderen Sprechern sofort verstanden werden, obwohl sie keine physikalische Ähnlichkeit mit vertrauten (schon bekannten) Sätzen aufweisen. Der kreative Aspekt ist eine allen Sprachen gemeinsame Eigenschaft. Damit gemeint ist die Fähigkeit, in beliebig vielen neuen Situationen beliebig viele Gedanken auszudrücken. Traditionelle Grammatiken liefern lediglich Listen für die regulären und produktiven syntaktischen Prozesse, für Ausnahmen und Irregularitäten, beschreiben Systeme von Regeln, gehen allerdings nicht auf die kreativen Aspekte ein. Die traditionellen einzelsprachlichen Grammatiken werden demnach durch eine universelle Grammatik ergänzt.  Die Aufgabe des Sprachtheoretikers besteht darin, die generellen Eigenschaften beliebiger Regelsysteme zu entdecken, die die Grundlagen menschlicher Sprachen bilden können, d.h. das herauszuarbeiten, was man in traditioneller Ausdrucksweise die allgemeine Sprachform (nach Humboldt) nennen kann.

Die generative Transformationsgrammatik ist ein Regelsystem, das auf explizite und wohldefinierte Weise Sätzen Strukturbeschreibungen zuordnet, Sprachkenntnisse charakterisiert und eine Basis für den Sprachgebrauch liefert. Sie ist eine einzelsprachunabhängige Methode, ein System von Regeln, das Signale und semantische Interpretationen dieser Signale aufeinander bezieht. Sie muss eine unbegrenzt große Zahl von Strukturen erzeugen können.

Zur generativen Grammatik gehören drei Hauptkomponenten: die syntaktische, die phonologische und die semantische Komponente. Die syntaktische Komponente spezifiziert eine infinite Menge von abstrakten, formalen Objekten, von denen jedes alle Information enthält, die für eine einzelne Interpretation eines bestimmten Satzes notwendig ist. Die phonologische Komponente determiniert die lautliche Struktur eines Satzes, wie er von den syntaktischen Regeln erzeugt wurde. Die semantische Komponente determiniert die semantische Interpretation des Gesprochenen. Phonologische wie semantische Komponenten sind rein interpretativ.

Die syntaktische Komponente einer Grammatik muss für jeden Satz eine Tiefenstruktur spezifizieren, die seine semantische Interpretation determiniert, und eine Oberflächenstruktur, die seine phonetische Interpretation bestimmt. (Humboldt nannte es die „innere und äußere Form eines Satzes“.)

Die Basis der syntaktischen Komponente ist ein Regelsystem aus abstrakten, formalen Objekten, das eine beschränkte (endliche, finite) Menge von Basisketten erzeugt, jede mit einer dazugehörigen Strukturbeschreibung (SB), die Basis-Marker oder Basis-P-Marker genannt wird. Diese Basis-Marker sind die elementaren Einheiten, aus denen Tiefenstrukturen konstituiert werden. Die Grammatik soll (phonetischen) Signalen Strukturbeschreibungen gegenüberstellen. Die SB, die einem Signal zugeordnet ist, muss die semantisch Interpretation des Signals determinieren dessen SB sie ist. Die SB muss also eine semantische und eine phonetische Interpretation determinieren.

Wir definieren als Tiefenstruktur eines Satzes den Teil der SB, der seine semantische Interpretation determiniert und als Oberflächenstruktur eines Satzes den Teil der SB, der seine phonologische Form determiniert. Durch bestimmte Ersetzungsregeln gelangt man von der Oberflächenstruktur zu den Basisketten mit den dazugehörigen SBs.

Außer dieser Basis enthält die syntaktische Komponente einer generativen Grammatik eine transformationelle Subkomponente, einen Transformationsteil, der dazu dient, die Oberflächenstruktur eines Satzes aus seiner Satzbasis zu generieren. Neben den „Ersetzungsregeln“, durch die man zu den Basisketten mit den dazugehörigen SBs gelangt, enthält die syntaktische Komponente Transformationsregeln. Jede Transformationsregel ist durch eine Strukturanalyse (T-Marker) definiert. Durch Transformationsregeln werden T-Marker, auf die sie anwendbar sind auf andere, allgemeinere, T-Marker abgebildet. Da die Basis nur eine beschränkte Menge von P-Markern erzeugt, werden die meisten Sätze eine Serie solcher Einheiten als zugrunde liegende Satzbasis haben. Innerhalb der Sätze, die einen einzigen Basis-P-Marker als Satzbasis haben, kann man eine echte Teilmenge abgrenzen, die man die Menge der Kernsätze nennt. Es sind die Sätze besonders simpler Natur, die zu ihrer Erzeugung ein Minimum an Transformation benötigen. Hier findet nur eine elementare Transformation statt.  Bei der Umwandlung von komplexeren Sätzen, von Serien von Basis-P-Markern, in einen P-Marker durch spezifische Transformationsregeln spricht man von generalisierten Transformationen.

Die syntaktische Komponente einer Grammatik besteht aus Ersetzungs- und Transformationsregeln. Die Funktion der Transformationsregeln ist die Abbildung von generalisierten P-Markern auf abgeleitete P-Marker. Wenn die Transformationsregel den generalisierten P-Marker MD auf den abschließenden abgeleiteten P-Marker MS des Satzes X abbilden, dann ist MD die Tiefenstruktur von X und MS seine Oberflächenstruktur.

Satz X : MD---Transformationsregel---> MS

MD = Tiefenstruktur

MS = Oberflächenstruktur (Abkürzungen nach Chomsky)

Die Tiefenstrukturen sind die generalisierten P-Marker, die durch Transformationsregeln auf wohlgeformte Oberflächensätze abgebildet werden. (Alle Definitionen sind direkte Übernahmen aus [1] und [2].)

Roger C. Shank, ein Informatiker und Computerlinguist, der die „Conceptual Dependency Theorie“ (CDT) entwickelt hat, orientierte sich hierbei an Chomsky. Die CDT ist aber vor allem aus linguistischer Sicht umstritten. Shank vertritt die Auffassung: „Je zwei Äußerungen, von denen man sagen kann, sie bedeuten dieselbe Sache, ob in derselben oder in zwei verschiedenen Sprachen, müssten auf eine einzige Weise durch die begrifflichen Tiefenstrukturen gekennzeichnet sein. [...] Die Darstellung dieses begrifflichen Inhalts muss demnach in Termini erfolgen, die zwischensprachlich und so neutral wie möglich sind. [...] Unsere Aufgabe wird darin bestehen [...], sobald etwas ausgesprochen ist, eine Darstellung zu finden, die die Bedeutung dieser Äußerung auf eine eindeutige Weise erklärt und die in diese oder jene andere Äußerung rücktransformiert werden kann, die dieselbe Bedeutung hat. Der springende Punkt ist der, dass es mindestens eine begriffliche Tiefenstruktur gibt, die jedem Satz zugrunde liegt.“ ( [4], S. 191).

Shanks Grundannahmen, die in der CDT zum Ausdruck kommen sind :

1. Komplexe Handlungen/Situationen werden in relativ einfache zerlegt, deren Inventar klein ist.

2. die einfachen Handlungen/Situationen sind abstrakt konzipiert, damit sie für verschiedene Szenarien einsetzbar sind. Sie haben eine vorgegebene Struktur.

3. die Bedeutung von Sätzen ist mit diesen Mitteln so zu repräsentieren, dass gleichbedeutende Sätze eine gleichbedeutende Repräsentation erhalten, eine kanonische Darstellung wäre somit erforderlich.

Shank hat spezielle Skripte zur Beschreibung von Abläufen jeglicher Art entwickelt. Diese Skripte haben normalerweise eine festgelegte Struktur. Solche Schemata machen einen Teil des menschlichen Wissens aus; sie werden von den Menschen erlernt. Man erkennt dies daran, was

alles passiert, wenn  jemand in einer betreffenden Situation sich nicht an das definierte Schema hält oder es gar nicht kennt, eine Situation eintritt, für die ein definiertes Schema nicht existiert (z.B. eine Naturkatastrophe).

Diese Schemata sind nicht bis ins einzelne festgelegt. Das grobe Schema der Skripte lässt die Möglichkeit, die Schemata mit Varianten zu versehen oder abweichende Realisierungen richtig einzuordnen, offen.

Die von Schank formulierten Postulate sind nur zu einem geringen Teil eingelöst worden. Es stellt sich die Frage nach der Existenz kanonischer Darstellungen, sowie ihrer Tiefe und Genauigkeit, bzw. mit welchen Primitiva man tatsächlich auskommt. Auch trat hier die Frage des Textverständnisses in Bezug zum Hintergrundwissen und zur aktuellen expliziten Textinformation, sowie in Bezug auf deren Interaktion auf.»

[Dorothea Kaltenmaier / Matthias Helle: Algorithmen für die Linguistik. WS 1998/99. In:

http://www.inf.fu-berlin.de/~awolff/lehre/linguistik/ausarbeitungen/html/helle-kaltenmaier/]

«Die Komponenten der generativen Grammatik werden systematisch aufeinander bezogen. Jede Komponente der generativen Grammatik hat ihre autonome Struktur und Funktion, sie alle integrieren aber modular. Die einzelnen eigenständigen Komponenten sind die «Module» – ein Begriff, der aus der KI-Forschung (KI = Künstliche Intelligenz) übernommen wurde. Die Modularität wird über das Sprachsystem hinaus als organisierendes Prinzip der gesamten Anlagen des Menschen betrachtet.

Mit diesen Veränderungen sind die Vorbereitungen getroffen für die Ausarbeitung des «GB-Theorie» (Government and Binding Theory, vgl. Chomsky 1981), für die «Barrierentheorie» (Barriers, vgl. Chomsky 1986/1990) und für die jüngste Entwicklung bis hin zu «Minimalistische Syntax» (vgl. Chomsky 1992 und 1994).

Grammatiktheorie und Modularität des menschlichen Wissens:

Probleme des Spracherwerbs, die Universalgrammatik UG und das Modularitätsprinzip kennzeichnen das eigentlichen Anliegen Chomskys, für das seine Grammatikmodelle in gewisser Weise nur Zuarbeiten waren.

In Weiterführung seiner Thesen aus dem Aspects-Modell untersuchte er das Problem (vgl. insbesondere Chomsky 1979), wieso Kinder mit sehr unterschiedlichen Erfahrungen zu vergleichbaren, eigentlich sogar identischen Grammatiken gelangen, und zwar in dem schon erwähnten kurzen Zeitraum. Chomsky nimmt an, dass alle Kinder dieselben genetisch bedingten Begrenzungen (constraints) haben in Bezug auf Grammatikerwerb. Die genetische Vorgabe erklärt dann auch, weshalb der Erstspracherwerb an einen bestimmten Reifungsgrad geknüpft ist, wodurch (ältere) «Wolfskinder» nicht mehr sprechen lernen, Erwachsene eine zweite Sprache anders erlernen als Kinder und diese mit Akzent sprechen u.a.m. Er betont, es wäre absurd anzunehmen, allein das, was man bei der Geburt hat bzw. sieht, sei genetisch bedingt; weitaus mehr als dies sei zu berücksichtigen.

Die für den Spracherwerb relevanten genetischen Anlagen sind für Chomsky die Universalgrammatik (UG). Sie ist ein System von Prinzipien, die mit Hilfe von Parametern auf die konkreten Sprachen bezogen werden. Ein Parameter ist hierbei eine Variable, für die Werte aus einer gegebenen Menge eingesetzt werden auf dem Weg von der UG zur Einzelgrammatik.

Und schließlich: Die Grammatiktheorie – mit allen Verfeinerungen, die er selbst oder seine Mitarbeiter vorgenommen haben und weiterhin vornehmen und die insbesondere durch die Einbeziehung immer neuer Sprachen erforderlich wurden – möchte Chomsky einarbeiten in das gesamte Wissenssystem des Menschen. Strikte Anwendung des bereits erwähnten «Modularitätsprinzip» bedeutet: Das menschliche Wissen in all seiner Komplexität ist modular aufgebaut insofern, als autonome Teilsysteme als Module eines Gesamtsystems zusammenwirken bei seiner Repräsentation. Eines dieser Modula ist die Sprache, weitere Modula sind z.B. die akustischen und optischen Systeme. Keines dieser Module ist durch ein anderes definiert, deshalb müssen als autonom angesehen werden. Aber erst ir modulares Zusammenwirken gewährleistet menschliche Erkenntnis, die Fähigkeit des Menschen, Wissensstrukturen aufzubauen. Diese Hypothese veranlasst Chomsky zur Eingliederung der Sprachwissenschaft in die kognitive Psychologie.

Zusammenfassung

Kapitel 8 stellt den Versuch dar, dem Leser den Geist des Chomskyschen Anliegens zumindest in Ansätzen näher zu bringen. Es sei noch ergänzt, dass trotz vorhandener kritischer Stimmen von Anhängern und Gegnern in Zukunft in der Ausarbeitung der Grammatiktheorie nicht mehr hinter die Positionen Chomskys zurückgegangen werden kann.

An Chomskys eigenem Entwicklungsgang lässt sich deshalb nachvollziehen, wie sich das durch die behavioristische Psychologie geprägte linguistische Denken der Deskriptivisten zu einem durch die kognitive Psychologie geprägten Denken in den jüngsten Modellen der generativen Grammatik gewandelt hat.»

[Bartschat, Brigitte: Methoden der Sprachwissenschaft. Von Hermann Paul bis Noam Chomsky. Berlin: Erich Schmidt, 1996. S. 184-186]

«Die konzeptuellen Grundlagen der Generativen Grammatik

Die Generative Grammatik unterscheidet sich von den anderen Syntaxtheorien in deinem wichtigen Punkt: Es geht ihr nicht primär um die Beschreibung sprachlicher Strukturen, sondern um die Modellierung der Kenntnisse, die den Sprecher dazu befähigen, sprachliche Strukturen aufzubauen, sie zu generieren. Der ganze Beschreibungsapparat dient also letztlich nur dazu, die Sprachkompetenz nachzubilden. Diese ist zentraler Bestandteil unserer kognitiven Fähigkeiten. Sie zu beschreiben sollte nach Chomsky eigentlicher Gegenstand linguistischer Untersuchungen. [...]

Ziel der Generativen Grammatiker ist es also, die Prinzipien und Parameter adäquat zu beschreiben und damit eine Erklärung für den Spracherwerb zu bieten. Wenn die Theorie gelegentlich auch als ‚Prinzipien- und Parametertheorie’ (PPT) bezeichnet wird, so wird eben diese Zielsetzung in den Vordergrund gerückt. Zwar haben sich die Annahmen darüber, wie der Spracherwerb und die Sprachfähigkeit im Modell erklärt werden kann, geändert. Doch eines ist immer gleich geblieben: Es geht der Generativen Grammatik um das Aufdecken der Gesetzmäßigkeiten, die dem sprachlichen Kenntnissystem zugrunde liegen, darum, einen Teilbereich der menschlichen Kognition zu erfassen – nicht die Sprache selbst. Es ist sicher berechtigt zu sagen, dass sich innerhalb der linguistischen Forschung durch die Generative Grammatik eine Hinwendung zu Fragen der Psychologie und Neurologie vollzogen hat. Ob allerdings dieses ‚kognitive Wende’ in der Sprachwissenschaft dem Untersuchungsgegenstand gerecht wird, ist umstritten.»

[Dürscheid, Christa: Syntax. Grundlagen und Theorien. Wiesbaden: VS Verlag für Sozialwissenschaften, 32005, § 8.2]

«Parameter

In der generativen Transformationsgrammatik Variable (= Parameter) in Regeln oder Regelbeschränkungen der Universalgrammatik (UG), deren Werte erst in den Einzelsprachen bestimmt werden. Die Setzung eines bestimmten Parameters, d.h. die Bestimmung von Werten für die Parameter, impliziert somit eine bestimmte einzelsprachliche, mit der UG verträgliche Grammatik: Der Lernende wählt innerhalb eines von der der UG vorgegebenen Spielraums eine bestimmte einzelsprachliche Option aus. Ein solches System von universalgrammatischen »Prinzipien und Parametern« muss insbesondere mit Theorien des Spracherwerbs verträglich sein. Daher wird oft angenommen, dass die UG für bestimmte Parameter Vorgaben in Form von unmarkierten Werten macht, die im Laufe des Spracherwerbs aufgrund externer Evidenz (durch die Daten) verändert werden können.

Nach Maßgabe des jeweiligen Bereichs der Grammatik wird dabei die syntaktisch »lokalste« Domäne als unmarkiert vorausgesetzt, welche bei einem möglichen Konflikt mit einzelsprachlichen Daten dann zu einem weniger lokalen Bereich erweitert werden muss. Parameter gestatten es einerseits, kerngrammatische Prinzipien flexibler zu formulieren, indem sie bestimmte Einzelheiten »offenlassen, andererseits stehen sie aber auch mit bestimmten Prognosen über den Spracherwerbsmechanismus und mit Theorien über die Markiertheit einzelsprachlicher Phänomene in Wechselwirkung, vgl. Bindungstheorie (GB-Theorie)«.» [Bußmann, H., S. 557-558]

«Modularität

Der Konzeption des Modularismus zufolge ist der menschliche Geist ein zu unterteilender Komplex von verschiedenen Fähigkeiten. Im Holismus dagegen wird die These vertreten, dass der Geist ein unteilbares Ganzes darstellt, das von einer Reihe fundamentaler Prinzipien determiniert wird.

Der modulare Ansatz basiert auf Thesen, die bereits in der Neurologie des vorigen Jahrhunderts postuliert wurden. Grundannahme dieser Forschung war und ist, dass sich kognitive Funktionen voneinander abgrenzen und im Gehirn lokalisieren lassen. [...]

In der neueren linguistischen Forschung hat sich bezüglich der Frage nach der Organisation unserer kognitiven Fähigkeiten vorrangig die Modularitätskonzeption etabliert. Dieser Konzeption liegt die Annahme zugrunde, dass die menschliche Kognition ein komplexes System verschiedener Subsysteme darstellt, die sich durch bestimmte Charakteristika hinsichtlich ihrer Struktur und Funktion unterscheiden, also jeweils eigenen Gesetzmäßigkeiten folgen. Die Subsysteme fungieren als Module, d.h. jedes Modul weist als kognitives Wissenssystem eine ihm inhärente Struktur auf, die sich nicht durch die Struktureigenschaften eines anderen Moduls erklären lässt. Die Modularitätsthese besagt also, dass der menschliche Geist nach dem Prinzip der Arbeitsteilung funktioniert, d.h. so organisiert ist, dass verschiedene Subsysteme verschiedene Funktionen ausüben. So kann ein Modul für das Erkennen von Gesichtern verantwortlich sein, ein anderes für das Erkennen geschriebener Wörter. Die Effektivität und die Komplexität unseres Verhaltens erklärt sich aus den wechselseitigen Beziehungen der Kenntnissysteme. Bei bestimmten Verhaltensformen interagieren verschiedene Systeme miteinander (z.B. bei einer Objektbeschreibung das perzeptuelle, das sprachliche und das konzeptuelle Wissenssystem).

Modularität ist dabei zunächst eine strukturelle Eigenschaft kognitiver Systeme.»

[Schwarz, Monika: Einführung in die Kognitive Linguistik. Tübingen und Basel: A. Francke Verlag, 21996, S. 24-25]

«Nach der Autonomiehypothese der generativen Grammatik hat die formale Komponente der menschlichen Sprachfähigkeit, als der Grammatik, den Status eines Moduls, d.h. eines autonomen Systems, das Gesetzmäßigkeiten aufweist, die sich nicht durch die Interaktion allgemeiner kognitiver Prinzipien oder die Gesetzmäßigkeiten anderer Kenntnissysteme erklären lassen.

Das Problem der Modularität steht in engem Zusammenhag mit der Frage nach der Entwicklung der grammatischen Komponente: Stellt der Grammatikerwerb einen autonomen (nur von sprachspezifischen Prinzipien determinierten) Prozess dar, oder wird die Grammatik unter Beeinflussung allgemein-kognitiver und sozialer Faktoren und mit Hilfe von generellen Lernstrategien erworben?

Das logische Problem des Spracherwerbs besteht darin, dass Kinder trotzt unvollständiger und zum Teil fehlerhafter Evidenz in einem relativ kurzen Zeitraum die Grammatik der jeweils zu erwerbenden Sprache erschließen. [...]

In der neuesten Forschung ist ein alternativer Erklärungsansatz vorgeschlagen worden: das Parametermodell:

»We no longer consider UG [Universalgrammatik] to provide a format for rule systems and an evaluation metric. Rather, UG consists of various subsystems of principles ... many of which are associated with parameters that have to be fixed by experience. The parameters must have the property that they can be fixed by quite simple data, since this is what is available to the child; the value of the head-parameter, for example, can be determined from such sentences as >John saw Bill< (versus >John Bill saw<).« (Chomsky 1986:30)

In der Parametertheorie nimmt man nun an, dass die für den Erwerb eines bestimmten Grammatik notwendigen universellen Prinzipien Parameter enthalten, deren Werte erst auf der Basis des sprachlichen Inputs besetzt werden. UG umfasst somit eine Menge von Prinzipien, die in jeweils begrenzten Werten für bestimmte Parameter variieren können. Die Festlegung oder Fixierung der verschiedenen Parameterwerte ergibt dann eine mögliche Grammatik. Der Spracherwerb ist damit der Prozess, der die unspezifischen Werte der UG-Parameter festlegt (s. Chomsky 1988).»

[Schwarz, Monika: Einführung in die Kognitive Linguistik. Tübingen und Basel: A. Francke Verlag, 21996, S. 110-113]

«Festzuhalten bleibt, dass sich das hier nur ganz grob skizzierte Parametermodell zur Erklärung des Problems der mangelnden negativen Evidenz gut eignet. Der Vorgang der Parameterfestlegung ist aber noch zu vage und global umschrieben, um allen Erwerbsphänomenen im grammatischen Bereich gerecht werden zu können. Es bedarf zudem genauerer Angaben zur internen Struktur des Lernmechanismus, der über die Parameterbelegungen entscheidet. Welche Strategien benutzt er, und wie sind diese Strategien im Rahmen eines psychologisch plausiblen Verarbeitungsmodells zu beschreiben?“

[Schwarz, Monika: Einführung in die Kognitive Linguistik. Tübingen und Basel: A. Francke Verlag, 21996, S. 114]

«Modularität

Eine Grammatik einer Einzelsprache, in unserem Fall des Deutschen, beschreibt die Regeln, Einheiten, Parameter und Prinzipien, die unsere Sprachkenntnis ausmachen (Kompetenz). Anders als traditionelle Grammatiken besteht eine Generative Grammatik aus verschiedenen Komponenten, die autonom sind, aber beim strukturellen Aufbau von Sätzen zusammenwirken. Wenn eine Theorie der Sprache ein solches Design hat, so handelt es sich um eine modulare Grammatik. Besonders ausgearbeitet  ist dieses Konzept der Modularität in der Syntax. Kasustheorie und θ-Theorie z.B. sind autonome Module mit ihren eigenen Aufgaben; wie jedoch die Sichtbarkeitsbedingung belegt, bereitet die Kasustheorie das Zusammenspiel beider Komponenten vor.

Konstruktionsunabhängigkeit der syntaktischen und lexikalischen Prinzipien ist nur möglich, wenn man eine Grammatik hat, deren Teiltheorien modular zusammenwirken. [...] Und ohne eine modulare Grammatik könnten wir nur sehr bedingt die Selektivität sprachlicher Ausfälle voraussagen. Denken Sie nur einmal an die selektive Störung funktionaler Kategorien im Agrammatismus oder an die Zerstörung der CV-Schicht bei phonologischen Paraphasien.

Psycho- und neurolinguistische Erkenntnisse belegen schließlich, dass unsere mentalen Vermögen autonome Module sind. Eine Störung der Sprache ist eben nicht gleichzeitig eine Störung der Kommunikationsfähigkeit bzw. des Wissens über die Welt. Solche Erkenntnisse begründen damit auch die Notwendigkeit, die Struktur menschlicher Sprachen unabhängig von deren Funktion zu erforschen.»

[Keller, Jörg / Leuninger, Helen: Grammatische Strukturen – Kognitive Prozesse. Ein Arbeitsbuch. Tübingen: Gunther Narr, 1993, S. 241-242]

«Die ganze generative Grammatik hat (auch wenn sie sich dessen nicht bewusst ist) mit dem Problem der Vektorialisierung der >tiefen< Satzmarker zu tun. Die Begriffe gouvernment, command und embedding sind vektorielle Begriffe (die sich auf hierarchische Dispositionen und auf »oben und unten«‑ und »vorher und nachher-Relationen« beziehen). In diesem Sinne sollte man Vektorialisierungen als kontextuelle Merkmale betrachten die indessen der in 2.9.3. gemachten Annahme, derzufolge die Darstellung eines Semems auch Kombinationsregeln enthält nicht widersprechen. Da ein Vektor eine Position in einer räumlichen oder zeitlichen (oder logischen) Kette ist, könnte man, wenn man die Darstellung eines Semems als Prädikat mit mehreren Argumenten zulässt, im Prinzip annehmen, dass jede semantische Darstellung auch eine kontextuelle Selektion vorsieht, die dir Rolle des Arguments in einem bestimmten Kontext festlegt:

Doch führt eine derartige Lösung zu einen weiteren Problem: Ist die darzustellende vektorielle Position die durch die Oberflächenstruktur oder die durch die Tiefenstruktur realisierte? LAKOFF (1971a) zeigt, dass der Ausdruck /Sam claimed that John hat dated few girls/ zwei Lesarten erlaubt, nämlich /Sam claimed that the girls whom John had dated were few/ und /The girls whom Sam claimed that John had dated were few. Vektorialisierungen in der Oberflächenstruktur sind irreführend, und nur eine korrekte Vektoriallsierung des Quantifikators in einer tieferen semantischen Struktur kann den Ausdruck disambiguieren. Im übrigen besteht die Arbeit der Zeichenerzeugung (und insbesondere die »Codeanwendung«) gerade in der Projizierung der semantischen Tiefendarstellung in die Oberflächenstruktur mittels verschiedener Regeln oder »Zwänge«. Diese Regeln legen fest, in welcher Weise Vektoren in der Oberflächenstruktur realisiert und interpretiert werden können. An diesem Punkt erscheint die semantische Darstellung (so wie die generative Semantik sie auffasst) als Interpretant bzw. als eine Hierarchie von Vektoren, die als metasprachliche Erklärung der Arbeit des Auswählens und Erzeugens von Zeichen fungiert. Vektorialisierungen gibt es also (I) in der metasprachlichen Darstellung der semantischen Theorie, (II) in der semantischen Darstellung der Kombinationsmöglichkeiten eines bestimmten Semems und (III) in der bei der Interpretation eines Kontextes geleisteten Schlussfolgerungs‑ und Voraussetzungsarbeit. Da alle diese Probleme weder von den Transformationsgrammatiken noch von den interpretativen und den generativen Semantiken definitiv gelöst wurden, müssen wir uns mit der Feststellung begnügen, dass das Problem der Vektoren in der Verbalsprache zur Zeit noch recht unklar ist und einer weiteren Untersuchung bedarf. Dies zeigt, dass selbst sehr spezielle Probleme einer linguistisch orientierten Semantik ohne eine Klärung der allgemeinen semiotischen Probleme hinsichtlich der Vektoren nicht lösbar sind.»

[Eco, Umberto: Semiotik. Ein Entwurf einer Theorie der Zeichen. München: Wilhelm Fink Verlag, 2., korrigierte Ausgabe 1991, S. 320 Anm. 29]

«Die Generative Grammatik

Die Generative Grammatik hat in den vergangenen vier Jahrzehnten eine beachtliche Entwicklung genommen. So verwundert es nicht, dass viele der generativen Untersuchungen heute nur noch wissenschaftsgeschichtlichen Wert haben. Wichtig ist, dass man sich bei der Lektüre stets klar macht, welcher theoretische Rahmen den Arbeiten zugrunde liegt. Meist genügt ein Blick auf die Strukturbäume, um sich Klarheit zu verschaffen: Werden Sätze als NP/VP-Strukturen dargestellt, so liegt der ältere Theoriestand zugrunde. Erfolgt eine CP/IP-Analyse bzw. CP/AgrP/TP-Analyse, so ist dies der neuere Theoriestand. Es ist dann noch weiter zu überprüfen, wie die Strukturen restringiert werden: über eine Vielzahl von Einzelprinzipien wie in der GB-Theorie oder über einige abstrakte Mechanismen wie im MP.

In allen bislang vorgestellten Theorievarianten stellt sich dasselbe Problem: Wie kann verhindert werden, dass ungrammatische Strukturen entstehen (Standardtheorie) bzw. wie können diese wieder ‚ausgemustert’ werden (GB-Theorie, MP)? Zieht man in Betracht, dass die Generative Grammatik alle natürlichen Sprachen erfassen möchte, so ist schnell einzusehen, dass es schier unmöglich ist, ein Modell zu entwickeln, das alle grammatischen von allen ungrammatischen Strukturen trennt.»

[Dürscheid, Christa: Syntax. Grundlagen und Theorien. Wiesbaden: VS Verlag für Sozialwissenschaften, 32005, § 8.6]

«Creatividad del lenguaje

La ‘creatividad’ del lenguaje es una de las grandes aportaciones innovadoras de la investigación lingüística propias del generativismo. Esta contribución a la teoría lingüística causó sensación cuando Chomsky (1972: 11) la formuló en el momento de mayor esplendor del conductismo del estructuralismo norteamericano, ya que para el generativismo chomskiano el lenguaje no es «un almacén de estructura básicas» que se adquiere por medio de la repetición constante, como lo es para los conductistas. Cuando Chomsky (1974) habla del aspecto creador del uso del lenguaje está exponiendo como un hecho irrefutable, porque es obvio y, consecuentemente, no necesita de investigación empírica que lo confirme, «que el uso del lenguaje es innovador, en el sentido de que una gran parte de lo que decimos diariamente es completamente nuevo y no es repetición de lo que hayamos oído con anterioridad, está libre del control de estímulos externos, es coherente y apropiado a las situaciones, al tiempo que suscita en el destinatario del mensaje pensamientos relacionados con los del emisor».

Chomsky considera que una de las metas prioritarias de la teorización lingüística es explicar esta capacidad que poseen todos los hablantes de entender y de producir oraciones no oídas antes. En el paradigma generativista se asigna a la sintaxis la capacidad para introducir novedades en el lenguaje y también para explicar la infinitud del lenguaje: la ‘creatividad’ ilimitada regida por reglas, concepto que se opone al de analogía, utilizado por los estructuralistas. En opinión de Chomsky, el concepto de regla no se contradice con el de «creatividad» lingüística o con el significado general que se aplica a este término en la vida cotidiana; más bien al contrario, pues todo acto de creatividad se hace en el «marco de una regla». A un soneto no le falta creatividad porque se sujete a unas reglas formales, y una pintura no deja de ser producto de la creatividad porque observe ciertos cánones técnicos o del estilo de una época.

La ‘creatividad’ halla su explicación dentro de la competencia y, a estos efectos, Chomsky hace una perfecta diferenciación entre la «creatividad regida por reglas», propia de la competencia, y la «creatividad modificadora de las reglas», propia de la actuación. La creatividad a la que él se refiere es a la primera, porque para Chomsky, el espíritu creador posee una dinámica guiada por reglas que conoce límites y se orienta hacia un fin (Aguiar y Silve, V., 1980: 45).”

[Alcaraz Varó, Enrique / Martínez Linares, María Antonia: Diccionario de lingüística moderna. Barcelona: Editorial Ariel, 1997, p. 153-154]

«Los modelos proporcionados por Chomsky son instructivos. Los mecanismos intácticos propuestos están destinados a mostrar cómo se engendran ilimitadamente frases gramaticales (y cómo se distingue entre las que son gramaticales y las que no lo son); si, además, se construye una gramática generativo-transformacional capaz de enumerar (especificar las condiciones sintácticas) de un conjunto de lenguas, es de esperar que se pueda construir una capaz de enumerar otro conjunto de lenguas del cual el anterior sea un subconjunto, y así sucesivamente, hasta llegar a una gramática de tipo 0 capaz de enumerar lenguas de las cuales las enumeradas en cualesquiera otros tipos de gramáticas 1, 2, 4, ... n, sean subconjuntos. Aun si tales gramáticas, y en particular la de tipo 0, fuesen, en último término, «gramáticas lógicas», ello no quitaría interés al intento; pondría de manifiesto la posibilidad de construir modelos lógicos suficientemente potentes para ir engendrando todas las gramáticas posibles.

Una ventaje del modelo (o modelos) de Chomsky sobre el estructuralismo, clásico o no, es el destacar el carácter descriptivo del lenguaje y el no tener que atenerse a un corpus lingüístico dado. La construcción de modelos al efecto no es fácil. El propio Chomsky ha propuesto varios. Uno de los más difundidos se basa en la estructura de la frase y procede de una generalización de los llamados «constitutivos inmediatos» (los cuales varían según la frase). Pero las reglas de estructuras de frases no son suficientes; hay que ampliarlas, como ha hecho Chomsky, con reglas transformacionales (así como morfofonémicas). Tenemos entonces reglas estructurales de frases acontextuales acompañadas de reglas de transformación ordenadas cíclicamente.»

[Ferrater Mora, José: Indagaciones sobre el lenguaje. Madrid: Alianza Editorial 1970, p. 112]

«Una descripción estructural sintáctica completa incluye los elementos léxicos. Ningún transformacionalista considera que la gramática de un lenguaje tiene como solo componente el sintáctico. Se insiste, en efecto, en que hay tres componentes: el sintáctico, el semántico y el fonológico. Además, las especificaciones sintácticas son más completas en las gramáticas generativo-transformacionales que en otras. Para empezar, se distingue entre dos clases de símbolos en un vocabulario: los símbolos de clase, que son no terminales, y los símbolos morfémicos, que son terminales; estos últimos pueden ser morfemas gramaticales o morfemas léxicos. El que un símbolo sea no terminal o terminal constituye un aspecto estructural sintáctico de innegable importancia para la interpretación semántica; en muchas frases ambiguas, la ambigüedad queda despejada según que un símbolo sea considerado como terminal o no. Luego, se proporcional reglas de estructura de una oración mediante jalones de frase, y reglas transformacionales que operan sobre las representaciones de estructuras constitutivas (las cuales pueden derivar del componente básico o ser resultado de previas transformaciones).»  

[Ferrater Mora, José: Indagaciones sobre el lenguaje. Madrid: Alianza Editorial 1970, p. 117]

«Si la noción de competencia es algo más que una mera «hipótesis pragmática», tendrá que servir para caracterizar los mecanismos psicológicos por medio de los cuales se habla y entiende una lengua. El transformacionalismo no se contenta con proporcionar una serie de esquemas gramaticales a base de los cuales se describan todas las frases posibles de una lengua; aspira asimismo a describir «una realidad mental que subyace a la conducta lingüística» y se compromete, por tanto, a aceptar que hay semejante «realidad mental». Con ello se liga la ejecución con la competencia, pero a base de interpretar las reglas gramaticales como «reglas innatas», y aun como «psíquicamente innatas». Es cierto que, según Chomsky, hay que distinguir entre su «mentalismo» y el «mentalismo» tal como lo entendía Bloomfield – o cualquier otro autor para el cual haya una dicotomía entre ‘mental’ y ‘comportamental’ –. Pero no se puede evitar la impresión de que se proporciona aquí un modelo apriorístico de los mecanismos psicológicos lingüísticos.

La teoría que nos ha ocupado tiene un aspecto un tanto desazonador – que comparte con todas las teorías lingüísticas muy sistemáticamente elaboradas –: es el haber construido los mecanismos necesarios para resolver todas las dificultades internas. No hay duda de que tales teorías lingüísticas son coherentes. Lo malo es que lo son demasiado. En este sentido una teoría lingüística se parece sospechosamente a un sistema filosófico tradicional – todo está resuelto ... «dentro del sistema», o si surgen dificultades se modifica el sistema, también «desde dentro» –. Reconocemos que este modo de operar es muy propio de una concepción y que tiene su legitimidad; no habría ciencia si las teorías científicas fuesen exclusivamente generalizaciones de datos. La teoría se ajusta, por tanto, «internamente». Pero, en nuestra opinión, este «pragmatismo conceptual» no debe llevarse demasiado lejos; si tal se hiciera, el correspondiente modelo científico se convertiría en el único objeto de la ciencia. Es comprensible que cuando se arma un nuevo modelo se esperan de él maravillas. No lo es olvidar que todo modelo es constitutivamente incompleto.»

[Ferrater Mora, José: Indagaciones sobre el lenguaje. Madrid: Alianza Editorial 1970, p. 119-120]

«Un modelo de teoría gramatical

La gramática generativa considera como tarea básica la de construir una teoría general que explique los hechos lingüísticos. Se parte de la base de que la lingüística es una ciencia empírica. Esta concepción teórica contrasta con la concepción taxonómica de la lingüística pretransformacional. En realidad, ambas corresponden a distintas etapas en el desarrollo de la ciencia caracterizadas por métodos distintos: inductivo en la lingüística taxonómica, pretransformacional, e hipotético deductivo en la lingüística transformacional.

Es importante señalar que Chomsky, a mediados de la década de los cincuenta, se encuentra en una coyuntura muy favorable ya que junto a la momunental obra de Harris, en quien culmina el desarrollo de la lingüística estructural americana, se encuentra con la lógica de, entre otros, Emil Post que le proporciona los medios técnicos «de los que se careció hasta hace muy poco» (Chomsky) para expresar un sistema de procesos recursivos. De hecho, sólo en los últimos años, al hacer estudios sobre los fundamentos de la matemática, se ha llegado a comprender del todo cómo una lengua puede «hacer uso infinito de medios finitos»; ahora que se dispone de estos hallazgos, algoritmos, funciones recursivas, sistemas combinatorios ... es posible volver a los problemas suscitados, pero no resueltos por la lingüística tradicional, e intentar una formulación rigurosa de los procesos «creativos» del lenguaje. «Ya no hay obstáculos ténicos para el estudio en gran escala de las gramáticas generativas» (Chomsky). Pero, además, Chomsky se encuentra con una todavía reciente teoría general de la ciencia empírica que le proporciona la obra de Karl Popper, quien en su Lógica de la investigación científica fundamenta la concepción teórica de la ciencia empírica. Al proponer una teoría, una gramática, por ejemplo, enunciamos una hipótesis, con la que, naturalmente, nos arriesgamos, sobre la competencia de los hablantes, es decir, sobre los conocimientos que implícitamente todo hablante, o hablante-oyente ideal, posee sobre su propia lengua. Una teoría se entiende como un sistema hipotético deductivo. Así, formulada una gramática, una teoría sobre la competencia, por procedimientos deductivos obtenemos una serie de enunciados, comparables a los teoremas de una teoría matemática, que contrastamos con los hechos observables en la realidad. Esta contrastación es la que nos permite considerar que, de manera provisional, nuestra teoría gramatical es válida.

En esta triple perspectiva, es decir, desarrollo de la lingüística, desarrollo de la lógica a partir de la fundamentación de la matemática y fundamentación de la ciencia empírica teórica, creo, hay que situar la obra de Chomsky, el nacimiento y desarrollo de la gramática generativa.

Chomsky postula una gramática generativa como un sistema de reglas que de manera explícita y bien definida asigne una descripción estructural a las frases de una lengua de manera que explique la capacidad implícita que tiene todo hablante de emitir, o de entender, una cantidad ilimitada de frases. Una gramática adecuada, pues, debe asignar a cada una de las infinitas oraciones una descripción estructural que indique cómo entiende esa oración el hablante-oyente ideal. Según Chomsky éste es el problema de la lingüística descriptiva, y las gramáticas tradicionales dan abundante información sobre las descripciones estructurales de las oraciones, aunque frecuentemente dejen sin formular muchas de las regularidades básicas de la lengua.

Dado que el conocimiento de una lengua supone la habilidad implícita de emitir y entender infinitas oraciones, una gramática tendrá que ser un sistema de reglas, en el que aparecerán elementos recursivos, para generar un número ilimitado de estructuras.

Este sistema de reglas, según la formulación propuesta por Chomsky en su obra Aspectos de la teoría de la sintaxis (1965) viene articulado en tres componentes principales: los componentes sintáctico, fonológico y semántico. De la siguiente forma:

1)     El componente sintáctico especifica un conjunto infinito de objetos formales abstractos de manera que cada uno de ellos contiene la información necesaria para obtener una interpretación única de cada frase.

2)     El componente fonológico de una gramática determinada la forma fonética de una frase generada por las reglas sintácticas, es decir, relaciona una estructura generada por el componente sintáctico con una señal fonética.

3)     El componente semántico determina la interpretación semántica de una frase, es decir, relaciona una estructura generada por el componente sintáctico con una determinada representación semántica.

Vemos que tanto el componente fonológico como el componente semántico son puramente interpretativos; según Chomsky, en Aspectos, cada uno de estos dos componentes utiliza información proporcionada por el componente sintáctico respecto a los formantes, a sus propiedades inherentes y a su interrelación en una frase dada, es decir, que se aplican a las estructuras generadas por el componente sintáctico, que es el único componente generativo. El componente sintáctico de una gramática generativa debe especificar para cada frase una estructura profunda que determina su interpretación semántica y una estructura superficial que determina su interpretación fonética; una gramática generativa debe especificar un conjunto infinito de estructuras profundas y un conjunto infinito de estructuras superficiales relacionándolas adecuadamente.

De la lingüística estructural se podría decir que no hace la separación entre estructuras profundas y superficiales, es decir que ambas coinciden; en cambio la hipótesis de que son estructuras que caracterizan niveles distintos es básica en la gramática transformacional que considera dos tipos de reglas sintácticas: aquellas que general la estructura profunda de una frase, reglas de base, y aquellas que convierten la estructura profunda en superficial, las transformacionales. La hipótesis chomskiana es que el componente sintáctico debe generar una estructura profunda y otra superficial para cada oración, y debe también interrelacionarlas.

La base del componente sintáctico, según Chomsky, es un sistema de reglas que general un conjunto de cadenas básicas, cada una de ellas asociadas a una descripción estructural llamada indicador sintagmático básico, y estos indicadores son las unidades elementales que constituyen las estructuras profundas. En casa una de las frases de la lengua hay una secuencia de indicadores básicos generado cada uno de ellos por la base del componente sintáctico. A esta secuencia la llama basis de la frase a la que subyace. El componente sintáctico de una gramática generativa contiene un subcomponente transformacional que genera una frase, con estructura superficial, partiendo de su basis.

Ya hemos señalado que el primer objetivo de una gramática consiste en dar una descripción adecuada de la competencia lingüística de todo hablante, teniendo en cuenta que la relación entre la teoría lingüística y el objeto a explciar es uno de los factores fundamentales del proceso cambiante de la propia teoría. En el caso de que, al contrastarlos, el conjunto de los hechos que la teoría predice y el conjunto de los hechos que ha de predecir no coincidan, entonces se ha de modificar la teoría. [...]

En resumen, el modelo standard opera por medio de:

1)     Reglas de reescritura que generan cadenas categoriales de modo que cada una de estas cadenas posee un indicador sintagmático subyacente.

2)     Reglas de subcategorización que desarrollan las categorías de las secuencias generadas por las reglas de reescritura en símbolos complejos formados por una serie de rasgos inherentes y contextuales. Los contextuales pueden ser de subcategorización estricta o de selección.

3)     Reglas de inserción léxica que permiten, a partir del lexicón, concebido como una lista inordenada de entradas léxicas formadas por el par (D, C), siendo D una matriz de rasgos fonológicos y C una matriz de rasgos sintácticos, reemplazar todo símbolo complejo, generado por las reglas de tipo 1)-2), por D, si dicho símbolo complejo equivale a C. La cadena obtenida por aplicación de las reglas, 1), 2) y 3) constituye la estructura profunda. La estructura profunda contiene elementos necesarios para obtener la significación de la frase.

4)     Reglas de transformación que convierten las estructuras profundas en estructuras superficiales, las cuales han de recibir una interpretación fonológica.

5)     Reglas de interpretación semántica que se aplican en estructuras profundas para explicar el significado.

6)     Reglas fonológicas que se aplican a las estructuras superficiales para dar su interpretación fonética.

La gramática está, pues, constituida por tres componentes: sintáctico, semántico y fonológico. El semántico y el fonológico son interpretativos. El sintáctico genera las estructuras sobre las que los otros dos componentes se aplican, e indica de qué modo están coordinados.

Estos son los principios metodológicos más importantes de la llamada teoría estándard de la gramática generativa y transformacional expuestos de manera sistemática en Aspectos de la teoría de la sintaxis de Noam Chomsky.

En los últimos años se han ido señalando algunos puntos débiles de esta organización gramatical. Son especialmente dos cuestiones:

a)     la separación de la semántica y la sintaxis, en el sentido de que la sintaxis es un componente generativo y la semántica es un componente meramente interpretativo, y

b)     el lugar que separa y que, por tanto, define lo que es una estructura profunda, la salida de las reglas de base, las últimas de las cuales son las inserciones léxicas, y la entrada de las reglas transformacionales.»

[Serrano, Sebastián: Lógica, lingüística y matemáticas. Madrid: Ed. Anagrama, 1977, pp. 211-215 y 230 ss.]

·

«En gramática generativa, se da el nombre de símbolos a todos los elementos del »alfabeto« necesarios para la anotación de las abstracciones anteriores a la realización morfofonológica. El símbolo inicial de la gramática generativa, que en un principio anotó como O, se anota en la actualidad como S. Es el símbolo anotado a la izquierda en la primera regla de reescritura; representa la construcción de nivel más profundo; todas las restantes construcciones generadas por las reglas de reescritura y, posteriormente, por las reglas transformacionales, son constituyentes suyos. En el estado actual de la teoría generativa, la reescritura del símbolo inicial es generalmente:

S > Mod + O,

que se lee: el símbolo inicial S se reescribe mediante los símbolos Modalidad de oración + núcleo.

En el término de las reglas gramaticales, tendremos una serie de símbolos que se refieren a una clase especial de elementos léxicos. Estos símbolos reciben el nombre de símbolos terminales; las reglas de inserción léxica los sustituyen por ítems léxicos, tomados del lexicón.

Hay que añadir la existencia de símbolos comodines (dummy symbols).

Una regla del tipo A > D, en la que D es un símbolo comodín y A una categoría léxica, permite al componente categorial generar indicadores para secuencias compuestas por diversas ocurrenciaas de D (que marcan la posición de las categorías léxicas) y por formantes gramaticales.

Los símbolos categoriales utilizados con mayor frecuencia son:

S

oración básica

O

núcleo de la oración

SN

sintagma nominal

SV

sintagma verbal

N

nombre

Det

determinante

V

verbo

Aux

auxiliar

Mod

modalidad

M

modo

PP

participio pasado

Inf

infinitivo

Neg

negación

Inter

interrogativo

Énf

énfasis

Pas

pasivo

Imp

imperativo

Decl

declarativo

Pasd

pasado

Pres

presente

SP

sintagma preposicional

Prep

preposicional

SA

sintagma adverbial

Adj

adjetivo

 [Dubois, J. et alii: Diccionario de lingüística. Madrid: Alianza, 41994, p. 565-566]

«Otra nota específica importante en el generativismo es la presentación de la gramática como un algoritmo, mecanismo matemático independiente que señala la pertenencia de toda secuencia gramaticalmente correcta a la gramática de una lengua. El término algoritmo le fue sugerido a N. Chomsky por la analogía con la matemática. Así como un niño no aprende de memoria todos los productos infinitos posibles a partir de los números naturales, sino que aprende las reglas de multiplicar (un algoritmo), del mismo modo un individuo no aprende todas las oraciones de una lengua, sino un conjunto de reglas para formarlas.

La formulación del concepto de algoritmo (= gramática) nos la ofrece N. Chomsky en los siguientes puntos:

(1)  sea S un conjunto cualquiera de oraciones;

(2)  ante cualquier oración se plantea el problema de la pertenencia a S y de la posibilidad de un procedimiento mecánico con el que, dada una secuencia arbitraria x, al fin de una duración finita se pueda reconocer si x es o no miembro de S;

(3)  si existe tal procedimiento mecánico, entonces se dice que S es decidible o que existe un algoritmo para decidir la pertenencia a S, o que el problema de decisión para S es recursivamente decidible.»

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 36]

El primer modelo generativo-transformacional: Syntactic Structures de N. Chomsky (1957)

«Este modelo ha sido superado por su mismo autor; sin embargo, dado que su postulado fundamental - la existencia de un mecanismo (la sintaxis) completamente autónomo e independiente de toda consideración semántica - sigue aún en pie, voy a someterlo de nuevo a revisión.

Multitud de trabajos prácticos parciales han demostrado en los últimos tiempos que el modelo sintáctico subyacente a una expresión no es otra cosa que la forma de una función semántica que no se identifica con la suma de los contenidos de los morfemas aislados, sino que pertenece a un nivel superior que no es meramente combinatorio, sino que se obtiene por la comparación de los esquemas oracionales con todas sus posibles situaciones potenciales. Por otra parte, los conceptos relacionales (sujeto, objeto directo, etc.) de la gramática tradicional, utilizados por Chomsky tanto en este modelo como en los posteriores, ni han sido definidos, ni existe motivo para su aceptación acrítica.

Los modelos semánticos interpretativos de Katz-Fodor-Postal (1963 y 1964).

Estos modelos se basan en un presupuesto inicial muy discutible: que las informaciones necesarias para interpretar semánticamente los diagramas ramificados del componente sintáctico estaban ya en cualquier buen diccionario de tipo tradicional. Por otra parte, se aseguraba, como presupuesto fundamental, que el significado de cualquier expresión era la mera combinación de los significados de sus morfemas. Con ello, se despojaba de significado propio a la única unidad comunicativa por sí misma, la oración, y tenían que acudir a una complicación desmesurada del componente diccionario de una lengua. Con todo esto, a fuerza de simplificar las reglas de la sintaxis (reglas sintagmáticas y reglas de transformación), que en expresión de Chomsky, pueden explicarlo todo 1, tenían que realizar una inmensa taxonomía con el léxico, esto es, una superclasificación del mismo. Y concluir al fin que éste constituye (son palabras de Chomsky) el conjunto completo de las irregularidades del lenguaje.“

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 313]

"La más importante de las críticas es la de Eugenio Coseriu. Según él, al estudiar el significado hay que hacer una neta distinción entre lexemática y onomasiología. La lexemática es distinta de la onomasiología porque esta última parte de la consideración del contenido (Inhalt) y de la relación de éste con las diversas expresiones que dan este contenido. Esta relación de la onomasiología la califica Coseriu como interlingüística, ya que lo comparado son distintas lenguas naturales o lenguas funcionales dentro de la misma lengua, como dialectos, niveles o estilos de lengua. La lexemática, por el contrario, es un estudio de las relaciones paradigmáticas intralingüísticas. La semántica interpretativa se propone la identificación del contenido partiendo de una expresión léxica, sin hacer ninguna distinción entre identificación del signo y el análisis del contenido. No puede considerarse un análisis del significado esta semántica, porque no se propone establecer una relación paradigmática entre las unidades significativas, los lexemas. El único cometido que se impone es el de la desambiguación, problema que, según Coseriu, no es privativo de la semántico, sino también de la sintaxis y de la morfología. La conclusión de Coseriu es que la semántica de Katz-Fodor-Postal no es tal semántica, sino sólo una lexicografía, puesto que no puede diferenciar entre lexemas (unidades léxicas semánticas), variantes léxicas semánticas y metáforas."  

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 121 ss.]

"El modelo generativo de N. Chomsky: Aspects of the Theory of Syntax (1965) y The Formal Nature of Languages (1967).

Este modelo no es sino la consecuencia lógica de la construcción de una semántica interpretativa por parte de sus discípulos Katz, Fodor y Postal. Su presupuesto fundamental sigue siendo que el centro de la descripción de cualquier lenguaje natural lo constituye una serie de reglas a priori que en sí mismas son independientes y a las cuales se unen, como interpretaciones, por un lado, el significado como mera combinación de marcas semánticas de los morfemas obtenidas apriorísticamente y, por otro, el significante.

El intento de Chomsky es reducir la gramática (descripción del sistema lingüístico) a una mera combinatoria, análoga a los sistemas de la lógica formal. Para ello ha tenido que reducir las unidades significativas a una sola clase, los morfemas, que  en este caso, tienen que constituir, como postula el mismo Chomsky, el conjunto total de las irregularidades del lenguaje. Pero el sistema lingüístico, sin tener que contradecir necesariamente a los sistemas lógicos - ya que éstos se basan inicialmente en el análisis de las lenguas naturales -, es un sistema cuyos niveles tienen todos su significación propia. De no admitirlo, llegamos a la contradicción intrateorética observada por el mismo Chomsky de que, entre expresiones que referencialmente tienen el mismo sentido y que serían convertibles en un cálculo de predicados (John likes the music / The music pleases John), no existe converticidad transformacional ni de interpretación semántica. Por otra parte, el establecimiento de las restricciones seleccionales y las particularidades semánticas se convierte en un círculo vicioso. En efecto, la determinación de las reglas de la sintaxis se hace mediante un conjunto de reglas sintagmáticas independientes de toda realización, pero el establecimiento de los significados de los morfemas implica un conocimiento de su contexto oracional. La dificultad se hubiera evitado reconociendo, como primera y fundamental unidad significativa, la oración como estructura abstracta, sintáctica y semántica. Chomsky ha contado, desde el principio, con la irregularidad combinatoria de los morfemas a nivel del léxico, sin darse cuenta de que éstos se ordenaban de acuerdo con una unidad abstracta superior, la oración.“

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 315-316]

Correcciones y adiciones al modelo generativo de N. Chomsky (1965): U. Weinrich y P. A. M. Seuren.

„Las correcciones al modelo de Chomsky llevadas a cabo por Weinrich y Seuren significan un avance. Weinrich porque se aparta del postulado inicial de los semánticos interpretativos, y porque admite un orden en la combinabilidd de las unidades significativas y acepta que éste venga determinado por consideraciones semánticas, esto es, dependientes de las unidades de significación. Sin embargo, al admitir acríticamente las relaciones funcionales de la gramática tradicional (sujeto, objeto, etc.), despoja a la estructura sintáctica de función comunicativa y, entonces, los resultados a los que llega en esta sintaxis no pueden resolver las antinomias que veíamos en Chomsky. P. A. M. Seuren representa el paso hacia una consideración logicista total de la gramática. Sus formulaciones se identifican en gran parte con la lógica de predicados. Ahora bien, estas formulaciones mezclan, sin definirlas, nociones semánticas y nociones de la gramática tradicional con lo que el resultado es un producto híbrido que ni atiende a formulaciones estrictamente lógicas, ni estrictamente gramaticales. En esto concuerda con Chomsky que, en sus reglas de base del componente sintáctico, mezclaba conceptos sintácticos no significativos (sintagma nominal, sintagma verbal, etc.), con conceptos semánticos como temporal, modo y manera, local, etc.“

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 316-317]

Ch. J. Fillmore y los semánticos generativos.

"Hacia el año 1968 se hace patente lo que se ha llamado la tercera generación de la gramática generativa. Se trata de un conjunto de alumnos de Chomsky, que aun dentro de los postulados metateóricos del maestro, van a poner progresivamente en tela de juicio su concepción gramatical y su concepto base, la llama estructura profunda. La piedra de toque de las nuevas concepciones va a ser la investigación del contenido y la extensión real de este concepto. Se acepta su existencia respecto a las manifestaciones lingüísticas, pero se discute tanto su forma como su mismo contenido. Estas discusiones atañen, sobre todo, al problema de la necesidad del componente interpretativo semántico de J. J. Katz y J. A. Fodor.

Dos nuevas concepciones han aparecido, respecto a este problema, dentro de la escuela generativa:

a) la gramática de casos de Ch. J. Fillmore, que tiene como objeto fundamental la construcción de una teoría sintáctica universal justificada semánticamente. Fillmore afirma que, si se consigue este intento, la estructura profunda de Chomsky tendrá el mismo destino que el fonema de la lingüística europea, esto es, no será nada más que un nivel intermedio artificial entre una estructura profunda, que habrá de descubrirse empíricamente, y la estructura superficial observable. La estructura profunda, sigue afirmando Fillmore, es un nivel más en contacto con los pensamientos gramaticales que con la naturaleza de las lenguas humanas;

b) la semántica generativa de E. Bach, G. Lakoff, J. D. McCawley, P. M. Postal, etc., sostiene la necesidad de la estructura profunda para la descripción de la lengua. Ahora bien, para estos y otros muchos autores, ésta tiene un gran parecido con las estructuras semánticas, o mejor, es la misma estructura semántica de la oración. De este modo, cada lengua tiene un solo sistema de procesos que convierte la formulación semántica de cada oración en su correspondiente representación sintáctica superficial. Significa esto que no existe ninguna fase intermedia entre la formulación semántica y la estructura sintáctica de la oración y, por otra parte, que la representación semántica y sintáctica son objetos formales de la misma índole.“ [Ebd. 239-240]

„Un paso más hacia la consideración logicista de la estructura de las lenguas particulares lo representa Ch. J. Fillmore. En efecto, la estructura casual, postulada por él como estructura profunda inmanente a todas las lenguas naturales, no es otra cosa que un sistema lógico simplificado asumido a priori, en el que se rechazan las nociones relacionales de la gramática tradicional (sujeto, objeto directo, etc.), pero los casos por él defendidos no pueden significar la estructura inmanente de las lenguas particulares, desde el momento en que, tanto Ch. J. Fillmore como muchos de sus seguidores y críticos (entre ellos N. Chomsky), han comprobado que entre este sistema de casos y las manifestaciones concretas de las lenguas particulares no existe una relación universal, ni siquiera intralingüística.

Respecto a muchas de las tesis de los semánticos generativos, es arriesgado establecer conclusiones, puesto que los mismos generativistas semánticos exponen sus intentos parciales como meras hipótesis de trabajo, y falta un estudio teórico que presente un modelo gramatical basado en una consideración semántica apriorística que dé cuenta universalmente del mecanismo subyacente a cada lenguaje particular. Esto no significa de ningún modo que no exista la posibilidad de convertir los enunciados de cualquier lenguaje particular en un cálculo lógico e incluso que se puedan establecer unas reglas que regulen este cambio de estructuras lingüísticas, propias de cada lenguaje particular, en una serie de enunciados formalizados de carácter universal. Si negáramos estos negaríamos también la posibilidad de traducción que tiene todo hablante bilingüe para expresar los contenidos de los enunciados lingüísticos de una lengua en otra.

Ahora bien, esta estructura lógica, o de la lógica natural, como prefieren llamarla algunos generativistas semánticos, no puede ser la estructura real de las lenguas naturales, ya que, si admitiéramos la formulación lógica como estructura subyacente a los lenguajes particulares, estaríamos fuera de la idea filosófica comprobada de que el lenguaje es una caracterización del mundo a través de elaboraciones sucesivas de la colectividad, y esto no sólo en el plano del léxico, sino, sobre todo, en el de los esquemas sintáctico-semánticos (oración) que son juicios intralingüísticos con un contenido generalizados, y cuyo número debe ser finito.“ 

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 317-318]

El modelo estándard extendido de N. Chomsky (Studies on Semantics in Generative Grammar, The Hague, 1972).

„En este último modelo, reelabora Chomsky su modelo generativo-transformacional de 1965, rebatiendo al mismo tiempo las teorías de los generativistas semánticos. Creo que en esta teoría modificada existen todos los elementos que he criticado en los modelos anteriores y, además, que se hace en ella una mezcla de niveles que contradice los conceptos esenciales de lengua y oración gramatical, tal como se han ido perfilando y matizando en el pensamiento filosófico y lingüístico europeo. Lo único que intento decir es que este último modelo chomskyano me parece más adecuado que los anteriores.“ [Ebd., S. 298-299]

„En este nuevo modelo, Chomsky no ha intentado explicar aquel grave problema que se planteaba en Aspects: el de determinar la relación entre paráfrasis para él semánticamente equivalentes, como I like the music / The music pleases me, pero de las que no podía dar cuenta, según su propia afirmación, el modelo generativo-transformacional. Piénsese, además, que el ejemplo dado por Chomsky no es un caso aislado: Yo me alegro de que vengas / Me alegra que vengas / Me da alegría que vengas ... (He podido comprobar más de doscientos casos con verbos diferentes).

Dado que éste es un hecho empíricamente demostrado, sólo es verdadero uno de estos términos: o bien

a)   Chomsky identifica como paráfrasis semánticamente equivalentes dos expresiones semánticamente distintas, pero que atañen a una referencia idéntica y, por lo tanto, su último modelo generativo transformacional no es apto para la descripción del significado lingüístico, sino todo lo más intenta ser única y exclusivamente un lenguaje artificial más allá de todo lenguaje particular, lo cual contradice sus mismos proyectos teóricos; o bien

b)   el concepto de oración, tal como se describe operacionalmente en la obra de Noam Chomsky, no puede corresponder a las manifestaciones lingüísticas de las lenguas naturales.» [o. c., p. 311-312]

«En la última elaboración de su modelo, Chomsky se acerca, al menos parcialmente, a algunos de los postulados de la lingüística europea (sobre todo de la Escuela de Praga), al admitir la estructura superficial (las manifestaciones lingüísticas reales) como definidora, en parte, del contenido semántico de la oración. En efecto, la distinción entre foco y presuposición de las estructuras superficiales se acerca, auque sólo parcialmente, a los conceptos tema y rema, puntos centrales del análisis establecido por los teóricos de la Escuela de Praga en el dinamismo lineal del discurso. En este nivel, la unidad de análisis es la expresión textual desde el punto de vista de su perspectiva funcional, y, por tnto, este estudio no puede ser confundido con el establecimiento de los esquemas sintáctico-semánticos, que son independientes de toda inserción textual.

No obstante, este avance queda en parte invalidado por la persistencia de N. Chomsky que se repite desde su primer modelo: la existencia de un mecanismo formal autónomo (componente sintáctico) al que se adhieren dos componentes subsidiarios e interpretativos: la semántica y la interpretación fonológica.

De este modo, las construcciones sintácticas, sus diagramas ramificados y el conjunto de transformaciones, no están en función de un contenido semántico, sino prácticamente al contrario. Esto no es sino una prueba más del automatismo absoluto que los representantes de la gramática generativa han querido insertar en el estudio de las lenguas humanas. Así como un sistema lógico o algebraico no tiene, en sí y por sí mismo, ningún contenido semántico, sino que el significado de sus estructuras, por muy complejas que éstas sean, se obtiene partiendo de las unidades mínimas establecidas para las variables y los predicados de tales sistemas, el generativismo ha querido construir gramáticas del mismo modo. Naturalmente, mientras que el estudio estaba dirigido única y exclusivamente a formalizar las reglas combinatorias formales, las contradicciones internas de este unilateral acercamiento al signo lingüístico no eran fáciles de determinar; sin embargo, desde el momento en que se pretendió dotar a estos diagramas ramificados de una interpretación semántica meramente combinatoria, comenzaron las dificultades. En efecto, si la representación sintáctica (sobre todo el llamado subcomponente base, conseguido a través de un conjunto de reglas sintagmáticas) no está motivado semánticamente, ¿cómo es que determinadas unidades significativas pueden entrar en ciertos indicadores sintagmáticos y en otros no? La única posibilidad es admitir la oración, no simplemente como sintagma, sino como un paradigma complejo que debe ser definido atendiendo a sus elementos obligatorios y al conjunto de elementos que, sin serlo dentro de un paradigma oracional particular, diferencian éste de los demás.

Este estudio, naturalmente, será más difícil, ya que a priori no sabemos cuáles son las marcas que constituyen los esquemas oraciones en oposición. Una vez establecidos los esquemas sintáctico-semánticos de la oración, se podrá estudiar su inserción textual, esto es, su conversión en expresiones dentro del discurso y las diferentes perspectivas que adquieren estos esquemas o configuraciones de marcas, cuando son insertados dentro del dinamismo lineal de la comunicación.

Epílogo

En la línea estructural de la Nueva Escuela de Praga, parto de la base de que la oración no puede ser entendida sólo como una unidad sintagmática - principio sostenido por el estructuralismo americano y gran parte del europeo -, sino que este concepto ha de interpretarse como una configuración de marcas distintivas, esto es, como una unidad paradigmática de las lenguas naturales. Los resultados obtenidos hasta ahora han sido, en mi opinión, positivos; sin embargo, el campo de investigación es aún colosal. Se trata de identificar todos los predicados verbales existentes en una lengua natural, formar con ellos esquemas sintácticos mínimos y establecer, más tarde, todas las sustituciones formales posibles, dependientes de estos predicados. Una vez realizada esta operación, será el momento de discernir con toda certeza si se puede hablar o no de paradigmas oracionales en oposición, al menos en el ámbito de una lengua particular.»  

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, pp. 318-320]

«En el fondo, tanto en la postura de Fillmore como en la de Chomsky, nos encontramos con una constante de la lingüística americana desde L. Bloomfield hasta hoy: la imposibilidad de distinguir entre el significado cognitivo y el significado lingüístico. En efecto, tanto en las reglas de interpretación semántica del modelo generativo-transformacional, como en las relaciones semánticas intraproposicionales que establece la gramática de casos, se parte de un significado no lingüístico, dado que se presuponen las marcas universales del mismo. Podemos decir que esas marcas son verdaderas y que pertenecen a los sistemas lógicos extralingüísticos. Esto no significa, sin embargo, que tengan de manera necesaria pertinencia lingüística. En una palabra, se admite que la lengua es un sistema de sistemas, pero las reglas de su funcionamiento no pueder ser marcadas a priori sin riesgo de violentar el hecho fenomenológico que es el hablar mismo.»  

[Báez San José, Valerio: Introducción crítica a la gramática generativa. Barcelona: Planeta, 1975, p. 256]

____________________

1       N. Chomsky es consciente de este grave inconveniente de la gramática generativo-transformacional, cuando afirma: „The gravest defect of the theory of transformational grammar is ist enormous latitude and descriptive power. Virtually anything can be expressed as a phrase marker, i. e., a properly parenthetized with parenthetized segments assigned to categories. Virtually any imaginable rule can be described in transformational termes“.

«Frente a esta consideración de las estructuras lingüísticas, hemos opuesto en todo momento una teoría gramatical en la que los diversos niveles lingüísticos a los que corresponden unidades del sistema (fonema, mínima unidad significativa, palabra, grupo de palabras (sintagma prepredicativo), esquema oracional y oración, y expresión textual) tienen su correlato en unidades estáticas o dinámicas de las lenguas particulares históricas. Unidades estáticas serían aquellas que constituidas como clases finitas pueden ser opuestas las unas a las otras y, en este sentido, obtendríamos un sistema paradigmático opositivo. A este grupo pertenecerían las palabras, los esquemas oracionales y las oraciones.

Por otra parte somos de la opinión de que, frente a una paradigmática de unidades, las lenguas históricas muestran también una paradigmática de reglas, y ésta tendría su objeto en los grupos de palabras y las expresiones textuales.

En todo momento, el hilo conductor de nuestro trabajo ha sido la consideración de que en las unidades significativas de las lenguas particulares históricas (palabra, grupo de palabras, esquema oracional, oración, expresión textual), el significado es función de la forma. Ahora bien, estas formas y sus significados correspondientes han de considerarse como estáticas y dinámicas. Consideramos formas estáticas aquellas que, por un proceso de reducción abstractiva, desligamos de su contexto y situación (referencia al hablante-oyente y al dinamismo lineal del discurso). Así, las palabras con significado categorial, léxico y, eventualmente, gramatical (auxiliar) pueden ser opuestas entre sí y formar campos semánticos. Por otra parte, los esquemas oracionales resultantes de la sustitución de los sintagmas nominales, preposicionales, atributivos, etc. por variables del tipo «alguien», «algo», «algún momento», «algún lugar», «algún modo», etc. constituyen esquemas oracionales que constan de un núcleo predicativo y, eventualmente (en la mayoría de los casos), de un conjunto de variables intralingüísticas relacionadas con el núcleo predicativo. De este modo tanto en el nivel de la palabra como en el nivel de los esquemas sintáctico-semánticos oracionales, podría establecerse una paradigmática.

Finalmente, el grupo de palabras y la expresión textual son unidades dinámicas, es decir, para su formación ha intervenido intencionalmente el hablante, al constituir el texto sustituyendo las variables intralingüísticas por grupos de palabras o añadiendo sintagmas que modalizan toda la expresión de acuerdo con determinados tipos de reglas que ha de considerarse necesariamente textuales. Aquí, pues, no puede establecerse una paradigmática de elementos, ya que las posibles combinaciones en el grupo de palabras y en las expresiones textuales, si no son finitas, al menos, son indeterminables en su número. No queda, pues, otra alternativa que el establecimiento complejísimo de una paradigmática de reglas que señale las condiciones de buena formación de las expresiones textuales. En este sentido, podríamos adelantar que lo único generativo en las lenguas es la capacidad ilimitada del hablante para producir nuevos textos.»

[Báez San José, V.: Fundamentos críticos de la Gramática de Dependencias. Madrid: Síntesis, 1988, p. 8-9]

«Chomsky considera que el objeto de estudio de la lingüística es la forma lingüística pura, sin consideraciones subjetivas y reducida a reglas de tipo matemático. Propone la supremacía y la autonomía de la sintaxis, que en su visión carece de significado. Mi propia postura –que es la postura funcional y cognitiva– constituye la visión opuesta, es decir, que el lenguaje no puede estudiarse aisladamente de otros fenómenos mentales; que no existe en el lenguaje la forma sin contenido y que el lenguaje es uso y por tanto el objeto de estudio es el lenguaje en uso y no la lengua idealizada de un hablante idealizado. El término “significado” es equivalente a “conceptualización” y las distintas formas lingüísticas son simbólicas de distintas conceptualizaciones, pero no tiene cabida en esta visión la idea de transformación (ni de dos estructuras, una profunda y una superficial).»

[Fernández, Susana S.: La voz pasiva en español: un análisis discursivo. Frankfurt a. M.: Peter Lang, 2007, p. 18 n. 12]

«En general, puede decirse que Chomsky está restringiendo el componente  transformacional de su gramática, al ver que las transformaciones pueden  ser un recurso tan poderoso que acaben por no explicar nada al poder  explicarlo todo. La relación entre frases no se hará ahora por medio de  reglas transformacionales, generales, sino por la descripción particular,  atomizada incluso, de los elementos lingüísticos por medio de rasgos. Y  esto va a repercutir en el análisis de los causativos, con una postura que  luego adoptará Ruwet. [...] Por todo ello acaba proponiendo, en vez de la  transformación causativa, la existencia de un rasgo semántico [+ causa],  que puede asignarse a algunos verbos, y cuya asignación convierte al verbo  intransitivo en transitivo, y revisa sus rasgos seleccionales de modo que  el primitivo sujeto se convierta en objeto. Por tanto, ambos tipos de  frases han de considerarse ahora 'básicos' en la gramática; y unas reglas  de redundancia precisarán, en líneas generales, los comportamientos  provocados por este rasgo.

Semántica generativa. Frente a Chomsky, los lingüistas de este grupo  postulan una estructura 'básica, no sintáctica y formal, sino puramente  semántica, e incluso lógico-conceptual, cuyos elementos no tendrán nada  que ver con los elementos léxicos reales de las lenguas. Por otro lado,  hablan de transformaciones 'preléxicas': introducen elementos léxicos  reales, o 'palabras' de la lengua, a partir de esos elementos semánticos  abstractos. Como vemos, el vuelvo fundamental a la teoría de Chomsky es  colocar lo semántico, no como meramente interpretativo, sino como centro  del lenguaje, tanto en su funcionamiento como tal, como en la teoría que  habrá de analizarlo. No obstante, mantienen el concepto de  'transformación' y 'generar', aunque ahora con una orientación totalmente  distinta. Precisamente, uno de los argumentos a favor o en contra de uno u  otro modelo teórico lo han constituido las construcciones causativas; no  se las ha estudiado por sí mismas, sino en cuanto que podían afirmar o  negar una teoría. La primera formulación la encontramos en Lakoff.  Relaciona las siguientes frases: the metal is hard  - the metal hardened   - John hardened the metal ("el metal está duro" - "el metal se endureció"  - "Juan endureció el metal"). Entre las dos primeras hay una  transformación 'incoativa': un elemento semántico INCOATIVO, inserto en la  estructura 'básica', pone en marcha la transformación, que puede originar  esas dos estructuras superficiales. Lo mismo ocurre entre la segunda y la  tercera frase: un elemento semántico CAUSATIVO pone en marcha una  transformación que origina una frase aparentemente tan simple como ésa, o  también otras con un elemento léxico como to cause  o to bring about.  El  centro de la polémica sobre las transformaciones causativas fue el  artículo de J. McCawley, "La inserción léxica ...", de 1968, donde aparece  la transformación modelo: cause to die => to kill. Para McCawley, el  verbo inglés to kill puede descomponerse semánticamente en "cause to die",  o mejor aún, en "cause-become-not-alive". Esta construcción semántica se  convierte en el verbo 'superficial' inglés por medio de una serie de  transformaciones, en las que cada predicado se une al inmediatamente  anterior. La transformación puede deternerse en cualquier momento; así, en  vez de to kill, tendremos la perífrasis cause to die, u otras semejantes.  La crítica de Chomsky se basa en la idea de que tales análisis no implican  una teoría distinta. Esas derivaciones transformacionales no son más que  un nuevo modo de presentar las reglas de interpretación semántica que  especifican el significado de un elemento léxico de la lengua, y lo  relacionan con otros elementos léxicos, o con el de frases enteras. En  cierto modo, Chomsky tiene razón: el análisis de McCawley no parece sino  una traducción generativista del conocido procedimiento de descomposición  semántica de un lexema en rasgos sémicos elementales. De acuerdo con el  tipo de análisis de McCawley, cualquier elemento léxico de una lengua  podría generarse por transformación a partir de su definición de  diccionario. Por otro lado, Chomsky vuelve a señalar que entre cause to  die y to kill la relación no es de sinonimia: el verbo simple supone una  inmediatez de conexión entre agente y suceso que no se da en la perífrasis  correspondiente. Éste es el núcleo de la argumentación de Ruwet en contra  de la relación transformacional entre estos tipos de frases.»

[Cano Aguilar, Rafael: Estructuras sintácticas transitivas en el español  actual. Madrid: Gredos, 1981, pp. 222-224 y 226-229]

«Los defensores de las 'transformaciones causativas' no operan con  verdaderas estructuras sintácticas formadas por elementos léxicos, sino  con estructuras semánticas compuestas de entidades conceptuales  asbtractas1. Y en este sentido no se ve muy bien cómo se pretende destruir  el concepto de 'estructura profunda' de Chomsky, que es verdaderamente  sintáctica, por medio de unos procesos, como los 'causativos', donde se  mezclan lo semántico y lo sintáctico formal de manera indiscriminada. Se  destruiría mejor derivando una estructura sintáctica de otra, e insertando  nuevos elementos que cambiaran el significado, con lo cual se violaría una  de las condiciones de Chomsky, según la cual las transformaciones no  aportan nada al significado de una oración.” [o. c., p. 240]

[Cano Aguilar, Rafael: Estructuras sintácticas transitivas en el español  actual. Madrid: Gredos, 1981, p. 240]

___________

1   Los generativistas rechazan la identificación de sus elementos semánticos primitivos con los 'semas' del estructuralismo, pues, según  ellos, éstos no repercutían en las estructuras sintácticas. 

[Hierro S. Pescador, José: Principios de Filosofía del Lenguaje. 1. Teoría de los Signos, Teoría de la Gramática, Epistemología del lenguaje. Madrid: Alianza Editorial, Alianza Universidad, Textos, 1980, p. 97]

«Sintaxis, léxico y semántica - Enfoque minimalista

Las restricciones semánticas que intervienen en la construcción de cualquier secuencia se encuentran codificadas en un especie de diccionario interiorizado, conocido con el nombre de “léxico” o “lexicón”, que contiene junto con el inventario de las piezas léxicas la información semántica relevante para construir una oración, por ejemplo, la relativa a las exigencias semánticas que impone un verbo a los sintagmas que coaparecen con él.

Las categorías funcionales también se encuentra almacenadas en el léxico interno de los hablantes. En este caso, no se organizan según exigencias semánticas, sino mediante los rasgos formales que poseen. [...]

El adverbio afortunadamente que encabeza la oración

Afortunadamente, todos decidieron comprarle un regalo a María

no está exigido semánticamente por ninguno de los verbos. Además, presente rasgos especiales que determinan que vaya entre pausas y que pueda, cumpliendo este requisito, situarse en diferentes posiciones de la oración:

Todos decidieron, afortunadamente, comprarle un regalo a María;

Todo decidieron comprarle un regalo a María, afortunadamente.

Para explicar este comportamiento tenemos que tener en cuenta aspectos fonológicos relacionados con la presencia de unas pausas y de una entonación que advierten de la existencia de una estructura especial: los incisos. El nivel fonológico o “Forma Fonética” es el que se encarga de asignar rasgos fonológicos a una secuencia como esta; tales rasgos luego se convertirán, al ser enviados al cerebro, en instrucciones par la actuación de los órganos articulatorios.

Por último, toda oración debe ser interpretada. Con este fin, existe un componente especializado, el semántico-interpretativo, también llamado “Forma Lógica”, encargado de dar cuenta del significado composicional de las oraciones, esto es, del significado de las unidades en sus combinaciones sintácticas. Este nivel también tiene en cuenta la presencia de ciertas palabras, como, por ejemplo, en la oración compuesta, los determinantes todos y un, categorías que contribuyen a establecer los diferentes significados que puede tener una oración.

La interacción de los componentes que hemos visto: el léxico, la estructura sintáctica, el componente fonológico, el morfológico y el semántico conforman nuestro conocimiento o competencia lingüística. [...] La teoría gramatical ha evolucionado desde los primeros momentos de la Gramática Generativa con el objetivo de alcanzar la mayor adecuación explicativa posible. El enfoque minimalista actual propone un modelo de la competencia lingüística en el que los diferentes niveles de análisis gramatical se organizan del siguiente modo (Chomsky 1995):

 

Lexicón

Sistema computacional

Forma Morfológica

 

Forma fonética

(Sistema Articulatorio-perceptual)

Forma Lógica

(Sistema Conceptual-intencional)

 

Partimos del léxicón o diccionario interior que contiene todas las categorías léxicas y funcionales, así como los afijos derivativos, tanto unas como otros con sus rasgos de selección. Del lexicón se extraen las piezas con las que se construyen los sintagmas y las oraciones en el sistema computacional, identificado con el nivel sintáctico de creación de estructuras. Aquí se construyen las secuencias mediante la fusión o unión de dos piezas simples. Esta fusión está constreñida desde el comienzo por las exigencias léxicas, así como por los requisitos de las categorías funcionales. [...]

Del sistema computacional parten dos ramas, una se dirige hacia el nivel fonológico y la otra hacia el interpretativo. El componente o “Forma Morfológica” se sitúa en el camino entre la sintaxis y el nivel de la Forma Fonética. Aquí tienen lugar procesos de reajuste de rasgos formales que obedecen a razones exclusivamente morfológicas y que permiten dar cuenta del orden final que adoptan, por ejemplo, las secuencias de clíticos del español: se me cayó, se lo entregó. Estos reajustes deben ser previos a la materialización de la secuencia en la Forma Fonética, puesto que tienen su reflejo en la estructura material de la oración. Por último, el componente de la Forma Lógica, haciendo uso de un vocabulario formal específico, recoge la interpretación de una oración, teniendo en cuenta no sólo la información sintáctica contenida en la estructura, sino también los procesos que se pueden producir en el propio nivel interpretativo.»

[Rodríguez Ramalle, Teresa María: Manual de sintaxis del español. Madrid: Editorial Castalia, 2005, § 1.2]