Eigentlich würde ich mich eher in die Ecke der theoretischen Linguistik stecken; Psycholinguistik liegt mir nicht so und Typologie ist mir zu abstrakt. (Und alles andere, was noch so zur Linguistik gezählt wird, wird bei uns nur so marginal – wenn überhaupt – unterrichtet, dass ich dazu nichts sagen kann und will…). In der Theoretischen gibt es klassischerweise vier, wenn man philosophisch veranlagt ist, fünf Teilbereiche, nämlich Phonologie, Morphologie, Syntax und Semantik (und Pragmatik). Im Folgenden soll es mir heute um die Syntax gehen.

Gleichwohl Syntaxkolloquium, gelegentliche Workshops und Koferenzen in so mancher Zeit die einzigen Lichtblicke des tristen Studienalltags darstellen, schliefen mir bei so manchen Themen, die dort behandelt wurden, regelmäßig die Füsse ein und ich ersehnte mir nichts dringlicher als das Ende der Veranstaltung herbei. Bei anderen Themen wiederum hätte ich stundenlang den Referenten am Ohr kleben können. Irgendwann gab mir das zu denken, welche Art Syntax (im weitesten Sinne) wohl die ist, die mir mehr liegt, und welche nicht.

Zunächstmal gibt es die Syntax, die die meisten ihrer Daten aus Introspektion, Elizitation oder ganz allgemein aus minimale Grammatikalitätsunterschiede implizierenden Befragungen bezieht. Mein Lieblingsbeispiel für Daten dieser Art ist das folgende:

(1) a. Was glaubst du dass sie getan hat?
    b. Was glaubst du was sie getan hat?
    c. Was glaubst du hat sie getan?

Ein weiteres Beispiel für diese Art Daten ist das hier:

(2) a. Mariai erinnert sichi/*j daran, dass siei/j sichi/j
       gestern gestossen hat.
    b. Mariai erinnert sichi/*j daran, sichi/*j 
       gestern gestoßen zu haben.

Als ich anfing zu studieren, hätte ich (1a) für völlig ungrammatisch gehalten, inzwischen bin ich so weit indoktriniert, dass ich mich bei diesen Satz noch zu einem Fragezeichen hinreißen könnte und mich gelegentlich dabei ertappe, Sätze dieser Art selbst zu äußern. (2) zeigt so genannte Bindungsdaten, also in diesem Falle worauf sich die Pronomen im Satz beziehen können. i wäre Maria, j irgendwer, der aus dem verbalen oder non-verbalen Kontext bekannt ist, außer Maria. Im Nebensatz von (2a) wäre es möglch, dass sich diese Pronomen auf jemanden anders als Maria beziehen, beim sich im Nebensatz von (2b) ist diese Lesart nicht möglich. Sollte sie zumindest nicht sein.

Dann kann man anhand solcher Daten allerhand Vermutungen über die Architektur der Grammatik äußern, was auch rigoros gemacht wird, idealerweise indem man sich ähnliche Daten in anderen Sprachen sucht, welche die anhand der Elizitation gefundenen Vermutungen bestätigen. Und meisstens sind diese Sprache welche des SAE (Standard Average European, also Englisch, Französisch, Deutsch, Italienisch, Spanisch, eine der skandinavischen Sprachen, Russisch) sowie irgendein Dialekt einer unbekannten außereuropäischen Sprache, deren Muster zufällig oder gezielt auf das Gesuchte passt. Ich fasse diese Art Syntax als „schleche Syntax“ zusammen, rein subjektiv.

Dann gibt es noch die Art Syntax, die mit „harten Daten“ arbeitet. Unter harten Daten verstehe ich solche, die man in Referenzgrammatiken und Sprachbeschreibungen nachlesen kann. In meiner kleinen naiven Welt entstehen solche Daten so: X geht ins Feld, hört sich die Sprecher der Sprache Y an, schreibt auf, was er hört und versucht die Bedeutung des Gehörten zu ermitteln. Syntaktiker Z nimmt diese Daten der Sprache Y und versucht sie mit Hilfe seines (a priori erstellten) Modells der Grammatik auf bestimmte Aspekte hin zu analysieren. Feedback gibt es bei dieser Art Syntax nur hinterher, z.B. in dem Z eine Generalisierung aufstellt und W es ihm mitteilt, wenn diese Generalisierung nicht stimmt (z.B. W=Z, also Z merkt es später selbst; W könnte ein Sprecher von Y sein; W könnte X sein, der vergessen hat, einen Teil der relevanten Daten zu veröffentlichen; usw.). Diese Art Syntaxforschung bezeichne ich rein subjektiv als „gute Syntax“.

Ein Beispiel für sowas wären Analysen, welche die morpho-syntaktische Ausrichtung verbaler Argumente zum Inhalt haben. Durch unzählige Sprachbeschreibungen hat man gemerkt, dass sich Sprachen hinsichtlich der Kasusmarkierungen syntaktisch unterschiedlich verhalten. Eine Klasse von Sprachen verwendet für das Subjekt intransitiver Verben denselben Kasus wie für das Subjekt des transitiven Verbes und einen anderen Kasus für dessen Objekt (akkusativische Ausrichtung, wie im Deutschen). Eine andere Klasse von Sprachen verwendet den intransitiven Subjektkasus auch für das Objekt des transitiven Verbes und einen anderen Kasus für dessen Subjekt (ergativische Ausrichtung, wie im Baskischen). „Gute Syntax“ versucht solche Daten in einem einheitlichen Modell zu erklären, also zu erlären, wie sich beide Phänomene mit möglichst wenigen sprachspezifischen Annahmen in ein und dem selben Modell beschreiben lassen.

Was unterscheidet nun „gute“ von „schlechter“ Syntax? Zur Erinnerung: bei schlechter Syntax schaut sich der Wissenschaftler sein Sprachgefühl oder das seiner Informaten an. Er sucht sich also Minimalpaare, die subtil an der Grenze zwischen Grammatikalität und Ungrammatikalität stehen und leitet daraus Generalisierungen ab, die das Grammatische ableiten können und das Ungrammatische verbieten. Das Problem, was ich damit habe ist, dass nicht unbedingt zwei Menschen diese Grammatikalitätsurteile teilen müssen. Wenn ich also eine Generalisierung über eine Struktur, die ich selbst als ungrammatisch empfinde, aufstelle, so hat diese, wegen der generellen Architektur der (generativen) Grammatik, Relevanz für alle Sprachen. Ein Beispiel: Wissenschaftler X empfindet A als grammatisch, das minimal unterschiedliche B aber als ungrammatisch. Also stellt er eine Theorie auf, die A ableiten kann und B gleichzeitig ausschliesst. Nun kommt Sprecher Z daher und findet B grammatisch, obwohl er es nach der Theorie, die X aufgestellt hat gar nicht grammatisch finden dürfte. Also muss X, wenn er Z als Informanten akzeptiert, seine Theorie umstellen und verfeinern. Was dabei herauskommt ist ein endloser Katalog von sprach- und sprecherspezifischen Beschränkungen und Filtern. Akzeptiert X die Daten von Z nicht, muss entweder Z seine Sprachgewohnheiten überdenken oder X arbeitet hochgradig unempirisch. Beides sollte wohl unakzeptabel sein…

Wenn man „Gute Syntax“, wie ich sie verstehe, betreibt, macht man keine Aussagen über Ungrammatikalitäten sondern über Optionen. Das heisst, die Generalisierungen, welche man aufstellt, betreffen nur Strukturen, die es gibt, die also Grammatisch sind, auch wenn meistens nur eine der untersuchten Strukturen in einer Sprache oder bei einem Sprecher auftauchen kann. Die Unschärfe und Sprecherabhängigkeit von Grammatikalitätsurteilen fällt bei „guter Syntax“ weg (weswegen ich bei „guter Syntax“ auch gesagt habe, dass sie mit „harten Daten“ arbeite). Ein weiterer Unterschied betrifft damit die Falsifizierbarkeit. Wenn mir ein Autor für mich grammatische Daten als ungrammatisch verkauft, kann ich nicht einfach so sagen, dass seine Analyse falsch sei, da sie auf falschen Daten beruhe, da ich mich bzgl. der Grammatikalitätsurteile genauso gut irren könnte wie der Autor. Da Grammatikalitätsurteile aber stets subjektiv sind, sollten sie logisch folgend auch nicht falsifizierbar sein, was letztlich zu einer nicht-Falsifizierbarkeit der daraus abgeleiteten Generalisierungen und Theorien führt. Man sollte sich allerdings bewusst sein, dass auch „harte Daten“ irgendwie subjektiv gefärbt sind, da sie von Menschen stammen und nicht rein objektiv erfassbar sind wie etwa physikalische Werte.

Nun will ich an dieser Stelle darauf hinweisen, dass auch die Daten der „schlechten Syntax“ ein Teil der Grammatik sind und als solche von einem soliden Modell der Grammatik müssen abgeleitet werden können. Insofern ist es keinesfalls als wörtlich anzunehmen, wenn ich von „schlechter“ und „guter Syntax“ spreche, letztlich gehört beides irgendwie zusammen und „dazu“. Die wertenden Begriffe beziehen sich vielmehr auf meinen persönlichen Geschmack im Sinne von „muss ich nicht unbedingt machen“ und „so will ichs machen“. Vielleicht sollte man auch der microsyntaktischen Arbeit (also der syntaktischen Arbeit, die sich mit Grammatikalitätsunterschieden auf einzelsprachlicher Ebene beschäftigt) etwas Typologie voranstellen, alle Möglichkeiten einen Sachverhalt auszudrücken sammeln (einschliesslich Optionalitäten) und hinterher versuchen zu erklären, wie die gesamte Bandbreite der Möglichkeiten ableitbar ist, und nicht, wie sich einzelne Möglichkeiten unter expliziten Ausschluss der anderen ableiten lassen.

Disclaimer Ich will an dieser Stelle, auch wenn es eigentlich klar sein sollte, nochmal ausdrücklich darauf hinweisen, dass ich hier meine persönliche Meinung wiedergebe, nur für den Fall, dass das jemand missverstehen will. „Schlechte“ und „Gute Syntax“ sollen nichts über die generelle und objektive Qualität der Syntaxforschung aussagen, sondern etwas darüber, wie ich mich subjektiv jeweils damit verbunden fühle.

Advertisements