Sprachsalat

von Stefan

Derzeit bin ich auf der 4. Jahrestagung der Gesellschaft für Germanistische Sprachgeschichte in Siegen, die unter dem Motto steht „Sprachwandel und seine Reflexe im Neuhochdeutschen“ – ein Thema, das nicht nur für LinguistInnen interessant ist, wie ich aus eigener Erfahrung weiß: Immer wieder werde ich bei sprachlichen Zweifelsfällen angesprochen, welche von (meistens) zwei Formen denn nun die „richtige“ oder die „bessere“ sei und gelegentlich auch gefragt, ob ein Wort, das der Gesprächspartner oder die Gesprächspartnerin benutzt, denn überhaupt existiere. Das allgemeine Interesse an diesen Themen ist Anlass genug, ein wenig über einige der insgesamt sechs Plenarvorträge zu schreiben, die gestern und vorgestern in Siegen gehalten wurden und die allesamt erhellende Einblicke in ein Thema gaben, mit dem wir alle bewusst oder unbewusst in Berührung kommen und das wie kaum ein anderes die Dynamik von Sprache vor Augen führt.

Zunächst jedoch ist die Begrüßungsansprache von Petra M. Vogel erwähnenswert, die einen Artikel der „Westfalen-Rundschau“ über die Tagung zitierte, der mit den Worten begann: „Man nehme 100 Germanisten, eine große Tagungsschüssel (Siegerlandhalle), ein würziges Programm und fertig ist der Sprachsalat.“

Guido Westerwelle mit Lebensgefährtem

Inwiefern Zweifelsfälle als Indikatoren für Sprachwandel begriffen werden können, illustrierte Damaris Nübling im ersten Plenarvortrag. Mit Klein (2003) definierte sie den sprachlichen Zweifelsfall als

„eine sprachliche Einheit (Wort/Wortform/Satz), bei der kompetente Sprecher (a.) im Blick auf (mindestens) zwei Varianten (a, b…) in Zweifel geraten (b.) können, welche der beiden Formen (standardsprachlich) (c.) korrekt ist (vgl. Sprachschwankung, Doppelform, Dublette). Die beiden Varianten eines Zweifelsfalls sind formseitig oft teilidentisch (d.) (z.B. dubios/dubiös, lösbar/löslich, des Automat/des Automaten, Rad fahren/rad fahren/radfahren, Staub gesaugt/staubgesaugt/gestaubsaugt).“

Als wesentliche Gründe für Zweifelsfälle führte sie unter anderem die Schriftsprachlichkeit (gerade Schreibprozesse, die eine „sichtbare“ Entscheidung erfordern, fördern Sprachreflexion), Varietätenvielfalt und das Vorhandensein eines metasprachlichen Wissensreservoirs an. Bei den  meisten Zweifelsfällen lasse sich eine Form als die ältere ausmachen, und manche Zweifelsfälle indizierten sogar Etappen typologischen Wandels. So zeigte sie am Beispiel der starken Genitivendung (des Kindes vs. des Kinds) die Erklärungskraft des von Szczepaniak (2007) untersuchten Wandels des Deutschen von einer Silben- zu einer Wortsprache, d.h. von einer Sprache, die optimale Silbenstrukturen anstrebt (idealerweise Konsonant-Vokal-Konsonant-Vokal, z.B. baba) zu einer Sprache, die das Wort exponiert (und damit dem Rezipienten eine Dekodierungshilfe an die Hand gibt). Da seit dem Mhd. der einfüßige Trochäus mit zweiter Reduktionssilbe (áb, z.B. Mút-ter, Vá-ter) gewissermaße das „ideale“ phonologische Wort des Deutschen darstellt, wird das silbische –es eingesetzt, um eben solche Wörter zu erzeugen: Kín-des bildet einen Trochäus, Kinds dagegen ist einsilbig. Die Endungsvarianten tragen also dazu bei, das phonologische Wort zu optimieren.

Umgekehrt interpretierte sie Fugenelemente, namentlich die s-Fuge (z.B. Rind-s-gulasch, Schwein-s-haxe) als Indikatoren schlechter phonologischer Wörter: Statt das phonologische Wort zu „reparieren“ (also trochäisch zu machen), dienen sie ihrer Interpretation zufolge als Dekodierungshilfe.

Einen weiteren Zweifelsfall stellt die Schwankung Parallel- vs. Wechselflexion dar: unter großem persönlichem Einsatz oder unter großem persönlichen Einsatz? Hier stellte sie zwei Erklärungsansätze vor: Der ältere, die „Einschließungsregel“, geht bereits auf  Karl Andresen und Gustav Wustmann zurück; demzufolge wird die Parallelflexion verwendet, um Koordination anzuzeigen – d.h. wenn der Einsatz sowohl groß als auch persönlich ist – und die Wechselflexion, um Subordination anzuzeigen – d.h. es handelt sich um einen persönlichen Einsatz, der groß ist. Claudine Moulin vermutet indes eine syntaktische Funktion; ihr zufolge erfährt das erste Klammerelement durch Wechselflexion eine Stärkung. Hierzu gilt es grob das topologische Satzmodell zu skizzieren, wonach sich Sätze in Linke Klammer, Mittelfeld und Rechte Klammer unterteilen lassen:

der (LK) ungarische (MF) Wein (RK)

Der Artikel, der hier die linke Klammer bildet, zeigt schon einige Kategorien an (z.B. Genus: männlich; Kasus: Nominativ), die später wieder aufgegriffen werden; das Mittelfeld zieht sich flexionsmorphologisch zurück, um nicht als Klammerelement „missverstanden“ zu werden. Gibt es aber keine linke Klammer, muss das Adjektiv einspringen und den Dativ markieren, zumal die Präposition diese Aufgabe nicht übernehmen kann:

– (LK) mit ungarischem (MF) Wein (RK)

Die Wechselflexion hält also den „Rückzug“ der Flexionsmorphologie aus dem Mittelfeld ein Stückweit aufrecht, während jedoch die Parallelflexion insbesondere durch sprachnormierende Einflüsse eine deutliche Stärkung erfahren hat. Interessant auch ihre Randbemerkungen zur Dativflexion: Tatsächlich findet sich selbst in Zeitungssprache häufig flektiertes „dessem“ oder „derem“ (sic!), ja es gibt sogar Belege für „Guido Westerwelle mit Lebensgefährtem“ – schöne Beispiele dafür, wie unser (meta)sprachliches Wissen uns bisweilen auch zur Überstrapazierung von Regeln verleitet.

Für einige Lacher sorgten auch ihre Beispiele bezüglich eines weiteren Zweifelsfalls: „Wir sagen die Memoiren des Kohl, während *die Memoiren des Kohls eher merkwürdig klingen würde.“ Kein Zweifelsfall also beim Altbundeskanzler, wohl aber etwa bei des Iran vs. des Irans; hier identifizierte sie im wesentlichen zwei Steuerungsmechanismen, nämlich zum einen die Dichotomie fremd vs. nativ (je fremder, desto eher Nullendung), zum anderen die Belebtheit (je belebter, desto eher die Nullendung).

„Besserwisser schreiben für Besserwisser“

Mit Wolf Peter Klein hielt ein ausgewiesener Experte auf dem Gebiet der sprachlichen Zweifelsfälle den zweiten Plenarvortrag. Unter dem Titel „Sprachwandel und seine Reflexe im Neuhochdeutschen: Normprobleme“ befasste er sich zunächst mit dem Begriff der Sprachnorm, wofür er folgende (typisch Kleinsche) Definition fand:

„Eine Sprachnorm ist eine ausdrückliche Direktive einer Person N (auch Institution) (= Normierer) gegenüber einem Adressaten A (auch: Adressatenkreis), nicht die Sprachvariante X, sondern die Sprachvariante Y zu nutzen. Dabei kann sich die Direktive auf eine spezielle Kommunikationssituation oder aber auf alle Kommunikationssituationen beziehen.“

Auch unterschied er zwischen Normierung einerseits und Kodifizierung als  explizite schriftliche Formulierung von Sprachnormen, die für die gesamte Sprachgemeinschaft gelten sollen und als solche wahrgenommen werden, andererseits. Folgerichtig fasste er unter dem Begriff „Sprachkodex“ alle metasprachlichen Schriften zusammen, die für eine Sprachgemeinschaft als Normautoritäten zur Verfügung stehen und von ihr auch als solche wahrgenommen werden. HIer unterschied er zudem zwischen dem „Kernkodex“ der Normschriften, die primär für institutionelle Gebrauchskontexte (z.B. Schule, Behörden) verfügt werden und staatlich legitimiert sein können, und dem „Parakodex“, der alle weiteren Schriften umfasst, etwa die durchaus wirkungsmächtigen Kolumnen eines Bastian Sick oder die „Sprachdummheiten“ seines Vorgängers im Geiste Gustav Wustmann.
Anschließend wandte er sich der Frage zu, warum denn überhaupt normiert werde; hier zählte er verschiedene Antworten auf, die immer wieder genannt würden, die er aber zu großen Teilen in Fragen stellte: So werde immer wieder ein Streben nach „Richtigkeit“ erwähnt, ja sogar die Sicherung der Verständigung werde der Norm zugeschrieben, obwohl Verständigung bekanntlich auch ohne kodifizierte Norm gut funktionierte; von einer „Vereinheitlichung“ der Sprache sei die Rede (deren Nutzen man wiederum hinterfragen könne) sowie insbesondere auch das Orientierungsbedürfnis der Sprecherinnen und Sprecher. Als sozialsymbolische und sozialpsychologische Hintergründe der Normierungsambitionen nannte er unter anderem a) die Realisierung einer einheitlichen Nationalsprache auf schriftlicher Basis, b) die Gruppensolidarisierung innerhalb einer Sprachgemeinschaft (z.B. Herausbildung einer Sprache des Bildungsbürgertums im 19. Jh.), c) die Bedürfnisse des schulischen Sprachunterrichts sowie d) den Freudschen „Narzissmus der kleinen Unterschiede“ (O-Ton: „Ich weiß nicht, wie das mit dem Thema zusammenhängt, aber ich glaube, irgendwie hängt das auch mit dem Thema zusammen.“)
Nun stelle sich aber die Frage: Wer normiert eigentlich? Seine Antwort: Fast alle Mitglieder einer Sprachgemeinschaft, z.B. Eltern beim Spracherwerb, Lehrer etc., insbesondere auch sprachsensible Menschen mit sprachsensiblen Berufen (oftmals, in Kleins Terminus, „Besserwisser“). Wer sind die Adressaten der Normierung? „Zunächst einmal die Normierer selbst: Der eine Besserwisser schreibt für den anderen Besserwisser.“ Darüber hinaus natürlich besonders z.B. Schülerinnen und Schüler.
Aus all diesen theoretischen Betrachtungen ergeben sich nun spannende Fragen wie: Wie entstehen und entwickeln sich Kodifizierungen in neuzeitlichen Institutionen (z.B. Vergleich Deutschland – Österreich – Schweiz)? Welche Systemebenen sind wie von Normierung und Kodifizierung betroffen? (Hier fand ich es als Morphologe sehr erfreulich, dass er parallel zu Orthographie und Orthoepie auch „Ortho-Grammatik“ und „Ortho-Wortbildung“ berücksichtigte; als Beispiel aus der Domäne der Wortbildung führte er das Zweitglied bzw. Suffixoid –mäßig an, das lange als „schlechte“ Wortbildung verschrien gewesen sei.) Etwas verständnislos zeigte er sich indes über den vielerorts vorherrschenden „Sprachdezisionismus“: Für viele könne und dürfe es einfach nicht sein, dass zwei Formen gleichermaßen „richtig“ seien.
Ein wesentliches Problem der Normierungsforschung, die mit der „Würzburger Datenbank der sprachlichen Zweifelsfälle“ wesentlich vorangetrieben werden soll, stellt nach Klein freilich die Tatsache dar, dass für die Gesamtentwicklung des Deutschen keine Vergleichsgruppe ohne Existenz von (stigmatisierenden) Normierungen verfügbar ist. Für einzelne kommunikative Umgebungen und Situationen (z.B. Schule, redaktionelle Arbeit) seien Normfragen jedoch durchaus potentiell analysierbar.

Sprache als komplexes, aber irgendwie nicht so adaptives System
Völlig anders gelagert als Damaris Nüblings großenteils empirisch gestützter Überblick und  Wolf Peter Kleins Vorüberlegungen zur Norm(ierungs)forschung war Michail Kotins stark sprachphilosophisch angehauchter Vortrag „Zur Erklärungsadäquatheit im Sprachwandel“. Ich bin mir sicher, dass ich dem Vortrag mit meiner stark komprimierten und lückenhaften Zusammenfassung kaum gerecht werde, zu einigen Punkten will ich aber dennoch Stellung nehmen. Der Begriff der Erklärungsadäquatheit stammt Kotin zufolge aus der Generativen Grammatik und sei von Chomsky als Gegenstück zu Beschreibungsadäquatheit angemahnt worden. So wie, um eine Analogie Arnim von Stechows aufzugreifen, die Untersuchung des Wassers erst mit der Formel H2O wissenschaftlich werde, so gelte es auch in der Linguistik, nicht nur Oberflächenstrukturen zu beobachten und zu beschreiben. Was könne nun aber im Blick auf Sprache und Sprachwandel als erklärungsadäquat gelten? In der Geschichte der Sprachwissenschaft sei Sprache mit ganz unterschiedlichen Dingen verglichen worden: natürlichen Organismen, sozialen Institutionen, psychischen Phänomenen, Phänomenen der dritten Art, spezifisch menschlichen autonomen Existenzformen. Hier sei eine Entscheidung notwendig.
Und das ist auch der erste Punkt, in dem ich mit Kotin – immer vorausgesetzt, ich habe seine Argumentation richtig verstanden – nicht übereinstimme. Metaphern und Analogien, wie sie gerade für Sprache zuhauf gebraucht werden, sind heuristische Hilfsmittel, die uns die Erschließung der Welt erleichtern. Warum sollten wir uns entscheiden, ob wir die Liebe mit einer Rose oder mit einer Feuersbrunst vergleichen, wenn doch beide Analogien unterschiedliche Aspekte desselben Phänomens einigermaßen griffig und anschaulich einfangen? – Nun könnte man einwenden, dass kein (z.B. psychologischer oder neurobiologischer) Artikel, der die Liebe mit einer Rose oder einer Feuersbrunst vergleicht, ein peer-review heil überstehen würde. Gleichwohl arbeitet die Wissenschaft immer wieder mit (wenn auch weniger kitschigen) Metaphern und Analogien. Warum sollte man sich im Blick auf Sprache für einen einzigen Vergleich entscheiden?
Überdies sind die meisten der von Kotin genannten Phänomene, mit denen Sprache verglichen worden ist, gar nicht so unterschiedlich, wie er behauptet. Vielmehr können viele von ihnen – manche mit mehr, andere mit weniger Abstrichen – mit einem vor allem von Beckner et al. (2009) für die Sprachwissenschaft fruchtbar gemachten Begriff als komplexe adaptive Systeme betrachtet werden; und selbst wo dieser Vergleich nicht trägt, so lässt sich doch wenigstens eine gewisse inhärente Dynamik als tertium comparationis und als kleinster gemeinsamer Nenner ausmachen.
Doch zurück zu Kotins Argumentation. Dass Sprachen semiotische Systeme darstellten, sei seit der Antike bekannt. Damit jedoch Sprachwissenschaft als autonome Disziplin entstehen konnte, sei eine Transsemiotisierung nötig gewesen, d.h. die Semiotik habe zurückgestellt bzw. transzendiert werden müssen. Eben dies sei die Leistung Humboldts gewesen; mit diesem Ansatz sei etwa das Phänomen der Sprachverwandtschaft festgestellt worden. Ende des 19. und Anfang des 20. Jh. habe sich die Sprachwissenschaft dann als Zeichenlehre etabliert, Mitte des 20. Jahrhunderts, mit Chomsky und dem Primat der Syntax, als Satzlehre. Mitte/Ende des 20. Jh. habe sich schließlich mit dem Aufkommen makrolinguistisch-textsemiotischer Ansätze die Sprachwissenschaft als Textlehre etabliert.
Da ich, wie viele wissen, eine Affinität zur Kognitiven Linguistik hege, wird es niemanden überraschen, dass ich diese in seiner Aufzählung vermisst habe, zumal sie sich unter der Überschrift „Etablierung der Linguistik als (bzw. Rückbesinnung der Linguistik auf) Bedeutungslehre“ – gemäß dem etwa von Geeraerts (1997) postulierten Primat der Semantik – ganz wunderbar in sein Schema eingefügt hätte. Eine stärker die kognitiven Grundlagen von Sprache berücksichtigende Perspektive hätte vielleicht auch eine etwas andere, möglicherweise überzeugendere Antwort auf die Frage ermöglicht, was denn im Blick auf Sprachwandel als erklärungsadäquat zu gelten habe. So aber blieb seine Antwort recht theoretisch, und die Spezifik der Sprache als Forschungsobjekt, deren Berücksichtigung er anmahnte, ist im Grunde schon seit der Antike bekannt. Beispielsweise wies er darauf hin, dass sich, vereinfacht gesagt, über Sprache nur mit Sprache sprechen lässt und dass, in seiner Terminologie, bei der Erklärung des Sprachwandels das Bewusstsein sich gleichsam selbst erkläre, weil sprachliche Inhalte „konventionalisierte Ergebnisse individueller Bewusstseinsintrospektion“ seien.
Auch wenn es sicherlich nicht schaden kann, sich gelegentlich jene „Spezifik(a) der Sprache“, an die Kotin erinnert, ins Gedächtnis zu rufen, scheint mir das Fazit, dass Sprachwandeltheorien erst dann Anspruch auf Erklärungsadäquatheit erheben könnten, wenn das Wesen der Sprache als designiertes Forschungsobjekt richtig erfasst werde, doch etwas mager. Auch mit dem Schlusssatz seines Abstracts habe ich so meine Probleme: „Die Erklärungsadäquatheit für den Sprachwandel ergibt sich lediglich aus der ontologisch basierten Sprachdefinition, in der Sprachsubstanz, Sprachgenesis und Sprachfunktion als historische Konstanten behandelt werden.“ Alle drei Komposita mit „Sprach-„, die er verwendet, lassen sich aus meiner Sicht nur unter größten Schwierigkeiten mit dem Begriff der Konstante in Verbindung verbringen. Wenn die Beschäftigung mit Sprachwandel uns eines in ganz besonderem Maße lehrt, dann doch dies: Sprache ist inhärent dynamisch, und selbst Sprachfunktion kann nicht zwangsläufig als Konstante begriffen werden (z.B. ist gerade die biologische Funktion von Sprache in ihren evolutionären Anfängen unklar bzw. umstritten; vgl. Tallerman/Gibson 2012: 11, 23f.).
Aus meiner Sicht gilt es das Problem der Erklärungsadäquatheit aus einer völlig anderen Perspektive anzugehen (zu weiteren Denkanstößen zu diesem Thema vgl. auch Cherubim 2012, wenngleich ich mit ihm nicht in allen Punkten übereinstimme). Wenngleich man die Spezifik der Sprache durchaus im Blick behalten sollte, gilt es doch zugleich nicht zu vergessen, dass Sprache untrennbar mit anderen kognitiven wie auch kulturellen Domänen verbunden ist. Die von Beckner et al. (2009: 18) gewählte Formulierung „Everything is connected“ mag wie ein esoterisches Mantra klingen und mag einen gestandenen Linguisten wie Graeme Trousdale (p.c.) dazu bewegen, seine eigene Disziplin scherzhaft für unmöglich zu erklären; letzten Endes aber enthält sie mehr als nur einen Kern Wahrheit. Erklärungsadäquatheit im Sprachwandel kann daher meines Erachtens nur heißen, möglichst viele (potentielle) Steuerungsfaktoren – kognitiv, kulturell/pragmatisch, sprach(system)intern – in Betracht zu ziehen und möglichst auch anhand umfangreicher empirischer Daten zu überprüfen.

Festplatten beschlagnahmen
Um empirische Daten ging es auch im letzten Plenarvortrag, auf den ich an dieser Stelle ganz kurz eingehen möchte. Thomas Gloning warb eindringlich für eine stärkere Vernetzung im Bereich der Korpuslinguistik und stellte zwei interessante Projekte vor: Zum einen das Deutsche Textarchiv, in dem möglichst viele historische Texte in digitalisierter Form gesammelt werden sollen, zum anderen ein geplantes Open-Access-Journal, in dem Transliterationen historischer Texte als sozusagen „CV-fähige“ Publikationen erscheinen sollen, um dem derzeit in der akademischen Welt üblichen Reputations- oder „Belohnungs“-System Rechnung zu tragen. Wenn das Projekt Erfolg hat, ist eine deutliche Verbesserung der Korpuslandschaft zu erwarten – auch wenn es theoretisch, wie er augenzwinkernd anmerkte, auch einfacher ginge: „Wenn ich von allen Personen im Raum die Festplatten beschlagnahmen und alle historischen Texte herunterkopieren würde, wäre die Korpuslage auf einen Schlag sehr viel besser.“
An motivierten Forscherinnen und Forschern fehlt es jedenfalls nicht, wie die Tagung eindrucksvoll gezeigt hat – die meisten Vortragenden waren mit großer Begeisterung bei der Sache und konnten diese Begeisterung auch den Zuhörenden vermitteln. So neigt sich nun allmählich eine durchweg spannende Tagung ihrem Ende zu, für die der Begriff des „Sprachsalats“ vielleicht gar nicht so unglücklich gewählt ist, denn tatsächlich fügten sich die höchst unterschiedlichen Richtungen und Ansätze zu einem interessanten und weitgehend harmonischen Ganzen zusammen. Sprachwandel ist überall, und er ist überall seine Spuren am Hinterlassen…

Literatur

Beckner, Clay et al. (2009): Language is a Complex Adaptive System. Position Paper. In: Language Learning 59 (Suppl. 1), 1-26.

Cherubim, Dieter (2012): Verstehen wir den Sprachwandel richtig? In: Maitz, Péter: Historische Sprachwissenschaft. Erkenntnisinteressen, Grundlagenprobleme, Desiderate. Berlin, New York: de Gruyter. (Studia Linguistica Germanica, 110), 29-50.

Geeraerts, Dirk (1997): Diachronic Prototype Semantics. A Contribution to Historical Lexicology. Oxford: Clarendon. (Oxford Studies in Lexicology and Lexicography.)

Klein, Wolf Peter (2003): Sprachliche Zweifelsfälle als linguistischer Gegenstand. In: Linguistik online 16.

Szczepaniak, Renata (2007): Der phonologisch-typologische Wandel des Deutschen von einer Silben zu einer Wortsprache. Berlin, New York: de Gruyter (Studia Linguistica Germanica, 85).

Szczepaniak, Renata (2010): Während des Flug(e)s/des Ausflug(e)s: German Short and Long Genitive Endings between Norm and Variation. In: Lenz, A., Plewnia, A. (eds.) Grammar between Norm and Variation. Frankfurt a.M.: Peter Lang (VarioLingua, 40). S. 103–126.

Tallerman, Maggie; Gibson, Kathleen R. (2012): Introduction: The Evolution of Language. In: Tallerman, M.; Gibson, K.R. (eds.): The Oxford Handbook of Language Evolution. Oxford: Oxford University Press, 1-35.

(Letzte Bearbeitung: 29.09.2012, 15:30)

Advertisements