bootstrapping wie wird das lexikon erworben 02... · maria muss in die schule gehen b. viktor ist...
TRANSCRIPT
DGB 47 Fremd/ZweitSracherwerb Universität Athen, Wise 2014
Winfried Lechner Handout #2
BOOTSTRAPPING - WIE WIRD DAS LEXIKON ERWORBEN?
Bisher wurde die Entwicklung besprochen, die Neugeborene und Kinder in die Lage versetzt,
zwischen (i) unterschiedlichen Sprachen (ii) Lauten in fremden Sprachen sowie (iiii) Lauten der
eigenen Sprache zu unterscheiden (Handout #2). Die Erklärung, die für diese Beobachtungen
gegeben wurde ist, dass Kinder mit der Fähigkeit zur kategorialen Perzeption geboren werden
und dass kategoriale Perzeption die Grundlage für die Segmentierung des Sprachsignals bildet.1
In (1) werden einige der wichtigsten Erkenntnisse aus Handout #2, das den relativen
zeitlichen Ablauf von L1-Erwerb in den ersten 12 Monate umfasst, nochmals kurz aufgelistet.
(Die unterschiedlichen Stadien der Lallphase wurde nicht im Detail besprochen).
(1) Stadien des Spracherwerbs - das erste Jahr
a. Vor Geburt (28-35 Schwangerschaftswoche)i. Föten diskriminieren zwischen Sprechern (. unterscheiden) ii. Föten unterscheiden zwischen Phonemen
b. Bei Geburti. Kinder diskriminieren Muttersprache von Fremdspracheii. Kinder diskriminieren zwischen unterschiedlichen, unbekannten Fremdspracheniii. Kinder erkennen Vokale
c. 1 Monat: Erkennung von Kontrasten zwischen Konsonanten ([b] vs. [p],...)d. 3 Monate: Absenkung des Kehlkopfes (Larynx)e. 5 Monate: Kinder reagieren auf eigenen Namen f. 6 - 8 Monate: Lallphase (babbling)
i. Reduplikativ: alle Äußerungen haben Form CVii. Nicht reduplikativ:
Äußerungen enthalten beginnende SilbenstrukturEntwicklung von Akzent und ProsodieProtowörter
g. 8 - 10 Monate: i. Fähigkeit, Konsonantenkontraste in Fremdsprache wahrzunehmen, nimmt abii. Vokalinventar wird von aufgebaut
h. 10 - 12 Monate: Beginn von Sprachverständnis und der Grammatiki. Kinder können nicht mehr nicht-muttersprachliche Konsonantenkontraste
unterscheiden ii. Konsonanteninventar entwickelt sich
(Liste adaptiert und erweitert aus Guasti 2002: 53)
Der nächste wichtige Schritt im L1-Erwerb ist der Aufbau des mentalen Lexikons, also einer
(anfänglich relative kleinen) Menge von Assoziationen zwischen Form und Bedeutung.
Morphologie sowie die rekursiven Systeme Syntax und Semantik können sich aus naheliegenden
Gründen erst dann entfalten, wenn das Kind die Grundbausteine erlernt hat, auf die diese
Systeme zugreifen. Zeitlich sieht die Entwicklung so wie in (2) dargestellt aus. (Vorsicht bei der
1Ähnliche Ergebnisse wurden auch bei der Verarbeitung nicht-sprachlicher akustischer Signale gefunden.Mit 4.5 Monate erkennen Kinder z.B. schon musikalische Rhythmen und diskriminieren zwischen‘grammatischen' und nicht ‘ungrammatischen' musikalischen Phrasen.
Interpretation der Zahlen! Die Altersangaben und die Angaben zur Größe des Lexikons sind
statistische Werte, große Abweichungen sind daher möglich, ohne dass daraus auf gestörte oder
abnormale Entwicklung geschlossen werden könnte.)
(2) Entwicklung des Lexikons
Alter Größe des Lexikons
a. 10-12 Monate erste Wörterb. 18 Monate 50c. 20-24 Monate 200 (täglich werden 5 bis 9 neue Wörter gelernt)d. 36 Monate 2,000 e. 10 Jahre 4.000 aktiv, 12.000 passivf. 14-16 Jahre 10.000 Wörter aktiv, 60.000 Wörter passivg. Erwachsene 20,000 - 50,000 aktiv
Dabei verläuft die Entwicklung des Lexikons in zwei Stufen. Zu Beginn erwirbt das Kind
ein phonologisches Proto-Lexikon, in dem nur phonologische Formen gespeichert sind. Dieses
Lexikon enthält also noch keine Bedeutungen, und somit auch keine vollständigen sprachlichen
Zeichen (Verbindungen zwischen Form und Bedeutung). Erst in einem zweiten Schritt werden
diese Formen mit den dazugehörigen Bedeutungen verbunden. Diese beiden Schritten
entsprechen den beiden Aufgaben, die ein Kind beim Aufbau des Lexikons bewältigen muss:
(3) a. Segmentierung des akustischen Signals in einzelne Wörterb. Assoziation von Form und Bedeutung
Wie diese beiden Schritte im Detail ablaufen bildet das Thema des vorliegenden Teils des
Skriptums. (Die Ausführungen folgen Guasti 2002, Kapitel 3.)
1. BOOTSTRAPPING
Wenn Kinder erstmals mit Sprache in Kontakt kommen, hören sie nur sehr selten isolierte Wörter
(diese Beobachtung ist experimentell unterstützt). Außerdem besitzen die Gegenstände für
Kinder noch keine Namen, da sie noch nicht über ein Lexikon verfügen. Daraus ergibt sich
folgende, nahezu paradoxe Situation. Kinder müssen auf der einen Seite ein Lexikon erwerben.
Wir wissen, dass sie dies tun, da jeder erwachsene Sprecher über ein Lexikon verfügt. Doch auf
der anderen Seite können sie dies eigentlich nicht ohne externe Hilfe tun, da sie weder wissen,
wo die Wörter beginnen/enden, noch welche Bedeutungen dies Wörter haben könnten. Dieses
Problem im L1-Erwerb nennt man das Problem des Bootstrapping.2
Bootstrapping durch Syntax? Eine Möglichkeit, Wortgrenzen zu erkennen besteht nun darin, sich
der syntaktischen Gesetze einer Sprache zu bedienen. Im Deutschen ist z.B. die Tatsache, dass
eine Lautkette vor dem finiten Verb im Hauptsatz auftaucht ein Hinweis darauf, dass es sich um
ein einzelnes Wort handeln könnte (‘könnte’, da die erste Position im Satz natürlich auch von
Phrasen eingenommen werden kann):
(4) a. Maria muss in die Schule gehenb. Viktor ist aus dem Bett gefallen
Doch hilft dies Kindern wenig, einfach aus dem Grund, dass das syntaktische System erst dann
2Der Begriff geht auf die engl. Version des Märchens von Münchhausen zurück, in dem sich dieser anden Schlaufen der eigenen Stiefeln (bootstrap) aus einem Sumpf zieht.
3 DGB 41 Spracherwerb, WiSe 2014
entstehen kann, wenn es zumindest ein rudimentäres Lexikon gibt, und gerade der Aufbau des
Lexikons soll ja erklärt werden. Syntaktische Information kann also nicht herangezogen werden,
um Bootstrapping zu erklären.
Phonologisches Bootstrapping: Bevor sich das Lexikon entwickelt, sind Kinder in der Lage,
zwischen unterschiedlichen Sprachen und Lauten zu diskriminieren (Handout #2). Diese
Fähigkeit wurde auf die Fähigkeit von Kindern zurückgeführt, bereits sehr früh prosodische
Einheiten (28-35 Woche der Schwangerschaft), sowie phonetische und phonemische
Unterschiede in der Muttersprache (ab 8-10 Monat) erkennen zu können. Könnte ein ähnliches
System auch das Bootstrappingproblem lösen helfen? Eine Anzahl von experimentellen
Ergebnissen weist in der Tat darauf hin. Diese Hypothese wird in (5) genauer definiert.
(5) Phonologisches Bootstrapping des Lexikons Kinder beziehen die wichtigsten Hinweise auf die Segmentierung von Wörtern ausphonologischen Eigenschaften des Signals.
Genauer scheint es so zu sein, dass Bootstrapping mit Hilfe von vier unterschiedlichen Arten von
phonetischen und phonologischen Hinweisen bewerkstelligt wird.
(6) Bootstrapping durch vier Faktoren
Bei phonologischem Bootstrapping spielen zumindest die folgenden Faktoren eine Rolle: a. Distributionelle Regularitätenb. Phonotaktische Beschränkungenc. Typische Wortformend. Prosodie
Um die Hypothese in (5) sowie die Behauptungen (6) zu überprüfen, ist es notwendig zwei
Dinge zu zeigen. Erstens muss demonstriert werden, dass die Information, die durch (6)
bereitgestellt wird, ausreichend ist, um Wörter zu segmentieren. Zweitens muss überzeugende
Evidenz für die Annahme gefunden werden, dass Kinder beim L1-Erwerb tatsächlich auf die in
(6) beschriebenen Strategien zurückgreifen. Die folgende Diskussion ist, bis auf die
Ausführungen zu Yang (2004), weitgehend Guasti (2002) entnommen.
1.1. DISTRIBUTIONELLE REGULARITÄTEN
Eine Strategie, um Wortgrenzen in einem kontinuierlichen Signal zu erkennen, besteht darin,
statistische Regulariäten zu nutzen. Die Grundidee ist einfach. Nehmen wir einen Satz wie (7)a
mit fünf Silbengrenzen und zwei Wortgrenzen. Diese Grenzen sind bei normalem Sprachtempo
und bei normaler Artikulation nicht hörbar. Das Kind hört daher eine kontinuierliche Kette,
ungefähr so wie in (7)b.
(7) a. Satz: Peter spielte Karten b. Akustisches Signal: [peter•pi:ltekartn]c. Lautgrenzen: [p | e | t | e | r | • | p | i: |.... ]d. Silbengrenzen: pe.ter.spiel.te.kar.ten e. Wortgrenzen: peter+spielte+karten
Transitionen: Jede Grenze ist gleichzeitig auch ein Übergang, in diesem Fall ein Überganz
zwischen Lauten, Silben oder zwischen Wörtern. Solche Übergänge nennt man auch
Transitionen. Transitionen besitzen des Weiteren eine wichtige Eigenschaft, die unter anderm
#2: Bootstrapping 4
auch in der automatischen Spracherkennung genutzt wird: nicht alle sind gleich häufig - einige
Transitionen treten öfter auf, sind also wahrscheinlicher, als andere. Die Analyse von
Transitionen macht nun die statistischen Regulariäten in einer Sprache sichtbar.
Generell gilt, dass Transitionen innerhalb eines Wortes strengeren Regeln unterworfen sind,
als Transitionen zwischen Worten. Daraus folgt eine wichtige Generalisierung: wenn zwei
Einheiten häufig aufeinander folgen, ist die Wahrscheinlichkeit, dass diese beiden Einheiten
zusammen ein Wort oder Teil eines Wortes bilden hoch. Wenn dagegen die Transition zwischen
zwei Einheiten weniger häufig ist, so sinkt auch die Wahrscheinlichkeit, dass diese beiden
Einheiten innerhalb eines einzelnen Wortes liegen. So ist z.B. der Übergang von [kar] zu [te] in
Kar.te häufiger, als die Transitionen von [te] zu [kar] zwischen Worten in spiel.te.Kar.ten.
Diese allgemeine Regelmäßigkeit wurde bereits von Harris (1954)3 beobachtet.
Diese statistische Information kann nun von Kindern (oder auch in der automatischen
Spracherkennung) benutzt werden, um Grenzen zu isolieren. Die einzige, zusätzliche
Voraussetzung ist, dass das Kind bereits früher mit einer größeren Anzahl von Daten (PLD) aus
der Zielsprache in Kontakt war, um die statistischen Regelmäßigkeiten der Sprache erkennen zu
können. Im Folgenden wird diese Idee im Detail ausgeführt werden (s.a. Guasti 2002: 62).
1.1.1. Transitionen und Wahrscheinlichkeiten
Wenden wir uns jetzt den Details zu. Wie lassen sich Wahrscheinlichkeiten konkret berechnen?
Es folgen zwei Beispiele, die den Hintergrund für ein wichtiges Experiment bilden, das im
Anschluss daran vorgestellt werden wird. Das erste Beispiele ist äußerst einfach; das zweite
umfasst einen etwas komplexeren Bereich von Daten und ist auch systematischer organisiert.
1.1.1.1. Einfaches Beispiel für Wahrscheinlichkeiten: Silben und Wörter
Wie wird nun die Wahrscheinlichkeit einer Transition berechnet? Am besten veranschaulicht
man den Prozess an einem Beispiel. Die Silbe [ele] kann im Deutschen z.B. nur der Silbe [fant]
(Elephant) und [gant] (elegant) vorangehen. Die Wahrscheinlichkeit, dass die Silbe [fant] der
Silbe [ele] folgt ist mit anderen Worten also 0.5 oder 50%. Dagegen ist die Wahrscheinlichkeit,
dass die Silbe [mag] in (8) einer spezifischen anderen Silbe vorangeht relativ gering; [mag] kann
vor der Silbe [das] stehen, oder vor [ein] oder vor [kain], etc... Die Wahrscheinlichkeit für eine
Transition wie [mag das] ist also kleiner als 0.25:
(8) Hans mag das Buchein Buchjedes Buchkein Buch
....
1.1.1.2. Transitionen zwischen Lauten (silbenintern und silbenextern)
Im nächsten Schritt betrachten wir die Transition von Lauten innerhalb der Silbe und über
Silbengrenzen hinweg. Silben bestehen aus drei Teilen (s. (9)). (10) veranschaulicht den Aufbau
der Silbe anhand der Form streifst, die gleichzeitig ein Beispiel für die größtmögliche, also
3Zelig Harris beeinflusste Chomsky stark, und dessen Entwicklung der “Transformationsgrammatik”, wiesie von 1955 - ca. 1975 genannt wurde. Ab ca. 1975 spricht man von Generativer Grammatik.
5 DGB 41 Spracherwerb, WiSe 2014
maximale Silbe des Deutschen, bietet.
(9) a. Nukleus/Silbenkern =Def der ‘Kern’ der Silbe, üblicherweise ein Vokalb. Onset/Silbenanlaut =Def Laute, die dem Nukleus vorangehenc. Koda /Silbenauslaut =Def Laute, die dem Nukleus folgen
(10) Silbenstruktur der maximalen Silbe im Deutschen (‘streifst’,‘schrumpfst’,..)
σ qp
O R 8 ei! ! ! N C! ! ! 2 8[• t r a w f s t]
Die folgende Diskussion wird zeigen, dass Wahrscheinlichkeiten einen Hinweis auf die Lage
einer Transition innerhalb der Silbe (Koda vs. Onset) geben, und somit auch auf die Position von
Grenzen zwischen Worten.
In der Koda4: Betrachten wir konkret der Verteilung der Konsonanten [t] und [l] in der Deutschen
Koda, also am Ende einer Silbe. Wie das Fragment (11)a zeigt, können die folgenden sechs Laute
einem stimmlosen alveolaren Plosiv ([t]) am Silbenende vorangehen: [n], [l], [r], [s], [f] und [m].
Auf der Basis dieser - aus didaktischen Gründen nicht ganz vollständigen - Liste ist es möglich,
die Wahrscheinlichkeit zu berechnen, dass ein bestimmter dieser Laute dem [t] in der Koda
vorangeht. Die Wahrscheinlichkeit, vor dem [t] z.B. ein [r] zu finden ist 1/7 oder ca. 14%:
(11) Transition innerhalb der Koda von Silben, von [t] nach links
a. [nt] [lt] [rt] [st] [ft] [mt]Hand5 halt hart hast Haft HemdWind mild Wert Mast lauft fremd
b. Wahrscheinlichkeit [α]-[t]: 1/7
(12) gibt Beispiele für Transitionen in die andere Richtung, also von links nach rechts, und zeigt
die Wahrscheinlichkeit, dass ein bestimmter Konsonant in der Koda dem Laut [l] folgt
(wiederum zur Illustration ein Fragment). Hier beträgt die Wahrscheinlichkeit 1/4:
(12) Transition innerhalb der Koda von Silben, von [l] nach rechts
a. [lt] [ls] [l•] [lm]kalt Hals falsch HalmBild Wels Welsch Helm
b. Wahrscheinlichkeit [l] - [α]-[t]: 1/4
4Für weitere Diskussion der Begriffe Silbe, Koda und Onset siehe Abschnitt 3 von:http://eclass.uoa.gr/modules/document/file.php/GS164/LingIntro2009%2005%20Phonologie%20II%20v2.pdf
5/d/ ÿ [t] durch Auslautverhärtung
#2: Bootstrapping 6
Im Onset: Im Onset einer Silbe, also am Silbenbeginn, findet man - mit Ausnahme von [st] in
einigen Dialekten (Hamburg) - keine einzige der Konsonantenverbindungen in (11)a und (12)a.
Kein Wort des Deutschen beginnt mit dem Onset [nt], ebensowenig existieren [lt], [tn], [tf], [tm]
(vgl. τµήµα), [rt], etc... am Wortbeginn. Dies bedeutet, dass die Wahrscheinlichkeit, diese
Kombinationen am Wortanfang zu finden 0.0 beträgt.
Zwischen zwei Silben: Interessanterweise ist die Transition von Lauten zwischen Silben bei
weitem weniger strikten Gesetzen unterworfen als die Transition innerhalb eines Wortes. So
existiert z.B. die Kombination [n]-[t] nicht als Onset, aber über Silbengrenzen und Wortgrenzen
hinweg in Formen wie:
(13) a. ka[n][t]e ‘die Kan.te’b. ei[n][t]auchen ‘ein.tauchen’
c. ei[n][t]ier ‘ein Tier’d. ka[n][t]räumer ‘kann träumen’e. i[n][t]ibet ‘in Tibet’
Die Wahrscheinlichkeit, [n]-[t] an Silbenbeginn zu finden ist also 0.0, die Wahrscheinlichkeit,
die beiden Laute an einer Grenze zwischen Silben oder Wörtern zu finden ist dagegen auf jeden
Fall höher. Auch wenn wir nur die Beispiele in (13) betrachten, liegt der Wert schon bei 0.2.
Dieser Unterschied kann also, wenn Lerner in der Lage ist, Wahrscheinlichkeit zu berechnen, bei
der Auffindung von Grenzen hilfreich sein und genutzt werden.
1.1.2. Verwenden Kinder Wahrscheinlichkeiten? Saffran, Aslin, and Newport (1996)
Bisher haben wir gesehen, wie die Wahrscheinlichkeit von Transitionen zwischen
unterschiedlichen Einheiten ermittelt werden kann. Saffran, Aslin, and Newport (1996)
argumentierten, dass Kinder diese Information tatsächlich verwenden. Unterschiede in der
Transitionswahrscheinlichkeit erlauben es Kindern während des L1-Erwerbs, Wortgrenzen in
einem kontinuierliche Signal zu erkennen. Kinder verwenden also statistische Information, um
sich sprachliches Wissen anzueignen. Man nennt diese Art des Wissenerwerbs auch Statistisches
Lernen. Bei Statistischem Lernen erwirbt ein Organismus oder ein künstliches System
(Computer) Wissen alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten von
bestimmten Regelmäßigkeiten. Saffran et al. vertreten also die Hypothese in (14):
(14) Hypothese: Kinder verwenden Statistisches Lernen um Wortgrenzen zu erkennen.
Unterstützende Evidenz für (14) kommt von Experimenten, die Saffran et al. durchführten.
Variablen und Bedingungen: Wie bereits in Handout #2 erwähnt wird in einem Experiment
immer eine genau kontrollierte Eigenschaft (die unabhängige Variable) variiert, um dann
festzustellen, welchen Einfluss diese systematische Veränderung auf eine andere Eigenschaft,
die abhängige Variable hat. In der Literatur nennt man die unabhängige Variable auch die
Experimentierbedingung oder, einfacher, die Bedingungen. Bei Bedingungen handelt es sich also
um kontrollierte, d.h. genau definierter, Gruppen von Signalen, die man den Testsubjekten im
Laufe des Experiments präsentiert, um den Einfluss dieser Bedingung auf die abhängige Variable
zu messen. (Weitere Details zur Architektur von Experimenten, und zur Frage, warum man
überhaupt Experimente benutzt, finden sich in Handout #4.)
7 DGB 41 Spracherwerb, WiSe 2014
Teil I - Habituierung: Das Experiment von Saffran, Aslin, and Newport (1996) ist wie folgt
aufgebaut (alle Daten und Interpretation aus Guasti 2002: 66/67). In einer ersten Phase hörte eine
Gruppe von Kleinkindern (8m) eine Reihe von dreisilbigen Phantasiewörtern. In dieser Phase
gewöhnten sich die Kinder an diese Art von Signal. Die Wortfolgen, z.B. pabikudaropitibodo
wurden aus zwei Gruppen von Phantasiewörtern gewählt, die in (15)a und (15)b gegeben sind.
Es gibt ‘Bedingung A’ und ‘Bedingung B’, da zwei unterschiedliche Gruppen von Daten getestet
wurden:
(15) Habituierung (8m)a. Bedingung A: pabiku tibudo golatu daropib. Bedingung B: tudaro pigola bikuti budopa
Die wichtigste Eigenschaft der Gruppen in (15) ist, dass die Silbentransitionen zwischen Wörtern
und wortintern unterschiedliche Wahrscheinlichkeiten besitzen. In Bedingung A folgt z.B.
innerhalb eines Wortes auf pa immer bi, auf bi immer ku, auf ti immer bu, etc... Die
Wahrscheinlichkeit, dass das zweite Element dieser Paare dem ersten folgt ist daher 1.0 (100%).
Anders ausgedrückt: wenn man die erste Silbe kennt, weiß man auch, welche Form die zweite
Silbe besitzt. Bei Τransitionen zwischen Wörtern folgt die Verteilung dagegen viel weniger
strengen Gesetzen. Im vorliegenden Fall kann auf ku entweder ti, go oder da folgen. Gleiches gilt
für die anderen drei Wörter, auch hier gibt es jeweils drei Möglichkeiten im Übergang von einem
Wort zum nächsten. Die Wahrscheinlichkeit, dass man das zweite Element eines Paares
vorhersagen kann beträgt daher nur 1/3 (33%).6
(16) Transitionen für Bedingung A : pabiku tibudo golatu daropi
a. Mögliche Transitionen innerhalb eines Wortes
pa-bi ti-bu go-la da-ro bi-ku bu-do la-tu ro-pi
Y Wahrscheinlichkeit/Vorhersagbarkeit der zweiten Silbe: 1.0 (100%)
b. Mögliche Transitionen zwischen Worten
ku-ti do-pa tu-pa pi-paku-go do-go tu-ti pi-tiko-da do-da tu-da pigo
Y Wahrscheinlichkeit/Vorhersagbarkeit der zweiten Silbe: 1/3 (33%)
Daraus folgt, dass die nächste Silbe zwar innerhalb eines Wortes, aber nicht zwischen Wörtern
vollständig aus den Daten vorhersagbar ist. Weiters ergibt sich daraus, dass Wortgrenzen immer
dort auftauchen, wo die Vorhersagbarkeit/Wahrscheinlichkeit geringer ist. Wenn also Kinder in
der Lage sind, statistische Information zu verarbeiten, sollten sie diese Unterschiede in
Vorhersagbarkeit nutzen können, um Wortgrenzen zu finden. Diese Hypothese testeten Saffran
et al. indem sie den Kindern in einem zweiten Teil des Experiment, der sogenannten Testphase,
neue Reihen von Wörtern präsentierten.
6Zusätzliche Annahme: es folgen niemals zwei gleiche Wörter aufeinander. Wenn dies erlaubt wäre, wäredie Wahrscheinlichkeit 1/4.
#2: Bootstrapping 8
Teil II - Testphase: In der Testphase hörten die Kinder zwei Arten von Wörtern: auf der einen
Seite Formen, die man nach der Habituierung statistisch erwarten würde, auf der anderen Seite
aber auch Kombinationen, die unerwartet sind. (17) zeigt eine dieser Reihen:
(17) Testphase
pabiku tibudo tudaro pigolaÆÉÉÉÉÉÉÉÉÉÉÉÉÉÉÈÉÉÉÉÉÉÉÉÉÇ ÆÉÉÉÉÉÉÉÉÉÉÉÉÉÉÈÉÉÉÉÉÉÉÉÉÉÉÉÉÇ
mögliche Wörter unmögliche Wörter
Nehmen wir an, Kinder konnten während der Habituierungsphase statistische Information über
Transitionen aus den Daten finden. Dann sollte pikabu ein zu erwartendes Wort sein, tudaro
dagegen nicht. Dies folgt aus der Tatsache, dass in den Daten der Habituierungsphase die
Silbenübergänge innerhalb eines Wortes immer vollständig vorhersagbar waren
(Wahrscheinlichkeit 1.00). Bei tu-da-ro werden dagegen die zwei Silben tu-da kombiniert, deren
Verbindung in der Habituierungsphase immer nur zwischen Worten vorkamen, und deren
Wahrscheinlichkeit daher 1/3 beträgt (doppelt unterstrichener Eintrag in (16)b). Das selbe gilt
für pigola. Die beiden Formen tudaro und pigola sollten für die Kinder also neu und unerwartet
sein, da sie nicht den statistischen Gesetzen folgen, die sie in der Habituierungsphase gelernt
haben.
Im Experiment fanden Saffran et al., dass Kinder tatsächlich zwischen möglichen und
unmöglichen Wörtern im oben definierten Sinn unterscheiden. Konkret zeigten Kinder größere
Aufmerksamkeit (gemessen durch Dauer des aktiven Hörens) bei unmöglichen Wörtern. Dies
weist darauf hin, dass Kinder statistische Information, also Information über distributionelle
Regelmäßigkeiten, heranziehen, um Wortgrenzen zu finden.
1.1.3. Statistisches Lernen vs. UG
Das obige Experiment gibt ein Beispiel für sogenanntes Statistisches Lernen. Bei Statistischem
Lernen wird Wissen alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten von
bestimmten Regelmäßigkeiten - im obigen Fall der Übergang von einer Silbe zur nächsten -
erworben. Statistisches Lernen stellt nun eine potentielle Alternative dar zu der Annahme dar,
dass Sprache mittels angeborener Prinzipien erworben wird, die aus der genetisch veranlagten
Universalgrammatik stammen. Daraus ergibt sich folgende Frage:
(18) Frage: Können Wortgrenzen ausschließlich durch Statistisches Lernen und ohne Hilfevon angeborenen Prinzipien erkannt werden?
Die Frage ist wichtig, weil sie eine Annahme in Frage stellt, die hier von Beginn akzeptiert
wurde: dass Spracherwerb durch Prinzipien der UG geleitet wird, also durch einen Teil des
angeborene ‘abstrakten’ Sprachorgans (Language Acquisition Device, UG; s. Handout #1), Wenn
es möglich wäre, dass Kinder Wortgrenzen alleine durch statistisches Lernen erkennen, würde
das bedeuten, dass man zumindest für die Erklärung von gewissen Aspekten von Sprache keine
angeborenen Prinzipen braucht. Eine positive Antwort auf (18) würde ein ernsthaftes Problem
für die Theorie der UG darstellen.7
7Wichtige Einschränkung: dies würde natürlich noch nicht zeigen, dass UG nicht in anderen Bereichen,etwa bei komplexeren phonologischen Phänomenen, Syntax, Morphologie oder Semantik eine wichtigeRolle spielt. Und in der Tat stammen die stärksten Argumente für UG aus diesen Bereichen.
9 DGB 41 Spracherwerb, WiSe 2014
In einem einflussreichen Artikeln widmet sich Yang (2004) dieser Frage, und weist auf
einige schwerwiegende Fehler in der Argumentation von Saffran et al. hin. Erstens muss bei jeder
statistischen Analyse - auch wenn sie unbewusst abläuft, wie bei Kindern - vorher festgelegt
werden, welche Eigenschaften genau statistisch erfasst werden sollen. Und diese Entscheidung
kann nicht alleine dem Signal entnommen werden. Woher weiß das Kind, fragt Yang, dass bei
der Erkennung von Grenzen die Transitionen zwischen Silben relevant sind, und nicht etwa
Transitionen zwischen hohen und tiefen Vokalen, oder die Wahrscheinlichkeit, dass auf einen
alveolaren Laut ein Nasal folgt, oder die Wahrscheinlichkeit, dass sich zwei aufeinander folgende
Silben reimen? Im Prinzip gibt es eine unendlich große Anzahl von möglichen statistischen
Werten - woher wissen Kinder also, dass sie beim Statistischen Lernen auf Silben achten
müssen? Offensichtlich muss das Kind dies bereits vor Beginn des Lernprozesses wissen. Daraus
folgt, dass das Wissen, das Silben bei der Worterkennung eine wichtig Rolle spielen, bereits
angeboren sein muss. Die Antwort auf (18) ist also negativ.
Außerdem stellt sich die Frage, woher die statistisch relevanten Eigenschaften von
Silbenkontakten überhaupt stammen. Auch dies weist auf das Vorhandensein von unabhängigen,
allgemeinen Prinzipien hin. Ein Vergleich: Nehmen wir an, wir setzen einem Hund drei Karten
vor, auf denen jeweils das Wort fleisch, futter und ist steht. Dann trainieren wir den Hund, diese
Karten in einer Reihe auf den Boden zu legen. Nach 100 erfolgreichen Versuchsreihen erhalten
wir als Resultat 100 grammatische oder ungrammatische Sätze. Konkret wird der Hund immer
wieder - und natürlich zufällig - vier grammatische Sätze (futter ist fleisch, fleisch ist futter, ist
futter fleisch und ist fleisch futter) produzieren, sowie zwei ungrammatische Folgen (futter fleisch
ist und fleisch futter ist). Die grammtischen Sätze kommen aber in diesem Fall statistisch
häufiger vor, als die ungrammatischen (0.6 vs. 0.3). Dies ist so, da es einfach mehr
Kombinationen dieser drei Wörter gibt, die grammatisch sind, als Kombinationen, die
ungrammatisch sind. Können wir nun aber daraus schließen, dass der Hund die Regeln der
deutschen Grammatik, oder zumindest einen Teil davon beherrscht? Nein, natürlich nicht. Der
Grund liegt alleine darin, dass unabhängige Faktoren - die Auswahl der Wörter und deren
Kombinatorik - für das Ergebnis verantwortlich sind. Genauso verhält es sich beim Saffran et a.
Experiment. Auch hier sind unabhängige Faktoren dafür verantwortlich, dass Kinder anscheinend
so erfolgreich sind, Wortgrenzen zu erkennen.
Yang zeigte schließlich mittels einen Computermodell, dass das Experiment nur dann
statistisch relevante, also aussagekräftige Ergebnisse liefert, wenn Wörter verwendet werden, die
mindestens drei Silben lang sind. Die PSD, die Kinder in ihrer natürlichem Umgebung hören,
sind jedoch (zumindest im Englischen) meist kürzer. Und es kann gezeigt werden, dass die
Information in diesen Daten nicht ausreicht, um daraus Wortgrenzen berechnen zu können.
Werden also keine Kunstwörter, sondern natürlich vorkommende sprachliche Ausdrücke
herangezogen, ist kein statistischer Lerneffekt mehr zu erkennen.
Zusammenfassend kann festgestellt werden, dass statistische Methoden den Kindern beim
Bootstrapping sicherlich wichtige Strategien zur Verfügung stellen, um gewisse Regularitäten
zu erkennen. Dies hilft auch bei der Auffindung der Wortgrenzen. Auf der anderen Seite kann
Statistik nicht der einzige Faktor sein, der Bootstrapping ermöglicht. Wenn nicht festgelegt wird,
(i) welche Beziehungen statistisch erfasst werden sollen, und (ii) warum genau diese Fakten
relevant sind, hilft Statistisches Lernen wenig. Und genau dieses Wissen wird durch UG zur
Verfügung gestellt. Ohne die Annahme, dass sprachliches Wissen teilweise angeboren ist, kann
#2: Bootstrapping 10
also Spracherwerb nicht erklärt werden. Weitere Probleme für statistisches Lernen werden in §2
zur Sprache kommen, wo ein anderes statistisches Modell, der sogenannte Konnektionismus,
diskutiert werden wird,
1.2. PHONOTAKTISCHE BESCHRÄNKUNGEN
Weitere Unterstützung für die Hypothese, dass Bootstrapping auf phonologischer Information
basiert, kommt von der Beobachtung, dass Kinder schon sehr früh die phonotaktischen Gesetze
ihrer Sprache erlernen. Phonotaktik beschreibt (i) die möglichen Kombinationen von Lauten
sowie (ii) deren Position innerhalb der Silbe. Sprachen unterscheiden sich zudem in ihrer
Phonotaktik. Aus diesem Wissen können Kinder Hinweise auf Wortgrenzen ableiten.
Erstens macht nicht jede Sprache von allen Kombinationsmöglichkeiten ihrer Laute
gebrauch. Sowohl Deutsch als auch Griechisch besitzen [t] und [m]. Die Verbindung [tm] ist
jedoch nur im Griechischen erlaubt. Zweitens treten gewisse Lautverbindungen treten nur an
bestimmten Stellen in der Silbe auf. Im Deutschen ist [br] z.B. ein typischer Onset (brav, Brille,
braun, ...) während [nt] eine typische Koda darstellt (Hand, blind, Wind, Kind,...). Umgekehrt
ist [br] als Koda im Deutschen nicht erlaubt, genausowenig wie [nt] im Onset.
Kinder kennen die phonotaktischen Gesetze ihrer Sprache ungefähr ab dem 9. Monat. Wir
wissen das aus experimentellen Untersuchungen. Kinder erkennen bereits in diesem Alter,
welche Verbindungen an welcher Stelle der Silbe (Koda oder Onset) möglich sind. Mit 6
Monaten sind sie dazu noch nicht in der Lage. Diese Information stellt einen weiteren, wichtigen
Hinweis auf die Position von Grenzen dar. Wenn ein Kind z.B. [nt] hört, muss direkt im
Anschluss daran eine neue Silbe beginnen. Es ist somit wahrscheinlich, dass danach ein neues
Wort beginnt. Dagegen signalisiert [br], dass die Wahrscheinlichkeit hoch ist, dass gerade ein
anderes Wort zu Ende gegangen ist.8
Auch aus unmöglichen Verbindungen lernen Kinder. [nt] ist z.B. keine möglicher Onset im
Deutschen, tritt jedoch zwischen Wörtern auf (Sie kan[n t]anzen). Auch aus dieser Information
können somit Rückschlüsse auf Wortgrenzen gezogen werden. Wenn ein Kind [nt] hört, und es
aus unabhängigen Gründen klar ist, ist [nt] nicht die Koda einer Silbe bildet, dann markiert der
Übergang zwischen diesen beiden Lauten die Grenze zwischen zwei Wörtern.
Eine wichtige Frage, die sich natürlich sofort stellt, ist: wie lernen Kinder denn überhaupt
die phonotaktischen Gesetze? Diese Regeln können nicht angeboren sein, da sich Sprachen ja
in ihrer Phonotaktik unterscheiden. Die Antwort scheint hier zu sein, dass Kinder auf statistische
Information in den Inputdaten zurückgreifen, um daraus phonotaktische Gesetze abzuleiten. In
§1.1 haben wir schon gesehen, dass wortinterne Transitionen ganz allgemein besser vorhersagbar
sind als Transitionen zwischen Wörtern. Diese Tatsachen kann Kinder dazu führen, Hypothesen
darüber zu bilden, welche Lautverbindungen wortintern möglich sind, und welche nicht. Da wir
in der Diskussion von Yang (2004) aber auch gesehen haben, dass statistische Methoden ihre
Grenzen haben, sollte man bei der Bewertung dieser Theorien auch vorsichtig sein. Wie genau
der Beitrag von Statistik im Spracherwerb aussieht, stellt momentan ein äußerst spannendes und
heftig diskutiertes Thema in der Linguistik und Kognitionsbiologie dar.9
8Detaillierte Beschreibung des Experiments und Diskussion findet sich in Mattys, Jusczyk et. al (1999).
9Neuere Arbeiten stützen sich auf komplexere Modelle, die auch Wahrscheinlichkeitsrechnung undSpieltheorie einbeziehen. Eine bekannte Theorie ist die Bayessche Statistik, die auf den englischen
11 DGB 41 Spracherwerb, WiSe 2014
1.3. TYPISCHE WORTFORMEN
Die Wortformen unterschiedlicher Sprachen besitzen unterschiedliche rhythmische
Eigenschaften. Auch diese charakteristischen Eigenschaften können Kinder im L1-Erwerb
verwenden, um daraus wichtige Hinweise auf Wortgrenzen abzuleiten:
(19) a. Im Englischen beginnen die meisten Inhaltswörter mit einer langen Silbe.(table, content, window)
b. Deutsche Inhaltswörter haben meist Initialbetonung (sehen, Abend, Wiese, Fenster,neben, unter, trockener,...)
c. Im Französischen werden die Wörter meist auf der letzten Silbe betont (descendU,premiEr, hivEr, duplicatiOn,...)
Die Eigenschaften in (19) sind tendenziell, und nicht absolut, es gibt also immer Ausnahmen.
Auch im Deutschen gibt es lexikalische Wörter, die mit einer schwachen Silbe beginnen
(erzählen, Geschichte, Verbot, ....). Experimente weisen darauf hin, dass Kinder ab dem 9 Monat
zwischen typischen Wortformen und den weniger typischen rhythmischen Mustern unterscheiden
können.
1.4. PROSODIE
Die Regeln der Prosodie beschreiben u.a. regelmäßige Änderungen in der Grundfrequenz
(Tonhöhe), die Lage des Satzakzent und die Verteilung von Pausen im Satz. Werden die Sätze
(20) normal betont, etwa wenn sie als Antwort auf die Frage Was ist passiert? verwendet werden,
dann trägt jenes Wort den Satzakzent, das direkt vor dem Verb liegt. Wenn es sich um ein
einsilbiges Wort handelt ((20)a vs. (20)b), kann das Kind aus dem Satzakzent auf den Beginn des
Verbs schließen.
(20) a. Sie hat den HUnd gestreichelt b. Sie hat den KAtze gestreichelt
(21)a zeigt, dass Relativsätze durch Pausen (‘||’) vom Rest des Satzes getrennt werden. Auch dies
kann von Kinder als ein Hinweis darauf gewertet werden, wo ein Wort (in diesem Fall Schwester
bzw. die) endet bzw. beginnt. Ähnliches gilt für den Übergang zwischen zwei Teilen eines
Konjunkts, also einer Verbindung mit und ((21)b).
(21) a. Die Prinzessin hatte eine Schwester || die weit weg wohnte. b. Die Prinzessin || und ihre Schwester schliefen.
Durch Nutzung von prosodischer Information können Kinder also Schlüsse auf die Lage von
zumindest einigen Wortgrenzen führen.
1.5. ZUSAMMENFASSUNG
Kinder verwenden unterschiedliche Information, um Wortgrenzen zu erkennen: phonotaktische
Gesetze, allgemeine statistische Regelmäßigkeiten und Wissen über mögliche und unmögliche
Wortformen. Außerdem spielt wahrscheinlich auf Prosodie eine wichtige Rolle bei der
Segmentierung. Diese Prozesse arbeiten synchron, und ergänzen sich teilweise, zudem gibt es
gegenseitige Abhängigkeiten, wie z.B. zwischen Phontaktik und Statistischem Lernen.
Pfarrer Thomas Bayes (1701- 1761) zurückgeht.
#2: Bootstrapping 12
Es wurde auch ersichtlich, dass statistisches Lernen auf zwei unterschiedliche Arten im L1-
Erwerb genutzt wird: einerseits um quantitative Regelmäßigkeiten, die nicht in das grammtische
System eingehen, aus den Daten zu filtern. (Die Übergänge von Silben zwischen Wörtern ist z.B.
nicht grammatisch geregelt.) Andererseits verwenden Kinder Statistisches Lernen, um bestimmte
Teile der Grammatik, wie z.B. die Regeln der Phonotaktik, zu bilden. Wichtig ist abschließend
noch einmal zu betonen, dass rein statistische Methoden ohne angeborene Prinzipien (UG), die
Eigenschaften des L1-Erwerbs nicht erklären kann. Grundlegende Aspekte des Sprachsystems
sind also angeboren und genetisch veranlagt.
Selbst in diesem relativ kleinen Bereich, der Frage des phonologischen Bootstrapping, sind
viele Probleme, wie gezeigt wurde, noch nicht oder nicht vollständig geklärt. Momentan gibt es
z.B. noch keine gute Erklärung für die Beziehung zwischen angeborenen Faktoren und
Statistischem Lernen. Ist nun die Einsicht, dass man noch keine einfache, adäquate Theorie
besitzt, ein negatives Resultat für den Zustand der Forschung? Nein, keineswegs. Erstens lebt
jede gesunde Wissenschaft von der Tatsache, dass neue Erkenntnisse neue Fragen aufwerfen.
Und für Wissenschafter sind interessante, also sinnvolle Fragen immer wichtiger als Antworten,
da gute Fragen faszinieren können wie ein ungelöstes Rätsel oder ein ungelesenes Buch.
Zweitens basieren die meisten relevanten neueren Arbeiten zu diesem Gebiert auf einer
Verbindung von mathematischer Formalisierung, präziser linguistischer Analyse und der
Anwendung von neuen experimentellen Methoden und Einsichten aus der Neuro- und
Kognititionsforschung. Üblicherweise ergeben sich aus solchen neuen Konstellationen auch bald
neue empirische Resultate und Einsichten.
2. MEHR ZU STATISTISCHEM LERNEN: KONNEKTIONISMUS
Die letzten 30 Jahre sahen eine Renaissance von empiristischen Theorien zum Spracherwerb, die
auf neuen technologischen Entwicklungen sowie auf Ergebnissen der theoretischen Computer-
wissenschaften basieren. Die einflussreichste dieser Strömungen ist der Konnektionismus.
Konnektionismus bezeichnet eine Gruppe von Theorien, in der die menschliche Kognitions-
fähigkeit als ein sogenanntes neuronales Netzwerk dargestellt wird, das die Prozesse im
menschlichen Gehirn nachbilden soll. Diese Netzwerke bestehen aus einer Menge von
(abstrakten) Knoten, die ähnliche Aufgaben wie die Neuronen im Gehirn übernehmen, sowie
Verbindungen zwischen diesen Knoten. Konnektionistische Theorien gehen dabei von den vier
Annahmen in (22) aus:
(22) a. In einem neuronalen Netz besteht Information besteht in der unterschiedlichen Stärkevon Verbindungen.
b. Information wird parallel verarbeitet, nicht sequenziell (parallel distributedprocessing)
c. Information wird nicht lokal, sondern global im ganzen Netz gespeichert.d. Information wird nicht symbolisch gespeichert. Es gibt daher keine Regeln, die
Symbole manipulieren könnten. Das Modell ist subsymbolisch.
In der Linguistik und Forschung zur künstlichen Intelligenz werden konnektionistische Modelle
eingesetzt, um die Aspekte des Spracherwerbs zu simulieren. Anhänger des Konnektionismus
behaupten, dass konnektionistische Netzwerke dazu in der Lage sind, allein durch Eingabe von
Daten - also Wörtern oder Sätzen - die korrekten linguistischen Generalisierungen zu extrahieren.
Bisher konnte dies jedoch noch in keinem einzigen Bereich überzeugend belegt werden.
13 DGB 41 Spracherwerb, WiSe 2014
2.1. RUMELHART UND MCCLELLAND (1986)
Eines der bekanntesten Netzwerke wurde von Rumelhart und McClelland (1986) entwickelt. Es
ist in der Lage, die Morphologie der englischen Perfektformen (play - played vs. sing - sang) zu
erlernen. Das konnektionistisches Modell funktioniert wie folgt: Das Netztwerk besteht aus einer
Menge von Eingabeknoten, Ausgabeknoten und sogenannten versteckten Knoten, über die
Eingabeknoten und Ausgabeknoten miteinander verbunden sind:
(23) play work worked sing singed hope
sang say
Im konkreten Fall entsprechen die Eingabeknoten englischen Verbstämmen (z.B. play, work oder
sing) und die Ausgabeknoten allen möglichen Perfektformen (played, worked, sang, aber auch
*singed). Durch Training, d.h. durch wiederholte Eingabe von Verben, lernt das Netzwerk nun,
dass die Perfektform von play regelmäßig ist (played), jene von sing jedoch unregelmäßig (sang).
Der Lernprozess wird dabei durch Verstärkung der Verbindungen, die von sing zu sang führen,
sowie durch Schwächung der Verbindungen zwischen sing und singed modelliert. Nach
Abschluss des Lernprozesses ist das Netzwerk - so behaupten zumindest Rumelhart und
McClelland und andere Vertreter - auch in der Lage, die korrekte Form für neue Verbstämme zu
finden (ring/rang vs. walk/walked).
2.2. VOR- UND NACHTEILE
Die Debatte, ob konnektionistische Netzwerke tatsächlich imstande sind, aus unkontrollierten
Daten korrekte Generalisierungen zu extrahieren, ist noch nicht abgeschlossen. Für detaillierte
Kritik am Konnektionismus siehe unter anderem Fodor and Pylyshyn (1988) und Marcus (2001).
Was L1-Erwerb angeht, kann festgestellt werden, dass konnektinistische Modelle - genauso wie
andere statistische Lernmodell - Information darüber benötigen, was sie überhaupt lernen oder
erwerben sollen. Sie können also die wichtigsten Aspekte des L1-Erwerbs nicht ohne Hilfe von
Zusatzannahmen erklären. Auf der anderen Seite ist Lernen immer auch ein Prozess, bei dem
statistische Regelmäßigkeiten aus den Daten extrahiert werden. Und hier bietet Konnektionismus
eine sehr überzeugende Methode an, um diese Beziehung einem besseren Verständnis
zuzuführen. Die Vor- und Nachteile des Konnektionismus lassen sich wie folgt zusammenfassen:
(24) Vorteile
a. Robustheit: Neuronale Netze kollabieren nicht ‘katastrophal’ bei i. fehlerhaftem Input ii. Fehler im Signal (noise) oder iii. Beschädigung von Teilen des Speichermediums (Hirnschädigung)
b. Neuronale Netze sind plausibel als Modell des Gehirnsc. Neuronale Netze erlauben die Modellierung von nicht-kategorialen, graduellen
Urteilen, Ausnahmen (generische Aussagen) d. Netze können mit konfligierenden Daten, also Daten, die nicht miteinander
kompatibel sind, umgehen
#2: Bootstrapping 14
(25) Nachteile
a. Kompositionalität: Neuronale Netze sind nicht in der Lage, die Bedeutung vonkomplexen Ausdrücken kompositional abzuleiten.
b. Produziert keine Regeln, da keine syntaktischen Regularitäten erkannt werden. AlsResultat generalisiert das Netzt nicht von vorhandenem Wissen auf neue Eingaben:i. Wenn Der Mann sah den Wald, als formal richtig (= grammatisch) erkannt wird,
wird nicht automatisch auch Die Frau hörte den Vogel als richtig erkanntii. Wenn Der Mann sah den Wald, und Die Frau sah den Wald als richtig erkannt
wird, ist das Netz NICHT in der Lage auch Die Frau sah den Mann als formalrichtig zu erkennen.
c. Das Netzt muss mit ausgewählten Daten trainiert werden. Daten im Spracherwerbwerden nicht ausgewählt.
d. Erklärt nicht, wie Schwächung von Verbindungen zustande kommt. Warum gibt eskeine Verbindungen zwischen den drei Knoten der, Fisch, und schläft im Input, undFisch schläft der in der Ausgabe? (Poverty of Stimulus Argument)
e. Ähnlichkeit zwischen neuronalem Netz und Gehirn ist nicht so groß, wie dies dererste Eindruck vermitteln würde. Gehirn ist komplexer.
3. VERBINDUNG FORM - BEDEUTUNG
Wie schon in §1 erwähnte geht der Aufbau des Lexikons in zwei Stufen vor sich. Zuerst werden
phonologische Wortformen erlernt, dann werden, in einem zweiten Schritt, diese Formen mit
Bedeutung assoziiert. Man nennt dies auch das Zwei Stufen Modell von Bootstrapping:
(26) Zwei-Stufen Modell von Bootstrapping a. Aufbau eines phonologischen Lexikonsb. Assoziation von Form und Bedeutung
Bis zum 10. Monat gibt es im Lexikon noch keine sprachlichen Zeichen, also noch keine
Assoziationen zwischen Form und Bedeutung. (Eine Ausnahme bilden einige wenige primäre
Ausdrücke, wie der eigene Name und Begriffe für Eltern.) Dennoch existiert bereits ein
phonologisches Lexikon. Wieder stammt diese Erkenntnis aus experimentellen Tests.
Kinder im Alter von 8 Monaten hörten über einen Zeitraum von 10 Tage verteilt regelmäßig
Kindergeschichten und Märchen. Nach zwei Wochen wurden den gleichen Kindern entweder
eine Liste mit neuen Wörtern, oder eine Liste mit Wörtern vorgespielt, die bereits in den
Geschichten vorkamen. Es wurde festgestellt, dass die Kinder eine klare Präferenz für bekannte
Wörter zeigten. Eine Kontrollgruppe, die die Geschichten nicht gehört hatte, zeigte keinerlei
Präferenz. Dies zeigt, dass Kinder bereits über ein Lexikon von Formen verfügen müssen. Ein
ähnliches Formenlexikon wird auch von anderen Tierarten benutzt, z.B. von Singvögeln. Auch
Singvögeln lernen (eine kleine Anzahl) von musikalischen Phrasen, die sie im Lexikon
speichern, und die sie - bis zu einem gewissen Grad - zu neuen Gesängen kombinieren können.
Nomen vs. Verben: Eine erstaunliche Eigenschaft der Entwicklung des Lexikons ist, dass Kinder
zu Beginn fast ausschließlich Nomen verwenden, Verben werden erst später erworben. Dies ist
verständlich, da Verben generell komplexere Bedeutungen besitzen als Nomen. Ein Name wie
Peter referiert auf den Träger dieses Namens, während die einfachsten Verbbedeutungen
(schlafen) bereits Mengen von Individuen sind. Weiters ist der Erwerb von Verbbedeutungen
davon abhängig, dass das Lexikon bereits Nomen enthält. Die Bedeutung von Verben läßt sich
nämlich semantisch immer eine Beziehung zwischen der Bedeutung von Nomen darstellen:
15 DGB 41 Spracherwerb, WiSe 2014
schlafen ist z.B. eine Funktion, die Schläfer von nicht-Schläfern trennt. Das zweistellige Verb
wissen denotiert die Beziehung zwischen einer Person und einem Objekt, etc...Um Verbbedeu-
tungen zu erlernen, müssen Kinder daher bereits über Bedeutungen für Nomen verfügen. Die
nächsten beiden Abschnitte führen kurz einige wichtige Eigenschaften des Erwerbsprozesses von
Nomen und Verben an.
3.1. NAMEN FÜR OBJEKTE
Beim Erwerb von Bedeutungen muss das Kind einige logisch und kognitivspsychologisch äußerst
schwierige Probleme lösen. Nehmen wir an, das Kind sieht eine Katze auf einem Tisch, und hört
den Satz (27):
(27) Die Katze ist auf dem Tisch.
Ohne vorheriges Wissen ist es, aus rein logischen Gesichtspunkten, nicht möglich festzustellen,
welcher Teil des Satzes auf den Tisch referiert und welcher auf die Katze. Woher soll das Kind
wissen, dass Katze das Wort für eine Katze ist, und nicht für einen Tisch? Und woher soll es
wissen, dass auf dem eine Beziehung darstellt, in der das Subjekt oben ist, und das Objekt unten,
und nicht umgekehrt. Mit anderen Worten, wie lernt das Kind, dass (27) nicht das selbe bedeutet
wie für uns erwachsene Sprecher der Satz (28)?
(28) Der Tisch ist über der Katze
Wenn für das Kind Katze einen Tisch bezeichnet, und Tisch eine Katze, dann können beide Sätze
die selbe Situation beschreiben - sie sind synonym. Die Antwort auf diese und ähnliche Frage
liefert die Annahme, dass Kinder angeborene Strategien benutzen, um aus ihrem bereits
vorhandenen sprachlichen Wissen und der Umwelt neue sprachliche Zeichen zu erlernen.
3.1.1. Markmans Tendenzen
Die Psychologin und Psycholinguistin Ellen Markman schlug vor, dass Kinder gewisse
angeborene Tendenzen besitzen, Wortformen mit Bedeutung zu füllen (Markman und
Hutchinson 1984; Markman 1990). Sie ging von folgender Frage aus: Warum weiß z.B. ein
Kind, dass das Wort Katze nicht nur auf den Kopf der Katze referiert, sondern auf das ganze
Tier? Warum lernt ein Kind, dass das Wort Motorrad hört und gleichzeitig ein Motorrad sieht,
dass das Wort auf das ganze Fahrzeug referiert, und nicht nur auf den Fahrer, oder auf die beiden
Räder? Die Antwort liegt in (29) und der allgemeinen menschlichen Fähigkeit, Objekte also
individuelle, von ihrer Umwelt getrennte Einheiten zu erkennen.
(29) Ganzheitlichkeitstendenz (‘whole object bias’)Kinder verwenden neue Wörter um auf ein ganzes Objekt zu referieren, nicht nur aufTeile dieses Objektes.
Die Objektstendenz wurde auch in vielen psychologischen Experimenten bestätigt.
Eine weitere Tendenz erlaubt es Kindern, Wörter zu verallgemeinern. Wer Katze lernt, kann
das Wort auf andere Katzen anwenden, auch wenn diese nicht völlig gleich aussehen, und sich
z.B. in der Farbe unterscheiden. Genauso wissen Kinder, dass Hunde und Katzen zusammen zur
Klasse der Tiere gehören, ein Tisch dagegen nicht. Diese Generalisierung wird durch Markmans
Taxonomietendenz ausgedrückt.
#2: Bootstrapping 16
(30) Taxonomietendenz (‘taxonomical bias’)Jedes Wort hat die Tendenz, Objekte der gleichen Art oder Klasse zu bezeichnen undnicht auf thematisch verwandte Objekte.
Die Taxonomische Tendenz konnte z.B. in folgendem Experiment nachgewiesen werden.
Kindern im Alter von 4-5 Jahren wird das Bild einer Kuh vorgelegt. Gleichzeitig werden sie
gefragt: Siehst Du diese Dax? Diese Frage bildet eine Verbindung zwischen dem Objekt Kuh und
dem Phantasiewort Dax. Dann sehen die Kinder zwei weitere Bilder: das Bild einer Milchflasche
und das Bild eines Schweines. Anschließend erhalten sie die Aufgabe: Finde ein weiteres Dax!
Wie sich gezeigt hat, wählen Kinder nun systematisch das Schwein, das in die gleiche Art (also
Tier auf dem Bauernhof) fällt, und nicht die Milchflasche, obwohl es auch eine enge Beziehung
zwischen Milch und der Kuh gibt. In einem zweiten Experiment sahen die Kinder genau die
gleichen Objekte, aber die Frage lautete diesmal: Siehst Du das? anstatt von Siehst Du diese
Dax? In diesem Fall konnten Kinder keine besondere Beziehung zwischen Kuh und Schwein
erkennen. Daraus kann geschlossen werden, dass es einen Unterschied macht, ob die Welt mit
Inhaltswörtern (Dax) beschrieben wird, oder nur mit allgemeinen deiktischen Ausdrücken (das).
Wörter spielen also bei der Kategorisierung der Welt eine entscheidende Rolle. (Für weitere
Details, s. Guasti 2002: S. 78).
Eine dritte Tendenz ist dafür verantwortlich, dass die Bedeutungen von Wörtern sich im
allgemeinen nicht überlappen oder überschneiden:
(31) Exklusivitätstendenz (‘mutual exclusivity bias’)Wörter haben die Tendenz Objekte zu bezeichnen, die sich ausschließen
Angeborene Tendenzen helfen Kinder also, Objekten mit Wörtern zu assoziieren.
3.1.2. Nicht sprachliche Hinweise
Schon sehr früh verwenden Kinder auch nicht-sprachliche Hinweise, um Bedeutungen zu lernen.
Es wurde z.B. nachgewiesen, dass Kinder ab dem 18. Monat auf Zeigen und auch auf erhöhte
Aufmerksamkeit ihres Umfeldes reagieren. Wenn die Mutter auf ein Objekt blickt, und das Kind
gleichzeitig eine Wortform hört, dann lernt das Kind diese Assoziation zwischen Form und
Bedeutung sehr schnell. Wenn die Mutter nur auf das Objekt zeigt, aber dem Objekt keine
Aufmerksamkeit schenkt, läuft dieser Lernprozess langsamer ab. Dabei spielen insbesondere die
Augen der Mutter eine große Rolle. Durch den starken visuellen Kontrast zwischen Pupille
(schwarz) und Augenkörper (weiß) können Kinder schon sehr früh erkennen, worauf die Mutter
ihren Blick und somit ihre Aufmerksamkeit richtet (Csibra und Gergely 2009).
McGurk Effekt: Ein besonders berühmtes Beispiel für die Interaktion von visuellem und
sprachlichem Input ist der McGurk Effekt, der seit seiner Entdeckung durch den Psychologen
Harry McGurk in vielen unterschiedlichen Formen gefunden worden ist (McGurk and
MacDonald 1976). In einem Experiment hören Sprecher das akustische Signal [ba], während sie
gleichzeitig eine große Videoaufnahme einer Person sehen, die [ga] sagt. Der größte Anteil der
Sprecher gibt an, nicht [ga] oder [ba] zu hören - sondern [da], also eine hybride Form, in der die
artikulatorischen Eigenschaften von [ba] und [ga] gemischt werden. Dies zeigt, dass visuelle
Information bei gewissen Aspekten des der sprachlichen Wahrnehmung eine Rolle spielen. Ob
der McGurk Effekt auch beim L1-Erwerbs eine Rolle spielt, ist wahrscheinlich, jedoch
weitgehend noch nicht systematisch erforscht.
17 DGB 41 Spracherwerb, WiSe 2014
3.2. ERWERB DER BEDEUTUNG VON VERBEN
Die Semantik von Verben ist im Allgemeinen komplexer als die Semantik von Nomen.10 Um zu
verstehen, was ein bestimmtes Verb bedeutet, müssen Kinder verstehen, in welcher Beziehung
die Argumente diese Verbes stehen. Diese Beziehungen können in unterschiedliche Klassen
eingeteilt werden - die thematischen Rollen oder Θ-Rollen. Die wichtigsten Θ-Rollen sind:
(32) Agens
a. Maria sieht den Filmb. Die Kinder schliefenc. Das Buch wurde von Peter verfaßt
(33) Thema
a. Maria sieht den Filmb. Das Buch wurde von Peter verfaßt
(34) Patiens
a. Wir geben Maria ein Buchb. Peter unterzog ihn einem Test
(35) Experiencer
a. Peter liebt Mariab. Mir gefällt das Buch
(36) Instrument
a. Er öffnete die Flasche mit einem Messerb. Der Stein zerbrach das Fenster
Die Bedeutung von Verben wird also durch die Bedeutung der Argumente definiert, sowie durch
die Beziehung, in der diese Argumente stehen. Daraus folgt, dass Kinder eigentlich erst dann in
der Lage sein sollten, die Bedeutung von Verben (und anderen Prädikaten) zu erlernen, wenn sie
PSDs analysieren können, die Verben und die entsprechenden Argumente enthalten. Die
Psycholinguistin Lila Gleitman hat, seit den 1970er Jahren in vielen Experimenten nachgewiesen,
dass dies in der Tat der Fall ist. Der Spracherwerb von Verben ist sehr eng mit der Fähigkeit
verknüpft, zu verstehen, in welcher Beziehung die einzelnen Argumente eines Verbs zueinander
stehen. Ein einfaches Beispiel zeigt, wie schwierig die Aufgabe für Kinder ist, diese Unterschiede
zu erlernen.
In allen drei Sätzen in (37) bezeichnet das Verb brechen eine Beziehung zwischen einem
Glas und (wenn vorhanden) einem anderen Argument. Die Relation ist jedoch niemals die selbe.
In (37)a ist das Glas das Thema, das ist offensichtlich: es wird zerstört, und Hans verursacht
diesen Zustand. (37)b drückt dagegen aus, dass es eine Handlung gab, die zum Zerbrechen des
Glases führte. Und (37)c beschreibt Situationen, in denen ein Zustand - der Wind - einen anderen
Zustand - das Zerbrechen des Glases - verursacht.11
(37) a. Hans brach ein Glasb. Ein Glas brachc. Der Wind brach ein Glas
10Dies gilt zumindest für einfache Namen, nicht für Ausdrücke wie die meisten Tiere.
11Verben, die sich im Deutschen ähnlich verhalten sind zereissen, kochen, frieren, öffnen/sich öffnen. FürDiskussion siehe u.a. Schäfer (2008).
#2: Bootstrapping 18
Dass diese drei Kontexte tatsächlich vollkommen unterschiedlicher Natur sind, zeigt sich, wenn
man sich vor Augen führt, wie andere Verben funktionieren. Das Verb erschüttern bezeichnet
‘intensive Bewegung’, ohne dass das Objekt unbedingt zerbricht. Ich kann ein Glas, zum Beispiel
im Rahmen eines physikalischen Experimentes, erst erschüttern, und dann zerbrechen. An und
für sich sollten sich die beiden Verben erschüttern und brechen also ganz ähnlich verhalten.
Auch bewegen hat auf den ersten Blick die gleiche Eigenschaft wie brechen oder erschüttern.
Das sagt uns unser Weltwissen. Dennoch behandelt die Sprache diese Prädikate unterschiedlich.
(38) zeigt, dass bewegen und erschüttern keine intransitive Versionen besitzen. (Linguisten
sagen: sie nehmen nicht an der Kausativalternation teil; Levin und Rappaport 1995).
(38) a. Hans bewegte/erschütterte ein Glasb. *Ein Glas bewegte/erschüttertec. Der Wind bewegte/erschütterte ein Glas
Aber auch bewegen und erschüttern können nicht in den selben Kontexten auftreten:
(39) a. Hans bewegte sich b. *Hans erschütterte sich
Jeder Sprecher des Deutschen ist in der Lage, diese Unterschiede in klare, kategoriale
Unterschiede in Grammatikalität zu übersetzen. Die drei Verben brechen, bewegen und
erschüttern scheinen also ähnliche Handlungen in der Welt zu bezeichnen. Im Sprachsystem
besitzen diese Verben jedoch völlig unterschiedliche Eigenschaften. Diese Beobachtung ist auch
nicht auf diese kleine Gruppe von Beispielen beschränkt. Systematische Untersuchungen von
Beth Levin12 und Malka Rappaport13 für das Englische, Elena Anagnostopoulou14 und Artemis
Alexiadou15 für das Griechische und Florian Schäfer16 für das Deutsche und vielen anderen
zeigten, dass sich alle Verben in Klassen einteilen lassen. Aber die Anzahl dieser Verbklassen
ist groß, Levin (1993) führt z.B. 53 unterschiedliche für das Englische an.
Das Problem für den Spracherwerb ist offensichtlich. Wie erlangen Kinder das Wissen, dass
brechen, bewegen und erschüttern in der Grammatik unterschiedlich zu verwenden sind, obwohl
diese Verben ähnliche Handlungen beschreiben? Die Antwort auf diese Frage liegt im Erwerb
einer anderen Eigenschaft: dem Aufbau der Syntax, also der Fähigkeit, Wörter in Gruppen zu
organisieren. Mit diesem Thema werden wir uns zu Beginn von Handout #5 beschäftigen.
3.3. WEITERER AUFBAU DES LEXIKONS
Kehren wir kurz zum Lexikon zurück, um diesen Teil der Entwicklung abzuschließen. Im Alter
von 18 Monaten Lexikon enthält das Lexikon im Durchschnitt 50 Wörter. Ab dem 20-24 Monat
12http://www.stanford.edu/~bclevin/pubs.html
13http://www.huji.ac.il/dataj/controller/ihoker/MOP-STAFF_LINK?sno=9548470
14http://www.philology.uoc.gr/staff/anagnostopoulou/
15http://ifla.uni-stuttgart.de/index.php?article_id=26&clang=0
16http://ifla.uni-stuttgart.de/institut/mitarbeiter/florian/#unten
19 DGB 41 Spracherwerb, WiSe 2014
setzt dann eine Phase ein, in der Kinder jeden Tag sechs bis neun neue Wörter erlernen
(‘schnelles Lernen’; vocabulary spurt). Diese Phase dauert ca. bis zum 6. Jahr und führt zu einem
schnellen Aufbau des Lexikons. Mit 36 Monaten umfasst es dann ungefähr 2,000 Einträge. Zum
Vergleich: erwachsene Sprecher verfügen im Durchschnitt über einen Wortschatz von zwischen
20,000-50,000 Wörtern (Grimm 2000).
Hinweis zum Wortschatz Erwachsener: Die Frage, wie viele Wörter Erwachsene beherrschen ist
schwer zu beantworten. Während sich nach gewissen Quellen in Goethes Werken ca. 90,000
Wörter finden, reichen ungefähr 6,000 Wörter schon aus, um 90% der Texte im Brown Korpus17
lesen und verstehen zu können.
Es gibt zumindest zwei Gründe dafür, warum diese Zahlen so weit differieren. Erstens ist
der Wortschatz sehr schwer experimentell zu überprüfen, da man Sprechern nicht einfach eine
Liste von tausenden Wörtern vorsetzen kann, um sie zu fragen, welche von diesen Wörtern sie
kennen. Zweitens muss vorher geklärt werden, was man unter einem Wort meint: sind sehen und
sah eine Form, oder zwei? Wie sieht das bei Buch und Buches und Bücher aus? Zählt man
Komposita als getrennte Wörter? Küchentisch kann z.B. auf die Bedeutung von Küche und Tisch
zurückgeführt werden, das Wort sollte also nicht getrennt gezählte werden. Auf der anderen Seite
gibt es Komposita wie Fernfahrer (eine Person, die professionell einen Lastkraftwagen ins
Ausland fährt), Nachttopf (ein Gefäß, das früher als Ersatz für Toiletten benutzt wurde),
Blutsbruder, Augenweide oder σπαγγοραµµένος, deren Bedeutung sich nicht direkt aus den
Bedeutungen der Teile ersehen lässt.
17Ein Korpus (Pl. Korpora) ist eine elektronische Sammlung von Texten. Der Brown University StandardCorpus of Present-Day American English umfasst ca. 1,000,000 Wörter, und rund 500 Texte. Derweltweit größte Korpus für Deutsch, der IDS-Korpus wurde vom Institut für Deutsche Sprache inMannheim erstellt, er enthält ca. 5,4 Milliarden Wörter: http://www.ids-mannheim.de/kl/corpora.htmlEine Übersicht über Korpora in verschiedenen Sprachen findet sich in der Bibliographie.
#2: Bootstrapping 20
BIBLIOGRAPHIE
Csibra, Gergely und György Gergely. 2009. Natural pedagogy. Trends in Cognitive Science 13.4:148-153.
L Guasti, Maria Teresa. 2002. Language Acquistition: the growth of the grammar. Cambridge: MIT Press. [pdf auf E-class verfügbar]
Grimm, Hannelore. 2000. Sprachentwicklung. Göttingen: Verlag für Psychologie. Harris, Zelig Sabbettai. 1954. Distributional structure. Word 10: 21: 146-162.Fodor, Jerry and Zenon Pylyshyn. 1988. Connectionism and cognitive architecture: A critical analysis.
Cognition 28: 3-71Levin, Beth. 1993. English Verb Classes and Alternations. Chicago: University of Chicago Press.Levin, Beth, and Hovav, Malka Rappaport. 1995. Unaccusativity: Linguistic Inquiry Monograph 26.
Cambridge, Massachusetts: MIT Press.Marcus, Gary. 2001. The Algebraic Mind. Cambridge, Mass.: MIT Press.Markman, Ellen. 1990. Constraints Children Place on Word Meanings. Cognitive Science 14, 57-77
(1590)Markman, Ellen und John Hutchinson. 1984. Children’s sensitivity to constraints on word meaning:
taxonomic vs. thematic relations. Cognitive Psychology 16: 1–27.Mattys, S., P. Jusczyk, P. Luce und J. Morgan. 1999. Phonotactic and Prosodic Effects on Word
Segmentation in Infants. Cognitive Psychology 38: 465–494. Online abrufbar unter: http://www.acsu.buffalo.edu/~luce/pdfs/1999-MattysJusczykLuceMorgan.pdf
Rumelhart, David, James McClelland und die PDP Research Group. 1986. Parallel DistributedProcessing: Explorations in the Microstructure of Cognition. Cambridge, MA: MIT Press
Saffran, J. R., R. N. Aslin, and E. L. Newport. 1996. Statistical learning by 8-month-old infants.Science 274, 1926-1928
Schäfer, Florian. 2008. The syntax of (anti-)causatives. External arguments in change-of-statecontexts. Amsterdam/Philadelphia: John Benjamins.
Yang, Charles. 2004. Universal Grammar, statistics or both? Trends in Cognitive Science 8. 10: 451-456.
ONLINE RESOURCES
Der wichtigste Korpus für Kindersprache ist CHILDES (Child Language Data Exchange System): http://childes.psy.cmu.edu/Auf die Datenbank kann man direkt hier zugreifen (man braucht ein bisschen Übung, da dasvisuelle Interface relativ einfach gestaltet ist.)
Korpus des Institut für Deutsche Sprache in Mannheim:http://www.ids-mannheim.de/kl/corpora.html
Online Lexikon Deutsch, Universität Leipzig: http://wortschatz.uni-leipzig.de/
Korpora in verschiedenen Sprachen: https://www.linguistik.hu-berlin.de/institut/professuren/korpuslinguistik/links/korpora_links