neurowissenschaft.chneurowissenschaft.ch/mmeyer/teaching/FS11/Sprache/M… · Web viewHandout zum...
Transcript of neurowissenschaft.chneurowissenschaft.ch/mmeyer/teaching/FS11/Sprache/M… · Web viewHandout zum...
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Handout zum Vortrag am 18.04.2011
„Neurobiologische Modelle der Sprache“
I. Einleitung:
Zwei Ansätze können bei der wissenschaftlichen Beschäftigung mit neurobiologischen Modellen
unterschieden werden:
Linguistische Herangehensweise
Parameter-basierte Herangehensweise
Linguistischer Ansatz:
Definition: Unter Linguistik versteht man die wissenschaftliche Beschäftigung mit der menschlichen
Sprache als System, ihren Bestandteilen und Einheiten und deren Bedeutung. Sprache kann
formal/strukturell analysiert werden, man beschäftigt sich dann mit Phonetik-Phonologie-
Morphologie- Grammatik - Syntax. In anderen Kernbereichen der Linguistik wird Sprache auch
danach untersucht, wie ihr Wortschatz aufgebaut ist (Lexikologie), wie sie Bedeutung vermittelt, d.h.
man beschäftigt sich mit Semantik (Lehre von der Konstruktion von Bedeutung aus Wörtern und
Kontext) und mit Pragmatik (Lehre der Konstruktion von Bedeutung aus dem Sprachkontext).
Bei der linguistischen Herangehensweise wird versucht zu erklären, wo, wann und wie im Gehirn
diese komplexen Analysen der linguistischen Komponenten zustande kommen. Es werden also
linguistische Konzepte zur Erklärung der während der Sprachverarbeitung im Gehirn ablaufenden
neurobiologischen Prozesse herangezogen.
ABER: Nach Ansicht von Poeppel und Embick (2005) werden dabei aber zwei fundamentale
Probleme ignoriert:
Conceptual granularity mismatch: Neurowissenschaftliche und linguistische Sprachforschung
verwenden zur Erklärung von Sprache Erklärungseinheiten, die sich in ihrer Detailgenauigkeit
wesentlich unterscheiden. Linguistik arbeitet mit sehr feinkörnigen Erklärungseinheiten und unter der
Annahme genauer Verrechnungsschritte, während man in den Neurowissenschaften eher breitere
Erklärungskonzepte verwendet.
1
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Ontological immensurability : Die Grundelemente der linguistischen Theorie können nicht soweit
reduziert oder angepasst werden, dass sie den biologischen Grundelementen der Neurowissenschaften
entsprechen würden.
Konsequenz: Der Versuch, die tatsächlichen neurobiologischen Abläufe im Gehirn bei
Sprachwahrnehmung und –produktion mit Hilfe von linguistischen Konzepten zu verstehen, kann in
die Irre führen. Denn die Maschinerie, mit der linguistische Phänomene erklärt werden, steht in keiner
Beziehung zu den im Gehirn ablaufenden Prozessen und den dabei eine Rollen spielenden Einheiten.
Parameter-basierter Ansatz:
Oszillo- und Spektrogramm zeigen deutlich: Sprache ist ein akustisches Signal mit physikalischen
Parametern wie Frequenz, Energie/Amplitude etc., das sich über die Zeit hin entwickelt.
Dieses Signal wird in unserem Gehirn in neuronale Aktivität umgewandelt. Neuronale Aktivität kann
sich innerhalb von spezialisierten Neuronenpopulationen bis hin zu über das Gehirn verteilten,
grossräumigen neuronalen Netzwerken entfalten, innerhalb derer die Neurone gleichzeitig oder
nacheinander in bestimmten Frequenzbändern aktiv werden (Synchronisation und Desynchronisation).
Neuronale Aktivität besitzt somit die Dimensionen Raum und Zeit.
Beim parameter-basierten Ansatz wird versucht, die Prozessierung des Sprachinputs und –ouputs im
Gehirn als das Ergebnis des koordinierten Zusammenwirkens verschiedener Gehirnareale zu
verstehen, die auf Grund ihrer neurobiologischen und elektrophysiologischen Spezialisierung
spezifische Funktionen bei der Sprachverarbeitung wahrnehmen.
2
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
II. Das dynamic dual pathway model von Friederici et al. (2002, 2004)
Linguistischer Ansatz
Methoden: EEG, bzw. ERP-Ableitung für Bestimmung der drei Verarbeitungsphasen; Verortung der
dafür zuständigen Gehirnareale mit bildgebenden Verfahren (PET und fMRI).
Erklärungsebene: auditorische Satzverarbeitung.
Bei dem neurokognitiven Modell von Friederici et al. handelt es sich um ein bilaterales temporo-
frontales Netzwerk. Die temporalen Areale haben dabei eher die Aufgabe der Identifikation auf der
Ebene Phonetik, Semantik und Syntax, die frontalen Areale eher die Aufgabe der Erfassung von
syntaktischen und semantischen Beziehungen.
Der linke Temporalkortex unterstützt dabei die Prozesse, die die phonetischen,
lexikalischen und strukturellen Elemente identifizieren.
Der linke Frontalcortex ist zuständig für die Sequenzierung und die Formation der
phonetischen, strukturellen und thematischen Beziehungen.
⇒ Segmentelle, lexikalische und syntaktische Informationen und Beziehungen werden
links verarbeitet.
Im rechten Temporallappen findet die Identifikation der prosodischen Parameter statt
und der rechte Frontalkortex ist zuständig für die Verarbeitung der Satzmelodie.
⇒ Suprasegmentelle Informationen auf Satzebene wie Akzentuierung, Tonhöhe, Pausen
etc. werden rechts verarbeitet.
Linke und rechte temporo-frontale Areale interagieren während der Satzverarbeitung dynamisch
miteinander (Interaktion von prosodischer und syntaktischer Information) über das hintere
Drittel des Corpus Callosum, jedoch ist der zeitliche Ablauf dieser Interaktion noch unklar.
4
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Auditorische & phonologische Basisprozesse => Bilateral - primärer auditorischer Cortex.
Syntaktisches Netzwerk => Links - STG anterior – Frontales Operculum – unterer Teil des Gyrus frontalis Inferior BA 44 (Broca Area).
Semantische Netzwerk => Links - posteriorer und mittlerer STG– MTG – BA 45 im IFG (=Gyrus frontalis inferior).
Prosodisches Netzwerk => Rechts Frontales Operculum und Areale auf dem STG.
Das Modell von Friederici et al. postuliert drei Phasen der auditorischen Satzverarbeitung in den
linken temporo-frontalen Gebieten. Die drei Zeitphasen wurden auf der Basis auf
elektrophysiologischen Daten definiert, bzw. der Aufzeichnung und Analyse verschiedener Event-
Related-Potentials (ERP)-Ableitungen bei verschiedenen semantischen und syntaktischen
Regelverletzungen.
ERP’s und ihre Bedeutung:
Syntax:
ELAN: Early-Left-Anterior-Negativity im Zeitfenster von 150-200 ms – sprachspezifisch - korreliert
mit schnell entdeckbaren Fehlern der Wortkategorie, dominant im Temporal- und Frontalkortex der
LH, obwohl die homologen RH-Areale vermutlich auch involviert sind.
LAN: Left-Anterior-Negativity im Zeitfenster von 200-500ms – sprachspezifisch - korreliert mit
morphosyntaktischen Fehlern.
P600: Late-Central-Positivity im Zeitfenster 600+ ms – tritt sowohl nach semantischen wie
syntaktischen Regelverletzungen auf - korreliert mit einem späten Integrationsprozess
5
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Semantik:
N400: Centro-Parietal-Negativity 400 ms nach Word-Onset – korreliert mit Wörtern, die semantisch
nicht in den vorausgehenden Kontext eingeordnet werden können – kann sich aber auch auf eher
allgemeinere Aspekte der Bedeutung als den lexikalisch-semantischen Aspekt beziehen, denn N400-
Effekte finden sich auch in nicht-linguistischen Kontexten.
Die drei aus den mit Regelverletzungsparadigmen gewonnen Zeitphasen der auditorischen
Satzverarbeitung
Phase 0: Zeitfenster 0 – 100 ms: Erste akustische Analyse – Identifikation der Phoneme –
Identifikation der Wortform.
Phase 1: Zeitfenster von 100-300 m: Auf der Basis der im Satz vorhandenen, verschiedenen
Wortkategorien findet in einem autonomen Prozess eine erste syntaktische Strukturanalyse des
gehörten Satzes statt.
Phase 2: In dem Zeitfenster von 300-500 ms finden die für die thematische Rollenzuordnung
notwendigen lexikalisch-semantischen und morphosyntaktischen Prozesse statt. Die Verarbeitung
6
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
syntaktischer und semantischer Informationen erfolgt auf dieser Stufe parallel und voneinander
unabhängig.
⇒ Achtung: Die Prozesse in Phase 1 sind immer unabhängig von Phase 2. Jedoch können die
Prozesse in Phase 2 durch Phase 1 insofern beeinflusst werden, dass die lexikalische Integration
eines Elementes in den Kontext davon abhängt, ob es zuvor in Phase 1 syntaktisch
lizenziert/zugelassen worden ist.
Phase 3: Im Zeitfenster von 500-1000 ms kommt es schliesslich zur Integration oder bei zweideutigen
oder falsch strukturierten Sätzen zu Reanalysen/Reparatur der verschiedenen Informationstypen.
Das Modell von Friederici et al. nimmt damit sowohl serielle (1.Phase), wie parallele Verarbeitung (2.
Phase) und Interaktion der verschiedenen Verarbeitungsstufen (Einfluss von 1. Phase auf die 2. Phase,
sowie Integration/Reanalyse sämtlicher Informationen aus Phase 1 und Phase 2 in der 3. Phase) an .
Synopsis des Modells von Friederici et al.
7
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
III. Das Asymmetric Sampling in Time (AST) Hypothese von D. Poeppel (2003)
Parameter-basierter Ansatz
Methoden: EGG und bildgebende Verfahren
Ebene: Prozessierung des primären Sprachinputs
Aus verschiedenen Beobachtungen aus der kognitiven Neurowissenschaft und der Psychophysik leitet
Poeppel vier verschiedene Prämissen für seine „Asymmetric-Sampling in Time-Hypothese „ ab:
1. Die funktionale Anatomie der Sprachverarbeitung verweist auf einen bilaterale Prozessierung
des primären Sprachinputs.
2. Die linke Hemisphäre ist besonders befähigt, schnell wechselnde Signale zu verarbeiten.
3. Verschiedene Zeitskalen sind bei der Verarbeitung des Sprachsignals relevant, denn das
Sprachsignal enthält sowohl segmentelle wie auch suprasegmentelle Informationen und diese
müssen adäquat verarbeitet werden
4. Wir empfinden Zeit intuitiv als Fluss und auch die Physik beschreibt Zeit als kontinuierliche
Variable. Elektrophysiologische und psychophysische Studien aber zeigen, dass das Gehirn
Zeit nicht als Fluss, sondern in einzelnen zeitlich definierten Chunks und damit nicht
kontinuierlich verarbeitet. Zeitliche Integrationsfenster bieten somit den besten logistischen
Rahmen, um sich in der Zeit entwickelnde Information zu quantifizieren.
Die Theorie:
Zwischen den primären auditorischen Cortices der beiden Hemisphären besteht kein
Unterschied – beide besitzen neuronale Populationen mit Zeitkonstanten zwischen 25 und
200 ms.
Der linke Gyrus temporalis superior posterior allerdings besitzt eine Präferenz zur
Verarbeitung von Information aus kurzen zeitlichen Integrationsfenstern (20-50 ms =>
Frequenz von 40 Hz Gamma-Band).
Analysen, die hohe zeitliche Auflösung erfordern, wie z.B. Formantenübergänge,
erfolgen links.
Der rechte Gyrus temporalis superior posterior präferiert die Verarbeitung der
Information aus langen zeitlichen Integrationsfenstern (150-250ms => Frequenz von 4-5
Hz Theta-Band).
Analysen mit hoher spektraler Auflösung wie z.B. Satzmelodie erfolgen rechts.
9
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Es besteht ein enger Zusammenhang zwischen den beiden zeitlichen Integrationsfenstern
der linken und der rechten Hemisphäre und den neuronalen Oszillationen. Die
Integrationsfenster reflektieren neuronale Oszillationen, bzw. die beiden verschiedenen
Samplingrates für das Sprachsignal im Gehirn. Damit kann unser Gehirn gleichzeitig beide für
die Sprachaufschlüsslung wichtigen Informationsebenen (segmentell und syllabisch)
verarbeiten.
Die Verarbeitung des primären Sprachsignals erfolgt bilateral. Auf dieser frühen Ebene
der Verarbeitung besteht noch keine anatomische Lateralisierung der Sprachverarbeitung,
jedoch eine funktionale Asymmetrie, bzw. eine zeitliche Asymmetrie der präferiert
verarbeiteten Einheiten des Sprachsignals.
Jedoch nur die primäre Analyse des Sprachsignals erfolgt bilateral. Die weitere
Verarbeitung von Sprache ist dann grösstenteils in der sprachdominanten linken
Hemisphäre angesiedelt.
10
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Ein Modell der Sprachverarbeitung, das in seinen frühen Phasen die AST-Hypothese von Poeppel integriert, ist das :
IV. Das Dual Stream Model der Sprachverarbeitung von Hickok und Poeppel (2004, 2007 & 2009)
Parameter-basierter Ansatz
Methoden: Bildgebung und Läsionsstudien
Erklärungsebene: Sprachwahrnehmung und Spracherkennung auf kortikaler Ebene
Einerseits um die Auswirkungen verschiedener Läsionen auf die Sprachverarbeitung und – produktion
erklären zu können, andererseits in Analogie zum visuellen Verarbeitungssystem, wo man einen
dorsalen und ventralen Strang unterscheidet, nehmen Hickok und Poeppel auch für die
Sprachverarbeitung zwei Verarbeitungsstränge an.
Der ventrale Strang ist weitgehend bilateral angelegt und seine Aufgabe besteht in der
Spracherkennung, d.h. dem Prozess, durch den das Sprachsignal mit der lexikalischen
Repräsentation/der semantischen und konzeptuellen Bedeutung zusammenzugebracht wird,
d.h. mapping sound to meaning.
Der dorsale Strang ist linksdominant und er erfüllt primär die Funktion der
Sprachwahrnehmung, indem er die akustische Sprachsignale mit artikulatorischen
Netzwerken im Frontalkortex verbindet.
11
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Die ersten Verarbeitungsschritte für beide Pfade erfolgen bilateral und parallel und sind z.T. sogar
redundant. Die teilweise Redundanz dieser spektralen und temporalen Signale bewirkt, dass wir auch
Sprache oft auch dann noch verstehen können, wenn das Sprachsignal schlecht ist.
1. Spektrotemporale Analyse: Eine Vorverarbeitung des auditorischen Inputs und damit des
Sprachsignals findet schon in der dem auditorischen Kortex vorgelagerten Hörbahn statt. Als
einer der ersten kortikalen Verarbeitungsschritte erfolgt dann in den dem primären
auditorischen Areal nachgelagerten dorsalen Gyri temporales superiores die
spektrotemporale Analyse des Sprachsignals. Die Integration der Sprachinformation erfolgt
dabei über zwei distinkte Zeitskalen – einem kurzen Informationsintegrationsfenster mit einer
Länge von 24-50 ms Gammafrequenz, d.h. der Sampling-Rate für segmentale
Representationen, und einem langen Integrationsfenster mit einer Länge von 150-300ms
Thetafrequenz , d.h. der Sampling-Rate für syllabische Repräsentationen. Während die linke
Hemisphäre eher weniger selektiv bei der Verarbeitung dieser beiden Sprachsignale zu sein
scheint, ist der neuronale Mechanismus zur Verarbeitung des Sprachsignals über lange
Integrationsfenster eindeutig rechtsdominant. Beide Hemisphären interagieren auf dieser
Verarbeitungsstufe miteinander.
2. Phonologische Verarbeitung: In den mittleren bis posterioren Sulci temporales superiores
erfolgt dann die weitere Verarbeitung des Sprachsignales auf phonologischer Ebene, d.h. die
Ergebnisse der spektralen und temporalen Analyse werden mit in den STS gespeicherten
phonologischen Codes abgeglichen.
3. Nach diesem Verarbeitungsschritt erfolgt die weitere Prozessierung des Sprachinputs in zwei
getrennten Bahnen.
Der ventrale Strang
In diesem Stadium haben wir jetzt phonologische Codes, aber das eigentliche Ziel der
Sprachverarbeitung ist ja, diese phonologischen Codes mit Bedeutung zu füllen. Die Verbindung
dieses phonologischen Codes mit höher repräsentierten lexikalischer, semantischer und
konzeptioneller Information erfolgt über den ventralen Strang.
Die Verarbeitung der Sprachinformation erfolgt im ventralen Strang grösstenteils bilateral und
parallel. Man nimmt an, dass es in jeder der beiden Hemisphäre zumindest einen Verarbeitungspfad
gibt, der Sprachsignale soweit verarbeiten kann, dass sie mit dem Inhalt eines mentalen Lexikons
abgeglichen werden können.
Das lexikalische Interface bilden die Regionen des posterioren Gyrus temporalis medialis und des
posterioren Sulcus inferior bilateral. Die Aufgabe dieses Interface ist das Mapping der über den
ganzen Kortex verteilten semantischer und konzeptueller Repräsentationen mit dem Output aus den
12
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
STS. Auf dieser Verarbeitungsebene scheint eine leichte Dominanz der linken Hemisphäre
vorzuliegen.
Der dorsale Strang:
Die Notwendigkeit eines ventralen Stranges mit der Funktion, den auditorisch vermittelten
Sprachinput mit über den Kortex verteilten Repräsentation von Bedeutung und Konzepten in Bezug zu
bringen, leuchtet intuitiv ein. Warum es aber für die Sprachverarbeitung, d.h. für das Sprachverstehen,
nicht für die Sprachproduktion, auch einen dorsalen Strang braucht, der den Sprachinput mit
artikulatorischen Repräsentation verbindet, ist nicht ganz so offensichtlich.
Folgende Gründe sprechen für eine auditorisch-motorische Integration des Sprachsignals:
1. Beobachtung, dass der gesprochene Laut keine 1:1-Entsprechung mit dem wahrgenommen
Sprachsignal hat. Der Buchstabe /d/ wird anders gehört, wenn danach ein /a/ folgt, als wenn
darauf ein /i/ kommt. Die Artikulation des /d/ ist immer dieselbe, die Wahrnehmung nicht. Die
Motortheorie der Sprachverarbeitung (Liberman, 1985) leitete aus dieser – übrigens falschen
Beobachtung – ab, dass Sprachlaute in ihrer invarianten, d.h. motorischen Form im Gehirn
gespeichert sein müssen.
2. Spracherwerb ist primär eine motorische Aufgabe. Das kleine Kind hört gesprochene Sprache
und muss diese so akkurat als möglich in Bewegungen des Vokaltraktes umsetzen, um diese
Laute selbst zu artikulieren zu können. Es braucht daher neuronale Mechanismen, die
Sprachlaute kodieren und diese sensorischen Codes nützen können, um selbst diese
Sprachlaute zu produzieren.
3. Auch ein erwachsener Sprecher ist auf das Feedback der auditorisch-motorischen
Integrationsschleife angewiesen, wenn er sauber artikuliert sprechen will. Dass auditorischer
Input auch bei der Sprachproduktion notwendig ist, zeigt sich daran, dass die Sprache von
Menschen, die ertauben, längerfristig unverständlicher wird und die Fähigkeit, neue Wörter zu
lernen, bzw. zu artikulieren, vermindert ist.
Im Modell von Hickok und Poeppel gibt es zwei verschiedene Ebenen der auditorisch-
motorischen Interaktion:
einmal auf Ebene der der einzelnen Sprachsegmente = Erwerb und Aufrechterhaltung
rudimentärer artikulatorischer Fähigkeiten
wie auch auf der Ebene der Sequenzierung der Sprachsegmente = Erwerb eines neuen
Wortes führt zu einer sensorischen Repräsentation dieses Wortes in der Form eines Codes
seiner Segmente und Silben. Diese kann wiederum dazu benutzt werden in einer
13
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Feedforward-Schlaufe die Artikulation des neuen Wortes zu ermöglichen, ebenso kann
gleichzeitig eine online Feedback-Kontrolle des gesprochenen Wortes erfolgen.
Bildgebende Studien verweisen auf ein ganzes Netzwerk von Regionen ausgehend vom posterioren
STS bilateral. Danach sind aber ausschliesslich nur noch Regionen auf der linken Hemisphäre
involviert und zwar eine Grenzregion im posterioren Übergangsgebiet der Sylvischen Fissur und
Parietal-Frontalkortex, die Area Spt (sie liegt innerhalb des Planum temporale, in der Faltung der
Sylvischen Fissur verborgen) sowie weitere Gebiete im Frontalkortex.
Die linke Area Spt/das sylvisch-parietale-temporale Areal hat die Funktion eines sensorisch-
motorischen Interfaces, dem die Transformation von sensorischem zu motorischem Code (und zurück
beim Sprechakt) obliegt. Die Area Spt ist zwar funktional eng mit den Spracharealen des
Frontalkortex verbunden, jedoch ist sie nicht rein sprachspezifisch, sondern zeigt bei fMRI-Studien
ebenfalls Aktivierungen beim Hören und verdeckten Produzieren von Summen. Läsionen im Bereich
der Area Spt führen zu Symptomen wie bei der Conduction Aphasia, das Sprachverständnis jedoch
bleibt intakt. Hickok (2009) interpretiert die Funktion dieses Gebietes als ein Areal zur sensorisch-
motorischen Integration für die Bewegungen des Vokaltraktes.
14
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Synopsis des Dual-Stream Modelles von Hickok und Poeppel
Auffallend am Modell von Hickok und Poeppel ist nicht nur das auditorische-motorische Interface, die
Area Spt, die so in keinem anderen Modell postuliert wird, sondern auch der Umstand, dass die ganze
Sprachverarbeitung nur im Kortex erfolgt. Subkortikale Gebiete wie z.B. die Basalganglien und der
Thalamus oder auch das Cerebellum spielen in ihrem Modell keine Rolle. Das ist erstaunlich, gerade
weil die beiden Forscher so sehr betonen, dass zur Sprachverarbeitung die Anbindung an
artikulatorische, bzw. motorische Gebiete im Frontalkortex wichtig ist. Cerebellum und subkortikalen
Regionen wie die Basalganglien jedoch spielen bei der Steuerung und Koordination von Bewegung
eine sehr wichtige Rolle
15
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
III. Das Integrative Speech Processing Framework von Kotz und Schwartze (2010)
Parameter-basierter Ansatz
Ebene: Sprachverarbeitung und Sprachproduktion.
Die Autoren betonen: Sprache transportiert Energiemuster über die Zeit. Darum wird ein
Interface für die Integration der Outputs der Systeme für die auditorische und temporale
Verarbeitung benötigt. Hier bieten sich die Motorsysteme an, da effiziente Bewegung ein akkurates
Timing und eine hohe zeitliche Koordination der einzelnen Muskelgruppen voraussetzt. Besonders
vom Cerebellum wie auch von den Basalganglien ist bekannt, dass sie nicht nur bei motorischen
Aufgaben, sondern auch bei kognitiven Leistungen die Funktion von Schrittmachern erfüllen können.
Die Sprachverarbeitung erfolgt folgendermassen: Das Sprachsignal gelangt über die Hörbahn mit
dem Thalamus als Relais in den primären auditorischen Kortex im Temporalkortex und in das
Cerebellum. Bei der weiteren Verarbeitung des Sprachsignals werden dann zwei parallele
auditorische Verarbeitungspfade unterschieden:
1. Die prä-attentive Encodierung der ereignisbasierten temporalen Struktur erfolgt im
Cerebellum, das über den Thalamus mit dem Frontalkortex verbunden ist.
2. Im temporalen Kortex erfolgt die Verarbeitung des Sprachsignals bis zum Abruf der
Gedächtnisrepräsentation weitgehend so, wie das für den ventralen Strang des Modells von
Hickok und Poeppel dargestellt wurde. Der Temporalkortex projiziert in den Frontalkortex.
.
16
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Ein System für die Sprachwahrnehmung
Die preSMA bindet die temporale Struktur, erhält Input vom Cerebellum und schickt Informationen an
den dorsolateralen Präfrontalkortex, wo die Gedächtnisrepräsentationen und die temporalen
Informationen integriert werden. Zusätzlich evaluieren die durch Aufmerksamkeit modulierbaren
Basalganglien die temporalen Beziehungen und unterstützen die Extraktion regelmässiger Zeitmuster.
Ebenfalls sind die Basalganglien zuständig für Re-Analyse und Re-Sequenzierung, wann immer die
temporale Struktur eines Stimulus unvertraut oder inkongruent ist. Sie erhalten dazu Input vom
preSMA und dem Frontalkortex, in den sie über den Thalamus wieder zurückprojizieren. Thalamus
und Cerebellum sind aber auch in direktem Austausch mit den Basalganglien
Ein System für die Sprachproduktion
Gedächtnisrepräsentation werden vom Temporalkortex zum Frontalkortex übermittelt, wo sie auf eine
zeitliche Ereignisstruktur abgebildet werden, die vom preSMA zusammen mit dem Cerebellum und
den Basalganglien generiert wurde. Cerebellum und Basalganglien übernehmen damit bei der Planung
der Sprachproduktion die Funktion von Schrittmachern. Das Cerebellum ist zudem bei der
Silbenformung beteiligt. In Interaktion miteinander benutzen das SMAproper, der Prämotorkortex und
der primäre Motorkortex diese temporale Basisstruktur, um die Artikulation zu steuern.
17
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Die Bedeutung des Thalamus
Das eingehende auditorische Sprachsignal wird immer - gleichgültig ob es dann in den primären
auditorischen Kortex oder in das Cerebellum weitergeleitet wird - vom Thalamus vorverarbeitet. Der
Thalamus reagiert auf Input entweder in einem tonischen Modus, der primär die Funktion hat, die
Linearität des Signals aufrechtzuhalten, oder mit Salven. Dieser Salvenmodus hat quasi die Funktion
eines Wecksignales für den Frontalkortex, die Salven an den Frontalkortex erfolgen mit denselben
temporalen Eigenschaften wie die des eingehenden Stimulus, was die Entdeckung des Signals
verbessert. Es wird spekuliert, dass dieses Salven-Feuer die salienten Wechseln des Energielevels des
Inputs gleichsam kennzeichnen kann, z.B. könnte es beim Sprachsignal On- und Off-Sets des
akustischen Signals und andere prägnante Merkmale markieren. Solche thalamischen Salven wären
damit in der Lage, die zeitlichen Beziehungen zwischen verschiedenen Ereignissen für die weitere
Verarbeitung im Kortex vermitteln und auch verstärken.
Im Cerebellum wird das Sprachsignal nach seiner ereignisbasierten temporalen Struktur prozessiert
und an den Thalamus zur Übertragung an den Frontalkortex weitergeleitet. Enkodiert der Thalamus
diesen Input als Salvenfeuer, kann er die zeitlichen Marker der Ereignisse präzis an den Frontalkortex
übermitteln. Parallel erhält er via der auditorischen Bahn eine linearere und kontinuierliche
Repräsentation des Sprachsignals, die der Thalamus im tonischen Modus weiterleitet, der detaillierte
spektro-temporale Struktur des Sprachsignals bewahren kann.
18
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Interessant in diesem Kontext ist nun die Tatsache, dass dieses Salvenfeuer des Thalamus durch
Interspikes-Intervalle von ca. 100 ms Dauer und der tonische Modus durch Intervalle von 30ms Dauer
charakterisiert ist. Diese Frequenzen entsprechen ungefähr der Sampling-Rate der zeitlichen
Integrationsfenster der beiden Hemisphären. Es macht damit fast den Anschein, als ob zumindest das
kürzere der beiden zeitlichen Integrationsfenster aus dem AST-Modell dadurch, wie der Thalamus
Informations-Chunks im tonischen Modus zusammenpackt, bestimmt wird.
Darstellung des tonischen Modus (a) oder des Salvenmodus (b) von Zellen des nucleus
geniculatus lateralis des Thalamus einer Katze bei visueller Stimulation
19
Seminar: Neurokognition von Hören und Sprache Angela M. Müller
Dozent: Dr. M. Meyer
Literatur
Boemio, A., Fromm, S., Braun, A., & Poeppel, D. (2005). Hierarchical and asymmetric temporal sens-
itivity in human auditory cortices. Nature Neuroscience, 8, 389–395. (nur für das Referat ben-
utzt)
Friederici, A.D. (2002) Towards a neural basis of auditory sentence processing. Trends in cognitive
Science, 6, 78–84.
Friederici, A.D., & Alter, K. (2004). Lateralization of auditory language functions: A dynamic dual
pathway model. Brain and Language, 89, 267–276.
Friederici, A.D., von Cramon, D.Y., &. Kotz, S.A. (2007). Role of the Corpus Callosum in Speech
Comprehension: Interfacing Syntax and Prosody. Neuron, 53, 135–145.
Hickok, G. (2009b). The functional neuroanatomy of language. Physics of Life Reviews, 6, 121–143.
Hickok, G., & Poeppel, D. (2004). Dorsal and ventral streams: A framework for understanding aspects
of the functional anatomy of language. Cognition, 92, 67–99.
Hickok G., & Poeppel D. (2007). The cortical organization of speech processing. Nature Review Neur-
oscience, 8, 393–402.
Kotz, S.A., & Schwartze, M. (2010). Cortical speech processing unplugged: a timely subcortico-cor-
tical framework. Trends in Cognitive Sciences 14, 392–399.
Poeppel , D. (2003). The analysis of speech in different temporal integration windows: Cerebral later -
alization as “asymmetric sampling in time”. Speech Communication,41, 245–55.
Poeppel, D. & Embick, D. (2005). The relation between linguistics and neuroscience. In Twenty-first
century psycholinguistics: four cornerstones (ed. A. Cutler), pp. 103–120. Hillsdale, NJ:
Lawrence Erlbaum Associates, Inc.
20