Kritik / Reinterpretation des »Gedächtnis«-Konzeptes als ...gerstner/Lerntext3.pdf · Wählen,...

24
1 Kritik / Reinterpretation des »Gedächtnis«-Konzeptes als kognitivistischer Fassung des Lernproblems Vorbemerkung Mit der kognitiven Wende, durch welche sich (wie gesagt) die bisher dominante SR- Psychologie in die zweite Reihe verwiesen sah, wurden einerseits kognitive Ansätze und Fra- gestellungen der alten Bewußtseinspsychologie - die von Ebbinghaus inaugurierte assoziati- onspsychologische Gedächtnisforschung, die Würzburger Schule der Denkpsychologie, die Berliner Schule der Gestalttheorie, etc. - die seinerzeit durch die behavioristische Umwälzung zurückgedrängt worden waren - Mitte oder Ende der fünfziger Jahre wieder aufgegriffen. (In- soweit konnte Sigmund Koch, der kritische Historiograph der Mainstream-Psychologie, die kognitive Wende in Anlehnung an die Freudsche Formel als »Wiederkehr des Verdrängten« charakterisieren.) Andererseits aber gewann der neue Kognitivismus von Anfang an dadurch gegenüber der alten kognitiven Psychologie seine Besonderheit, daß hier die kognitiven Pro- zesse nach dem Muster wissenschaftlicher und technischer Verfahren modelliert wurden: Als »Hypothesenprüfungen«, »Strategien«, »Heuristiken«, »intuitive Statistik« etc., vor allem (und die anderen Aspekte einbeziehend) aber als »Informationsverarbeitungs-Prozesse« durch Computer. Dabei muß die Besonderheit der Kognitiven Psychologie auf dem Hintergrund der sich ungefähr gleichzeitig entwickelnden interdisziplinären »cognitive science« gesehen wer- den, in welcher u.a. die Computer-Simulation psychischer Prozesse (etwa mit der Konstrukti- on computergestützter »Lernmaschinen« o.ä.) versucht wurde und sich das heute sehr bedeut- same Gebiet der »artificial intelligence« (AI), also »künstlichen Intelligenz« (KI) herausbilde- te. Hier sollen nicht psychische Prozesse simuliert, sondern leistungsfähige Hilfsmittel zur Problemlösung, Wissenskumulation etc. in verschiedenen Bereichen entwickelt werden. Die eigentliche Kognitive Psychologie ist (trotz vielfältiger Verbindungen und Überschneidun- gen) gegenüber diesen Bereichen dadurch gekennzeichnet, daß es hier nicht (notwendig) um reale Computeranwendungen, sondern um die theoretische Modellierung kognitiver Prozesse nach Analogie der Computer-Hardware und besonders -Software geht. Die den Kognitivismus kennzeichnende theoretische Computer-Metaphorik war es wohl auch, aus der die Möglichkeit der Durchsetzung des kognitiven »Paradigmas« gegenüber der SR- Psychologie erwuchs: Man hatte jetzt dem wesentlich an der Physik und Physiologie orien- tierten Naturwissenschaftlichkeitsanspruch der SR-Psychologie einen offenbar gleichrangi- gen, aus der Informatik bzw. Computerwissenschaft entliehenen wissenschaftlichen Exakt- heitsanspruch entgegenzusetzen, wobei man gleichzeitig dadurch im Vorteil war, daß nun- mehr auch bisher nicht als wissenschaftsfähig geltende Bewußtseinsprozesse streng wissen- schaftlich untersuchbar schienen. Die durch solche Bedingungen begünstigte Entwicklung verlief so rasch, daß bereits im Jahre 1967 Eric Neisser - in seinem Buch »Cognitive Psycho- logy« - den Vollzug des »Paradigma-Wechsels« verkünden und dokumentieren konnte. We- nig später kam es zu den ersten Gründungen einschlägiger Zeitschriften, so im Jahre 1970 der Zeitschrift »Cognitive Psychology« (die noch heute zu den einflußreichsten psychologischen Periodika gehört). Mit dieser Wende vollzog sich naturgemäß ein Wechsel der psychologischen Wissenschafts- sprache von der bisherigen Stimulus-Response-Terminologie zur metaphorisch gemeinten Computer-Terminologie: Statt von »Reiz«, »Reaktion«, »Kontingenz«, »Verstärkung« etc. redet man hier mit Bezug auf das menschliche Individuum von »Input«, »Output«, Enkodie- rung und Abruf, verschiedenartigen »Speichern« (als computersprachlicher Fassung des Ge- dächtnisses), hierarchischen Such- und Entscheidungsbäumen etc. Dabei kommen (in einem bestimmten Zweig der Kognitiven Psychologie, s.u.) innerhalb dieses neuen Sprachduktus auch kybernetische Konzepte über Steuerung und Kontrolle in offenen Systemen als fließende Einregulierng der Ist-Werte auf einen Soll-Wert durch Rückkoppelungsprozesse zur Geltung. In unserem Problemzusammenhang besonders wichtig ist der schon erwähnte Umstand, daß

Transcript of Kritik / Reinterpretation des »Gedächtnis«-Konzeptes als ...gerstner/Lerntext3.pdf · Wählen,...

1

Kritik / Reinterpretation des »Gedächtnis«-Konzeptes als kognitivistischer Fassung des Lernproblems

Vorbemerkung Mit der kognitiven Wende, durch welche sich (wie gesagt) die bisher dominante SR-Psychologie in die zweite Reihe verwiesen sah, wurden einerseits kognitive Ansätze und Fra-gestellungen der alten Bewußtseinspsychologie - die von Ebbinghaus inaugurierte assoziati-onspsychologische Gedächtnisforschung, die Würzburger Schule der Denkpsychologie, die Berliner Schule der Gestalttheorie, etc. - die seinerzeit durch die behavioristische Umwälzung zurückgedrängt worden waren - Mitte oder Ende der fünfziger Jahre wieder aufgegriffen. (In-soweit konnte Sigmund Koch, der kritische Historiograph der Mainstream-Psychologie, die kognitive Wende in Anlehnung an die Freudsche Formel als »Wiederkehr des Verdrängten« charakterisieren.) Andererseits aber gewann der neue Kognitivismus von Anfang an dadurch gegenüber der alten kognitiven Psychologie seine Besonderheit, daß hier die kognitiven Pro-zesse nach dem Muster wissenschaftlicher und technischer Verfahren modelliert wurden: Als »Hypothesenprüfungen«, »Strategien«, »Heuristiken«, »intuitive Statistik« etc., vor allem (und die anderen Aspekte einbeziehend) aber als »Informationsverarbeitungs-Prozesse« durch Computer. Dabei muß die Besonderheit der Kognitiven Psychologie auf dem Hintergrund der sich ungefähr gleichzeitig entwickelnden interdisziplinären »cognitive science« gesehen wer-den, in welcher u.a. die Computer-Simulation psychischer Prozesse (etwa mit der Konstrukti-on computergestützter »Lernmaschinen« o.ä.) versucht wurde und sich das heute sehr bedeut-same Gebiet der »artificial intelligence« (AI), also »künstlichen Intelligenz« (KI) herausbilde-te. Hier sollen nicht psychische Prozesse simuliert, sondern leistungsfähige Hilfsmittel zur Problemlösung, Wissenskumulation etc. in verschiedenen Bereichen entwickelt werden. Die eigentliche Kognitive Psychologie ist (trotz vielfältiger Verbindungen und Überschneidun-gen) gegenüber diesen Bereichen dadurch gekennzeichnet, daß es hier nicht (notwendig) um reale Computeranwendungen, sondern um die theoretische Modellierung kognitiver Prozesse nach Analogie der Computer-Hardware und besonders -Software geht.

Die den Kognitivismus kennzeichnende theoretische Computer-Metaphorik war es wohl auch, aus der die Möglichkeit der Durchsetzung des kognitiven »Paradigmas« gegenüber der SR-Psychologie erwuchs: Man hatte jetzt dem wesentlich an der Physik und Physiologie orien-tierten Naturwissenschaftlichkeitsanspruch der SR-Psychologie einen offenbar gleichrangi-gen, aus der Informatik bzw. Computerwissenschaft entliehenen wissenschaftlichen Exakt-heitsanspruch entgegenzusetzen, wobei man gleichzeitig dadurch im Vorteil war, daß nun-mehr auch bisher nicht als wissenschaftsfähig geltende Bewußtseinsprozesse streng wissen-schaftlich untersuchbar schienen. Die durch solche Bedingungen begünstigte Entwicklung verlief so rasch, daß bereits im Jahre 1967 Eric Neisser - in seinem Buch »Cognitive Psycho-logy« - den Vollzug des »Paradigma-Wechsels« verkünden und dokumentieren konnte. We-nig später kam es zu den ersten Gründungen einschlägiger Zeitschriften, so im Jahre 1970 der Zeitschrift »Cognitive Psychology« (die noch heute zu den einflußreichsten psychologischen Periodika gehört).

Mit dieser Wende vollzog sich naturgemäß ein Wechsel der psychologischen Wissenschafts-sprache von der bisherigen Stimulus-Response-Terminologie zur metaphorisch gemeinten Computer-Terminologie: Statt von »Reiz«, »Reaktion«, »Kontingenz«, »Verstärkung« etc. redet man hier mit Bezug auf das menschliche Individuum von »Input«, »Output«, Enkodie-rung und Abruf, verschiedenartigen »Speichern« (als computersprachlicher Fassung des Ge-dächtnisses), hierarchischen Such- und Entscheidungsbäumen etc. Dabei kommen (in einem bestimmten Zweig der Kognitiven Psychologie, s.u.) innerhalb dieses neuen Sprachduktus auch kybernetische Konzepte über Steuerung und Kontrolle in offenen Systemen als fließende Einregulierng der Ist-Werte auf einen Soll-Wert durch Rückkoppelungsprozesse zur Geltung. In unserem Problemzusammenhang besonders wichtig ist der schon erwähnte Umstand, daß

2

mit der neuen »kognitiven« Terminologie auch der Begriff des »Lernens«, der bisher im Mit-telpunkt der SR-psychologischen Theorienbildung stand (so daß man die ganze Richtung be-rechtigt als »Lerntheorie« bezeichnen kann), nunmehr seine zentrale Position einbüßte. Dies ging so weit, daß in dem erwähnten Manifest der kognitiven Wende von Neisser (1967) der Terminus »Lernen« als in irgendeinem Sinne systematischer Begriff praktisch nicht mehr vorkommt. In neuerer Zeit hat das Konzept des Lernens allerdings durch den im Umkreis der »Künstlichen Intelligenz« angesiedelten (und von manchen als Alternative dazu betrachteten) »konnektionistischen« Ansatz eine gewisse Wiederbelebung erfahren - allerdings selbst wie-der in einer reduzierten, mehr »metaphorischen« Weise, indem bestimmte Optimierungsvor-gänge, die in nach dem Muster neuronaler Netzwerke aufgebauten und programmierten Com-putern erreicht werden können, als »Lernprozesse« des Systems bezeichnet werden (s.u.).

Wenn also »Lernen« im Kognitivismus kaum eine selbständige konzeptionelle Bedeutung hat: Warum beschäftigen wir uns dennoch in unserer Arbeit über Lernen mit bestimmten As-pekten der Kognitiven Psychologie? Dies versteht sich einerseits daraus, daß aus der erwähn-ten kybernetischen Variante der Kognitiven Psychologie, insbesondere durch deren hand-lungstheoretische Weiterentwicklungen, wesentliche Gesichtspunkte für die Entfaltung eines begründungstheoretischen Lernkonzepts gewinnbar sind (dies wird jedoch erst im nächsten Teilkapitel 2.4 dargestellt und diskutiert); weiterhin daraus, daß - während andere Zweige des Kognitivismus, wie »Begriffsbildung«, »Problemlösen« etc. (wie z.T. später noch erörtert) mehr der abgrenzenden Präzisierung des Lernkonzepts dienlich sind - das kognitivistische Gedächtnis-Konzept für die Klärung des Lernproblems unmittelbar relevant ist. Dies geht soweit, daß man (wie etwa aus einer Gegenüberstellung der SR psychologischen und kogniti-vistischen Grundbegriffe von Bredenkamp & Wippich, 1977, S.13f, hervorgeht) das »Ge-dächtnis« in gewissem Sinne als die kognitivistische Fassung oder Spezifizierung des SR-theoretischen Lernkonzeptes betrachten kann.

In die gleiche Richtung weist die Benennungsänderung einer (besonders wichtigen und reprä-sentativen) psychologischen Zeitschrift, die noch im Jahre 1962 unter dem Skinner verpflich-teten Titel »Journal of Verbal Learning and Verbal Behavior« gegründet, aber 1985, mit ih-rem 24. Band, in »Journal of Memory and Language« umbenannt wurde. Zur Begründung weisen die Herausgeber (M.A. Just und P.A. Carpenter), darauf hin, daß diese Umbenennung eigentlich schon seit mehreren Jahren überfällig gewesen sei, da sie dem wirklichen Inhalt der Zeitschrift und der Natur des Forschungsfeldes entspreche. Im gleichen Trend werden in neu-eren Gesamtdarstellungen das »Lernen« (im SR-psychologischen Sinne) und das »Gedächt-nis« (als kognitivistisches Konzept) oft zusammen abgehandelt, meist, indem einem ersten Teil über »Lernen« ein zweiter Teil über »Gedächtnis« folgt. Nicht selten kommen nach der Durchsetzung der kognitiven Wende beide Bezeichnungen, »learning« und »memory«, schon im Titel einschlägiger Lehrbücher o.ä. vor, so u.a. bei Stein & Rosen (1974), Crowder (1976), Flaherty et al. (1977), Wickelgren (1977), Hintzman (1978), Tarpy & Mayer (1978), Bugelski (1979), Ellis et al. (1979), Spear & Campbell (1979) und Houston (1981).

Aus der damit dargelegten Nähe zwischen »Lernen« und »Gedächtnis« (die ja auch dem all-täglichen Vorverständnis entspricht) ist der Umstand, daß wir uns im folgenden mit der kognitivistischen Gedächtnisforschung beschäftigen wollen, wohl hinreichend plausibel ge-macht. Dies bedeutet aber nun keineswegs, daß das begriffliche Verhältnis zwischen »Ler-nen« und »Gedächtnis« in der Literatur schon geklärt worden ist, so daß wir bei unseren Ana-lysen darauf zurückgreifen könnten. Im Gegenteil: In den einschlägigen Darstellungen werden ziemlich durchgehend das »Lernen« als Spezialität der SR-Psychologie und das »Gedächtnis« als Spezialität der Kognitiven Psychologie mehr oder weniger begriffslos aneinandergereiht oder gegenübergestellt.

So müssen wir also bei unseren Bemühungen um eine begründungstheoretische Kritik und Reinterpretation der kognitivistischen Gedächtnisforschung auch die Voraussetzungen dafür

3

zu schaffen suchen, später den Stellenwert des Gedächtniskonzepts innerhalb einer subjekt-wissenschaftlichen Lerntheorie genauer auseinanderlegen zu können.

Theoretische Grundkonzeptionen kognitivistischer Gedächtnisforschung Wie im Kognitivismus generell Fragestellungen aus der frühen bewußtseinspsychologischen Phase der Psychologie vor der Durchsetzung des Funktionalismus/Behaviorismus aufgegrif-fen und neu gefaßt wurden, so knüpft auch die kognitivistische Gedächtnisforschung an klas-sischen Untersuchungen, nämlich denen von Ebbinghaus und seinen unmittelbaren Nachfol-gern über das menschliche Gedächtnis an. Ebbinghaus (1885 etc.) ging es (gemäß dem »struk-turalistischen« Grundansatz der damaligen Psychologie) - wie Wundt - nicht um die Bedingt-heiten des Verhaltens anderer Menschen, sondern um die Aufbauelemente und -gesetze des Psychischen. Das Phänomen, dessen Aufbau Ebbinghaus erforschen wollte, war jedoch nicht das Bewußtsein im Ganzen, sondern spezieller das Gedächtnis als quasi zeitlicher Prozeß-Aspekt des Bewußtseins. Aber auch dabei war es sein Ziel, die Elemente, hier von Gedächt-nisprozessen, zunächst möglichst rein, d.h. unbeeinflußt von zusätzlichen komplizierenden Faktoren, zu erfassen, um so den Gedächtnis-Aufbau »von unten« her auf die assoziativen Verknüpfungsgesetze der Elemente hin untersuchen zu können. Das »Gedächtniselement«, das Ebbinghaus unter dieser Zielsetzung herausanalysierte (und das in gewissem Sinne die gleiche forschungsstrategische Funktion hatte wie Wundts einfache Empfindungen und Ge-fühle), war die »sinnlose Silbe«: Ein Kunstwort aus drei Buchstaben, zwei Konsonanten und einem von diesen umschlossenen Vokal, z.B. MUB, NUF, MEV. Durch das Lernen und spä-tere Reproduzieren bzw. Wiedererkennen solcher sinnloser Silben sollten die Gesetze des Behaltens und Vergessens ohne Verfälschungen durch schon vorher im Alltag Gelerntes und Eingeprägtes, eben in reiner Form, faßbar werden. Dazu entwickelten Ebbinghaus und seine Mitarbeiter (so insbesondere Müller & Schumann, 1894) spezifische »Gedächtnismethoden« ‚ z.B. »Methode des Erlernens«, »Ersparnismethode«, »Methode des Behaltens«; das zeitliche Verhältnis zwischen Lernen und Vergessen des Materials wurde in sog. Gedächtniskurven bzw. Vergessenkurven dargestellt (vgl. die später von dem Ebbinghaus-Schüler Jost, 1897, aufgestellten »Jostschen Gesetze«) etc.

Die kognitivistische Gedächtnisforschung hat mit der klassischen Gedächtnisforschung ge-meinsam, daß dabei so gut wie ausschließlich sprachliches bzw. symbolisches Material (i.w.S.) benutzt wird, allerdings neben sinnlosen Silben zunehmend auch bedeutungsvolle Wörter, Sätze, bis hin zu ganzen Texten. Das entscheidende Spezifikum der Gedächtnisfor-schung nach der kognitiven Wende ist jedoch - wie gesagt - die Verwendung von auf die Computer-Metapher gestützten Termini und Modellen. Dabei wurde praktisch von Anfang an (seit den fünfziger Jahren) nicht nur das Gedächtnis in Analogie zum Computerspeicher ge-setzt, sondern man entwickelte darüber hinaus theoretische Konzepte, in denen das Gedächt-nis als aus nicht nur einem, sondern aus zwei bzw. drei unterschiedlichen Speichern bestehend modelliert wurde. Die (heute allerdings gebrochene, s.u.) Herrschaft von solchen »Mehrspei-cher-« oder »Mehrkomponentenmodellen« begann wohl mit Broadbent (1959), dessen Unter-suchungen über die begrenzte Kanalkapazität des menschlichen Sensoriums die Annahme eines »Zwischenspeichers« (»buffer«), der bei Überschreitung der sensorischen Aufnahmefä-higkeit die ein kommende Information kurzfristig festhalten kann, als vom bisher allein be-trachteten Langzeitgedächtnis unterscheidbar nahelegte. Im weiteren wurde daraus, über mehrfache Umdeutungen und Erweiterungen, ein Dreispeichermodell des Gedächtnisses, wie es von Atkinson & Shiffrin (1968) in Zusammenfassung vorgängiger Untersuchungen und Diskussionen entworfen worden ist und in gewissen Strömungen der Kognitiven Psychologie noch heute (teilweise abgewandelt und ergänzt) tradiert wird. Demnach hat man einen Ultra-kurzzeitspeicher mit einer Haltezeit von 1/4 bis 2 Sekunden als »Sensorisches Register« (SR), einen Kurzzeit-Speicher (Short term memory = STM) mit mehreren (5-20) Sekunden Halte-

4

zeit und einen Langzeit-Speicher (LTM) mit unbegrenzter Haltezeit (das eigentliche »Ge-dächtnis«) zu unterscheiden. Dabei ist vorausgesetzt, daß Schwierigkeiten bei der Aktualisie-rung von Daten aus dem Langzeit-Speicher nicht auf Grenzen der Haltezeit, sondern auf Mängel der Wiedererinnerung, also des Abrufprozesses, zurückgehen. Der Informationsfluß soll gemäß diesen Modellvorstellungen vom SR zum STM, von da aus zum LTM und (beim Erinnern als »Abruf« aus dem LTM) wieder in den STM (und von da aus u.U. noch in eine Art von »Response-Generator«, der die Umsetzung der Information in manifestes Verhalten besorgt) gehen.

Die Differenzierung zwischen sensorischem Register und Kurzzeitspeicher wurde als Über-gang von der bloßen Reizinformation zu einer ersten (von mir gleich näher charakterisierten) Versprachlichung im STM gekennzeichnet, wobei die Aufnahme der Information in das sen-sorische Register aufmerksamkeitsunabhängig, deren Überführung in den STM aber nur auf-grund von Aufmerksamkeitsprozessen vollziehbar sein soll (vgl. etwa Crowder & Morton 1969).

Zur Begründung der Unterscheidung zwischen STM und LTM wurde etwa auf vielfältige Befunde verwiesen, denen gemäß der STM eine gegenüber dem LTM begrenzte Aufnahme-kapazität haben soll (entsprechend den meisten experimentellen Resultaten zwischen 5 und 9 gleichzeitig rezipierbare Items), so daß, um die weitere Informationsaufnahme zu ermögli-chen, der Inhalt des STM im LTM abgelegt werden muß. Weiter wurden experimentelle Er-gebnisse angeführt, aus denen hervorgehen soll, daß die im Kurzzeit-Speicher enthaltenen Informationen nur durch aktive Kontrollprozesse wie Wiederholen, Memorieren und andere Behaltensstrategien zu fixieren, also quasi durch eine Verbalschleife aufrechtzuerhalten sind. Solche Aktivitäten sollen die Voraussetzung für die Überführbarkeit in den LTM darstellen, wo sie dann ohne besondere Behaltensstrategien verharren. (Lediglich im STM gespeicherte Telefonnummern z.B. halten sich nur durch inneres Wiederholen und erzwingen alsbaldiges Wählen, da sie sonst wieder entfallen, während im LTM gespeicherte Telefonnummern jeder-zeit beliebig abrufbar sind, vgl. Schönpflug & Schönpflug 1983, S.204). Häufig wurde dabei - indem man das Ausmaß der genannten Kontrollprozesse als zeitabhängig betrachtete - eine einfache Entsprechung zwischen der Verweildauer im STM und der Behaltensleistung im LTM angenommen und experimentell »bestätigt«. Als besonders schlüssig zur Begründung für die Notwendigkeit der Unterscheidung zwischen STM und LTM gelten Befunde, aus de-nen hervorgeht, daß bei manchen Formen von Amnesie der Kurzzeitspeicher bei voller Funk-tionsfähigkeit des Langzeitspeichers gestört sein kann (vgl. etwa Milner 1970 und Warrington 1971).

In besonderem Grade theoretisch relevant sind Hypothesen und Resultate über verschiedene »Kodierungsstufen« bei der Aufnahme der Information in den Kurzzeitspeicher und bei deren Übergang in den Langzeit-Speicher: Während im Kurzzeitspeicher, obzwar der Input bereits durch die Überführung aus dem sensorischen Register in sprachlicher Form vorliegt, per Ko-dierung dennoch eine mehr sensorische Ordnung nach den akustischen bzw. phonetischen Merkmalen der verbalen Items entstehen soll, wird als Resultat einer zweiten Kodierungsstufe eine Ordnung nach (sprachlichen) Bedeutungsbeziehungen unabhängig von der sinnlichen Erscheinungsweise der Elemente, also eine semantische Ordnung unterstellt (vgl. Baddeley 1966) - also etwa im STM phonetische Ordnung nach Klangähnlichkeit: BAUM, SAUM, RAUM, TRAUM, und im LTM semantische Ordnung: KAMPF, KRIEG, FEHDE, SCHLACHT (vgl. Schönpflug & Schönpflug 1983, S.205).

Die Kodierungsprozesse sind im übrigen, in mehr oder weniger enger Verbindung mit dem geschilderten Mehrspeicher-Modell, noch differenzierter untersucht und klassifiziert worden. Dabei unterschied man etwa eine »reduktive Kodierung«, in welcher (ggf. innerhalb des STM) aufgrund der begrenzten Aufnahmekapazität die Information hinsichtlich bestimmter Aspekte selegiert, in »Chunks« bzw. »Clustern« gebündelt etc., und so auf bestimmte Kenn-

5

werte für die Gesamtinformation reduziert wird, von einer »elaborativen Kodierung«, in wel-cher (ggf. im LTM) von den Individuen zwecks Behaltens und Abrufbarkeit aktiv Bedeu-tungsimplikationen und -zusammenhänge, die ursprünglich im Material gar nicht enthalten waren, her ausgehoben werden (vgl. dazu die ausführlichen Darstellungen von Bredenkamp & Wippich II, 1977, S.4Off).

Auf der Grundlage des Dreispeicher-Modells sind auch darauf bezogene Vorstellungen über die Eigenart des Wiedererinnerns, also der »Abrufvorgänge«, entwickelt worden. So wurde etwa angenommen, daß bei jedem Abrufvorgang zunächst eine spezifische Abruf-Information (»probe information«) im STM quasi als Frage an das LTM im STM gespeichert ist, wodurch selektiv bestimmte Informationen aus dem LTM aktiviert und (u.U. per Eintritt in das STM) zugänglich bzw. bewußt gemacht werden. Dabei soll mit je dem vollzogenen Abruf die damit aktivierte Information im LTM gegenüber anderen Informationen selektiv gestärkt, d.h. aktua-lisierbar werden, womit - wenn weitere LTM-Inhalte erfordert sind - zur Relativierung solcher Einengungen die Abruf-Information ausgewechselt werden muß. Die Wirksamkeit einer Ab-ruf-Information ist - so wird angenommen - darüber hinaus von bestimmten Kontext-Bedingungen abhängig: Demnach kann - wenn der Kontext, in dem eine Information steht, sich von der Speicherungssituation bis zur Abrufphase verändert hat - der Zugang zum LTM blockiert sein. Weiterhin werden für bestimmte Abruf-Schwierigkeiten Interferenzen zwi-schen ähnlichen Items (etwa im STM phonemische Ähnlichkeiten, im LTM semantische Ahn-lichkeiten) verantwortlich gemacht, wodurch mit der Aktualisierung einer ähnlichen irrele-vanten Information die relevante (d.h. in der Abruf-Information erfragte) Information quasi verstellt wäre (vgl. dazu auch Bredenkamp & Wippich II, 1977, S.88ff).

Neben der Unterscheidung zwischen SR, STM und LTM sind - in wechselndem Verhältnis zum Dreispeicher-Modell - weitere Unterscheidungen verschiedener Gedächtnisarten vorge-schlagen, diskutiert und teilweise wie der verworfen worden. Die wohl relevanteste dieser Unterscheidungen, die sich bis heute weitgehend eingebürgert hat, ist die von Tulving (1972) erstmals eingebrachte Differenzierung zwischen einem »episodischen« und einem »semanti-schen« Gedächtnis. Als dem episodischen Gedächtnis zugehörig gelten Gedächtnisinhalte, die sprachliche Repräsentanzen jeweils bestimmter, raumzeitlich bzw. geographisch-historisch fixierbarer Ereignisse darstellen, bei denen der Einprägungsvorgang lokalisiert werden kann: Ich habe dich das letzte mal vor 3 Jahren in Kopenhagen gesehen (was impliziert, daß ich mir damals an diesem Ort eingeprägt habe, was ich heute erinnern kann).

Im semantischen Gedächtnis dagegen sollen nicht Repräsentanzen konkreter Ereignisse, son-dern Repräsentanzen begrifflicher Strukturen oder Ordnungen gespeichert sein, wobei der Zusammenhang zwischen diesen Repräsentanzen nicht im raumzeitlichen Bezugssystem, sondern nach Regeln, Formeln, Algorithmen hergestellt ist, die über die aufgenommene In-formation hinausgehende Inferenzen, Schlußfolgerungen enthalten bzw. gestatten. So habe ich das Statement »ein physischer Gegenstand kann sich nicht gleichzeitig an verschiedenen Orten befinden« mir niemals für sich genommen eingeprägt, kann es aber dennoch über Infe-renzaktivitäten jederzeit aus meinem semantischen Gedächtnis abrufen. Aber auch einfache sprachliche Über- und Unterordnungen, wie »Löwen sind Säugetiere« oder »ein Mann ist ein männlicher Mensch«, haben keine »episodische«, sondern eine »semantische« Struktur, gehö-ren also nicht zu meinem anschaulichen »Weltwissen«, sondern zu meinem »propositionalen« (aussagebezogenen) Wissen als Grundlage (und Resultat) von Denkaktivitäten aller Art (vgl. Bower & Hilgard 1984, S.258f). In Abhängigkeit von der somit unterstellten unterschiedli-chen Struktur des episodischen und semantischen Gedächtnisses werden für beide auch unter-schiedliche Arten von Wiedererinnerns- bzw. Abrufvorgängen zur Aktualisierung der jeweili-gen Repräsentanzen angenommen: Mit Bezug auf »episodisch« gespeicherte Repräsentanzen soll das Erinnern in raumzeitlich orientierten Suchprozessen bestehen (warte mal, 1984 waren wir in Norwegen in Ferien, danach bin ich krank geworden, seitdem waren wir nicht mehr

6

weg, also muß der Oesterreich-Urlaub früher gewesen sein). Beim Erinnern von Repräsentan-zen im semantischen Gedächtnis dagegen bewege man sich innerhalb der dort »abgelegten« sprachlichen, logischen, axiomatischen Ordnungen hin und her, um schließlich den Schnitt-punkt im Wissenssystem zu finden, der jeweils konkret »gefragt« ist (ob ich dies als »ideolo-gisch« bezeichnen kann, hängt davon ab, wieweit mit »Ideologien« lediglich verschleiernde Rechtfertigungssysteme oder auch positive Welt- und Lebensdeutungen gemeint sind; nach dem aktuellen Bedeutungszusammenhang scheint die erste Variante hier angemessener). Zur Spezifizierung derartiger Zusammenhangsstrukturen wurden im weiteren verschiedene Mo-delle sog. semantischer Netzwerke vorgeschlagen, in denen unterschiedliche hierarchische, topographische etc. Ordnungsprinzipien der einschlägigen Gedächtnisrepräsentanzen ange-nommen und untersucht werden (vgl. etwa Bredenkamp & Wippich II, 1977, S.l08ff). Dieses zunehmende Interesse an semantischen Strukturen führte (wie erwähnt) zu bestimmten Ände-rungen der Materialien für die Gedächtnisforschung von einzelnen Elementen (sinnlosen Sil-ben, Buchstaben, Symbolen, Worten) und deren Auflistung hin zu ganzen Texten bzw. Dis-kursen, deren Rezeption, Strukturierung und Reproduktion empirisch analysiert wurde (die neueren Entwicklungen dieses Forschungszweiges sind von Bower, der - z.B. zusammen mit Anderson - dazu selbst Modellvorstellungen bzw. Resultate beigetragen hat, zusammenfas-send dargestellt worden; vgl. Bower & Hilgard 1984, S.275ff).

Mit der wachsenden Bedeutung semantischer Zusammenhänge und Strukturen innerhalb der kognitivistischen Gedächtnisforschung gingen (naturgemäß) zunehmende terminologische und theoretische Bezüge zur Linguistik einher - wobei derartige Affinitäten entscheidend da-durch begünstigt wurden, daß auch die Linguistik (in bestimmten Strömungen) eine »informa-tionale« Wende durchgemacht hat und heute als Kognitive Linguistik sich mehr oder weniger der Computer-Metapher verpflichtet sieht. Als eine Art von Reaktion darauf, aus welcher die (später noch zu diskutierende) »semantische« Einseitigkeit moderner kognitivistischer Ge-dächtnisforschung schlaglichtartig erhellt, wurde von Cohen & Squire (1980) eine weitere Unterscheidung, nämlich die zwischen »propositionalem Gedächtnis« (»knowing that«) und »prozeduralem Gedächtnis« (»knowing how«) als wesentlich nahegelegt (und ebenfalls u.a. mit Hinweis auf die getrennte Störbarkeit beider »Gedächtnisse« bei amnestischen Patienten begründet). Damit werden praktisch alle bisher unterschiedenen Gedächtnisarten (bis auf das in diesem Zusammenhang nicht diskutierte »Sensorische Register«), da an verbalem bzw. symbolischem Material realisiert, auf die Seite des »propositionalen«, d.h. aussagebezogenen, Gedächtnisses geschlagen: Auf diese Weise ist die hier bisher vernachlässigte Selbstverständ-lichkeit in Erinnerung gebracht ist, daß auch nichtverbale Aktivitäten in entsprechenden Fä-higkeiten oder Fertigkeiten (etwa eine Ebene feilen oder Klavierspielen zu können) als »ge-speichert« und bei Bedarf »abrufbar« betrachtet werden können. Tulving, der (wie gesagt) seinerzeit die Unterscheidung zwischen episodischem und semantischem Gedächtnis einge-führt hatte, zog daraus in neuerer Zeit (1985a, b) die Konsequenz, indem er das episodische und semantische Gedächtnis (einschließlich vorgeordneter Kurzzeitspeicher) als »deklarati-ves« Gedächtnis zusammenfaßte und diesem das »prozedurale Gedächtnis« gegenüberstellte, das keine Bewußtseinsprozesse voraussetze, im ganzen ein primitiveres System darstelle und deswegen bereits bei Tieren zu finden sei. Damit ist hier zwar einerseits eine wenigstens klas-sifikatorische Einbeziehung der nichtverbalen Verhaltensweisen, wie sie von der SR Psycho-logie untersucht wurden, in das Gedächtnis-Konzept vollzogen. Andererseits aber wird auf diese Weise deutlich, daß praktisch die gesamte, aus der Ebbinghausschen Tradition des ver-balen Assoziationslernens stammende und theoretisch wie methodisch auf verbal-symbolisches Material fixierte kognitivistische Gedächtnisforschung bis in ihre neuesten Entwicklungen zur Analyse des menschlichen Bewegungslernens kaum beigetragen hat: Statt dessen wurde das Problem des »motor learning« einem Spezialgebiet überantwortet, in wel-chem zwar u.a. auch theoretische Anleihen bei der kognitivistischen Gedächtnisforschung gemacht werden, die aber im wesentlichen ihre eigene konzeptuelle Tradition, die kaum auf

7

die Entwicklung des Kognitivismus im Ganzen zurückwirkte, hervorgebracht hat (ich komme darauf zurück).

Die üblichen, mit dem Umfang des empirischen Materials stetig wachsen den Schwierigkeiten bei der Reproduktion und Interpretation der Befunde (die hier nicht im einzelnen dargestellt werden sollen) führten nun dazu, daß seit den frühen siebziger Jahren (mindestens neben den Speichermodellen) ein anderer theoretischer Grundansatz hervortrat: Die alternative Model-lierung von Gedächtnisprozessen im Konzept der »Verarbeitungsebenen« (»levels of proces-sing«) von Craik & Lockart, das 1972 in einem berühmten Artikel zum erstenmal vorgestellt wurde.

Craik und Lockart glossieren in diesem Artikel (»Levels of Processing. A framework for me-mory research«) die den überkommenen Mehrspeicher Modellen zugrundliegende Konzepti-on des »Speichers« als »box model« und stellen diese von da aus hinsichtlich ihrer theoreti-schen und empirischen Tragfähigkeit grundsätzlich in Frage: Die damit verbundene Vorstel-lung des Durchlaufs der Information durch verschiedene fixierte Speicher sei zu unflexibel und würde zudem die verschiedene Behaltensdauer von unterschiedlich kodierten Items eher (durch die Definition der »Speicher«) hypostasieren als wirklich erklären. Außerdem seien vorliegende experimentelle Befunde (hinsichtlich Behaltenskapazität, Kodierung und Eigenart des Vergessensprozesses) mit dem Speichermodell nicht hinreichend zu interpretieren.

Das alternative Modell von Craik & Lockart bezieht sich (in seiner ursprünglichen Form) we-sentlich auf den Einprägungs- bzw. Kodierungsprozeß als erste Phase des Gedächtnisvor-gangs. Die Besonderheit dieses Modells besteht global gesehen darin, daß hier in einer gene-rellen Umorientierung der Untersuchungsstrategien die Behaltensleistung nicht als Eigen-schaft des jeweiligen Speichers, sondern als Nebenprodukt der perzeptiv-begrifflichen Verar-beitung des Materials betrachtet wird. Dabei kehrt man das Verhältnis zwischen Kodierung und Haltezeit quasi um: Die kürzere oder längere Haltezeit ist demnach nicht das Charakteris-tikum verschiedener Speicher mit unterschiedlichen Kodierungsformen, sondern unterschied-liche Kodierungsformen führen aufgrund unterschiedlich intensiver Auseinandersetzung mit dem Material zu verschiedenen Haltezeiten. Diese verschiedenen Kodierungsformen werden als unterschiedliche »Verarbeitungsebenen« (»levels of processing«) - 1. Analyse von physi-kalischen oder sensorischen Zügen, 2. figurale Mustererkennung bzw. phonetische Identifizie-rung, also perzeptuelle Ebene, 3. semantische Analyse - näher bestimmt. Im Konzept der sen-sorischen Prozessebene ist das »sensorische Register«, in der perzeptuellen Ebene das STM und in der semantischen Ebene das LTM (einschließlich der dazu beigebrachten experimen-tellen Befunde) reinterpretiert bzw. »funktionalisiert«.

Die somit herausgehobenen Ebenen werden - dies ist ihre entscheidende Bestimmung - durch wachsende »Tiefe« (»depth«) der Auseinandersetzung mit dem Material, d.h. Akzentuierung der elaborativen Kodierung gekennzeichnet. Dabei sollen auch innerhalb einer Verarbeitungs-ebene noch unterschiedliche Grade der Verarbeitungstiefe möglich sein, z.B. indem man auf der semantischen Ebene den Kontext eines Begriffs unterschiedlich umfassend und eindrin-gend expliziert. Demnach wäre die Verarbeitungstiefe eher ein Kontinuum mit qualitativen Umschlägen von einer Ebene zur nächst höheren. Generell wird dabei angenommen, daß es von der so gefaßten Tiefe der Informationsverarbeitung abhängig sei, wie stark sich die jewei-lige Gedächtnisspur ausprägt, wie lange also die entsprechende Information behalten wird.

Der dergestalt angenommene Zusammenhang zwischen Prozeßebenen Tiefe und Behaltens-dauer wird mit Hinweis auf damit verbundene wachsende Aktualisierbarkeit von schon er-worbenen, stabilisierenden Wissens-Kontexten begründet: Während auf der sensorischen E-bene lediglich aktuelle Merkmale, die entsprechend schnell wieder entfallen, kodierbar seien, werde das Material auf der perzeptuellen und besonders auf der semantischen Prozeßebene in vorhandene Wissensstrukturen eingeordnet, so als Teil bzw. Aspekt des schon erworbenen

8

überdauernden Wissens integriert und damit selbst überdauernder Wissensbestand des Indivi-duums.

Eine in diesem Zusammenhang charakteristische experimentelle Untersuchung (mit zehn Ein-zelexperimenten) stammt von Craik & Tulving (1975): Hier bot man den Vpn eine Liste mit Wörtern kurzzeitig dar, wobei vor der Darbietung jedes Wortes eine darauf bezogene Frage gestellt wurde. Als wesentliche unabhängige Variable diente die Variation der Fragen hin-sichtlich der damit zu induzierenden Verarbeitungstiefe (>depth of semantic involvement<, S.268) bei der Kodierung der jeweiligen Wörter: Eine sensorische Analyse des jeweiligen Wortes sollte durch Fragen über dessen physische Struktur (ist das Wort in Großbuchstaben gedruckt?) induziert werden; eine phonemische Analyse durch Fragen über die Reim-Charakteristik (reimt sich das Wort auf »train«?); eine semantische Analyse durch kategoriale Fragen (ist das Wort ein Tiername?) oder durch Satzergänzungs-Fragen (paßt das Wort in den Satz »the girl placed the - on the table«?). Nach einer langen Serie von derartigen Fragen mit anschließenden Wortdarbietungen (wobei jeweils die Hälfte der Fragen mit Ja bzw. mit Nein zu beantworten waren) wurden die Vpn (mit verschiedenen »Gedächtnismethoden«) einer für sie unerwarteten Behaltensprüfung unterzogen. Als all gemeines Resultat ergab sich dabei, daß die Versuchspersonen bei den >tieferen< Kodierungsformen sowohl längere Zeit zur Ein-prägung brauchten wie in der Behaltensprüfung zu besseren Resultaten kamen.

Um die Frage zu beantworten, wieweit nur die längere Dauer der Kodierungsphase oder tat-sächlich die wachsende Verarbeitungstiefe zu den besseren Behaltensleistungen geführt hatte, wurden u.a. in einem weiteren Experiment Bedingungen hergestellt, unter denen komplexere sensorische Kodierungsaufgaben längere Zeit in Anspruch nahmen als leichtere semantische Kodierungen, wobei sich ergab, daß dennoch auf dem semantischen Verarbeitungsniveau bessere Behaltensleistungen erzielt wurden etc.

Als eine Quintessenz aus ihren (hier nur ausschnitthaft dargestellten) Untersuchungen heben die Autoren heraus: »All these studies conform to the new look of memory research in that the stress is on mental operations, items are remembered not as presented stimuli acting on the organism, but as components of mental activity. Subjects remember not what was ‘out there‘ but what they did during encoding« (S.292).

Weiterhin wurde innerhalb der Verarbeitungsebenen-Konzeption die unterschiedliche Funkti-on der Aufmerksamkeit für die Kodierung auf den verschiedenen Ebenen hervorgehoben: Die sensorische Kodierung verlaufe ohne Aufmerksamkeits-Zuwendung. Die perzeptive Kodie-rung sei dagegen an Aufmerksamkeitsprozesse gebunden, wobei die so kodierten Inhalte nur solange behalten würden, wie ihnen Aufmerksamkeit zugewendet wird, nach dem Aufmerk-samkeitsentzug aber vergessen; generell wird davon ausgegangen, daß die Inhalte des Kurz-zeitgedächtnisses dem Individuum phänomenal präsent sein müssen, also keinen bewußtsein-sunabhängigen Bestand haben. Die semantische Kodierung schließlich komme durch spezifi-sche intensivierte Aufmerksamkeitszentrierung auf die perzeptiv kodierten Inhalte zustande und sei, wenn vollzogen, in ihrem Bestand nicht mehr von der Aufmerksamkeit bzw. vom Bewußtsein abhängig etc.

Von diesen Vorstellungen aus kamen Craik & Lockart zu einer Differenzierung verschiedener Typen des Einprägensprozesses: Im »Typ I«-Prozeß erfolge die Einprägung durch bestimmte Aktivitäten des Memorierens innerhalb der perzeptiven Verarbeitungsebene, ohne daß dabei eine den aktuellen Einprägungs- bzw. Festhaltensprozeß über dauernde Gedächtnisspur zustandekäme. Im »Typ II«-Prozeß dagegen erfolge eine zunehmend tiefere Analyse des Ma-terials; das Einprägen geschehe mithin durch den Übergang zur höheren, semantischen, Pro-zeßebene, womit ein Festhalten des Gedächtnisinhaltes über die aktuelle Kodierungs-/Einprägungssituation hinaus erreichbar sei. In diesem Problemzusammenhang kommen die

9

Autoren u.a. zu einer neuen Deutung von vor liegenden experimentellen Resultaten über den Effekt der Wiederholung für das Behalten:

Das memorierende Wiederholen der einzuprägenden Items führe als solches, d.h. wenn es innerhalb der gleichen (perzeptiven) Prozeßebene verharre, nicht zu einer Verbesserung der überdauernden Behaltensleistung. Wiederholen sei vielmehr nur dann für die Bildung von Gedächtnisspuren effektiv, wenn damit eine wachsende Tiefe der Analyse und Verarbeitung, also der Übergang zur höheren, semantischen Prozeßebene erreicht werde.

Die damit gekennzeichneten Verarbeitungsebenen sind von allem Anfang an nicht als not-wendig zeitlich aufeinanderfolgende Stufen, sondern eher als unterschiedliche »funktionale« Niveaus der Informationsaufnahme bestimmt. So heben Graik & Lockart (1972, S.675f) aus-drücklich hervor, daß man unter bestimmten Umständen die Reizgegebenheiten zunächst auf einem tieferen, d.h. semantischen Niveau auffassen kann, ehe man sich über die dem zugrun-deliegenden figuralen bzw. phonetischen Merkmale klar wird, so daß man hier - anders als hinsichtlich des Informationsflusses von »Speicher« zu »Speicher« - keine »Hierarchie von notwendig aufeinanderfolgenden Schritten« annehmen dürfe.

Diese allgemeinere »funktionale« Sicht wurde bekräftigt durch spätere Konzeptionen in der gleichen Forschungstradition, in denen das Verarbeitungsebenen Modell nicht auf die Erklä-rung von Einprägungs- bzw. Kodierungsprozessen beschränkt blieb, sondern durch zusätzli-che Annahmen über entsprechende Verarbeitungsebenen des Abrufprozesses (im episodi-schen Gedächtnis) ergänzt wurde: Während bei relativ geringerem zeitlichem Abstand zwi-schen der Kodierungs- und der Abrufphase die Abrufinformation lediglich zur Selektion des zu reproduzierenden Ereignisses in einem »rückwärts gerichteten seriellen Suchprozeß« (»backward serial search«) diene, sei es bei längerem zeitlichen Zurückliegen der Einprä-gungsphase nicht mehr möglich, sämtliche auf das gesuchte Ereignis hinführende Ereignisse durchzugehen. In diesem Falle sei der Abruf von Information als ein Rekonstruktionsprozeß aufzufassen, bei welchem die verfügbare Abrufinformation genutzt wird, um die ursprüngli-che Kodierung des gesuchten Ereignisses wieder herzustellen. In diesem Falle hänge es von der »Tiefe« des Prozeßniveaus der Kodierung der Abrufinformation - damit dem Grad und der Art ihrer zusammenhangstiftenden Funktion - ab, wieweit das gesuchte Ereignis aus den unmittelbar verfügbaren Erinnerungsbruchstücken rekonstruiert werden kann (vgl. Craik & Jacoby 1975).

In einem neueren Grundsatzartikel hat Craik (1985) noch einmal die im Verarbeitungsebenen-Ansatz enthaltenen prinzipiellen Vorstellungen über die Eigenart des »Gedächtnisses« he-rausgehoben: Dieser Konzeption nach sei das Gedächtnis nicht als strukturelles System - qua-si als Ding im Kopf - zu betrachten, sondern vielmehr als Prozeß des Sich-Erinnerns, der von der jeweiligen aktuellen Reizsituation, der Kontextinformation und dem verfügbaren Vorwis-sen geleitet sei. Dieser Erinnerungsprozeß sei als eine Rekapitulation der ursprünglichen Er-fahrung aufzufassen, wobei es von der Art der jeweiligen Erinnerungsaufgabe abhänge, wie-weit sich diese Rekapitulation in einem relativ »wörtlichen« Durchgang durch die erfahrenen Ereignisse oder als Rekonstruktion aufgrund von Information höherer Ordnung, die aus der Erfahrung abstrahiert worden ist, vollziehe. Das Gedächtnis enthalte demgemäß nicht selbst irgendwelche Bilder, sondern habe vielmehr lediglich das Potential, aufgrund der spezifischen aktuellen Information erst derartige Bilder zu produzieren, die somit als Resultat einer Inter-aktion zwischen Gedächtnisfunktion und der je konkreten Informationslage aufzufassen seien. Das Sich- Erinnern sei in dieser Sichtweise kein passiver, von der Abrufinformation mecha-nisch ausgelöster Prozeß, sondern ein aktiver, von den Individuen bewußt intendierter Voll-zug, in welchem unterschiedliche Rekapitulations- bzw. Rekonstruktionsstrategien angewen-det würden, um die Erinnerungsaufgabe zu bewältigen. Entsprechend seien auf menschlichem Niveau die phänomenalen Charakteristika des Erinnerns, wie die Erfahrung des Vergangen-seins (»feelings of ‚pastness’« durch welche das Individuum etwa das Sich-Erinnern vom

10

Wahrnehmen zu unterscheiden vermag, hinsichtlich ihres funktionalen und genetischen Zu-sammenhangs in Rechnung zu stellen. Diese seine »prozessuale« Sichtweise auf das Ge-dächtnisphänomen akzentuiere bestimmte (mindestens seit Bartlett 1932) auch von anderen Autoren vertretene Auffassungen in spezifischer Weise und habe sich für ihn während seiner zehn jährigen Forschungstätigkeit auf diesem Gebiet als dem verbreiteten »strukturellen« Verständnis des Gedächtnisses, wie es etwa in den Mehrspeicher Modellen zum Ausdruck komme, überlegen erwiesen (Craik 1985, S.2000.

Auch das Verarbeitungsebenen-Modell wurde von dem Prozeß der mit wachsenden Daten-mengen zunehmenden Mehrdeutigkeit und mangelnden Interpretierbarkeit der Befunde nicht verschont (vgl. etwa Bower & Hilgard 1985, S.245) und entsprechend mehr oder weniger radikal kritisiert, wobei diesem Ansatz z.B. der Mangel an einheitlicher Erklärungskraft vor-geworfen wurde. In diesem Zusammenhang wurde etwa auch auf die Ähnlichkeit dieses An-satzes mit dem eigentlich zu überwindenden Mehrspeicher-Ansatz hingewiesen, vor allem darauf, daß die »Schichtung« des Gedächtnisses in einen perzeptiven, einen phonematischen und einen semantischen Subspeicher sich praktisch unverändert auch in der »Levels of pro-cessing«-Theorie wiederfinde. Besonders einflußreich wurde die Kritik von Baddeley am Ve-rarbeitungsebenen-Modell unter dem Titel »The trouble with levels: A reexamination of Craik and Lockart‘s framework for memory research« (1978). Im Zuge solcher Problematisierungen kam es - auch durch das Aufgreifen neuerer Entwicklungen in der Informatik / Computerwis-senschaft - in der Folge zu einer modifizierten Reaktualisierung der Mehrspeichermodelle, wobei einerseits bestimmte Aspekte des Verarbeitungsebenen-Modells berücksichtigt wurden, und man andererseits teilweise Gesichtspunkte aus dem Problembereich der »Programmspra-che« einführte, also etwa kognitive Theorien nach Art programmsprachlicher »Produktionen« (IF-THEN-Ketten) zu formulieren versuchte - vgl. dazu etwa das Modell des »Maltheser-Kreuzes« von Broadbent (1984) und insbesondere das in neuerer Zeit besonders populär ge-wordene »ACT“-Modell« von Anderson (1983), s.u.

Neue Gesichtspunkte mit Bezug auf das kognitivistische Verständnis des »Lernens« - mit anderen, von den klassischen Speichermodellen abweichen den Vorstellungen über die Ku-mulation der Information - ergeben sich aus dem (schon erwähnten) im Umkreis von »Künst-licher Intelligenz« und Computersimulation psychischer Prozesse angesiedelten Forschungs-zweig des »Konnektionismus« bzw. (dies eine andere Benennung) der künstlichen »Neural Networks« (vgl. etwa Rumelhart & McClelland 1986 und McClelland & Rumelhart 1986, quasi als konnektionistische Gründungsmanifeste). Diese Arbeitsrichtung hat sich (nach zu-nächst im Konkurrenzkampf mit der klassischen KI auch durch mangelnde Forschungsförde-rung wieder unterdrückten Vorläufern schon in den sechziger Jahren) - auch unterstützt durch die Verfügbarkeit und Erschwinglichkeit bestimmter schneller, parallel prozessierender Com-puter - zu einem regelrechten Trend entwickelt: Hier soll das klassische Programmiermodell der Symbolmanipulation durch ein leistungsfähigeres Modell »verteilter« Repräsentationen ersetzt werden, das in Analogie zu »natürlichen« neuronalen Netzwerken im Gehirn (»brain metapher«) »Knoten« als Einheiten und einsinnige Signalwege als »connections« zwischen den Einheiten enthält. Dabei wird angenommen, daß solche Netzwerke mit einem jeweils bestimmten »Environment« interagieren, so daß manche Einheiten (als »input units«) Signale aus der Umgebung empfangen und andere Einheiten (als »output units«) Signale an die Um-gebung abgeben, außerdem »verborgene« Einheiten, die in keiner eindeutigen Beziehung zum Input oder Output stehen, bestimmte Vermittlungsfunktionen haben, etc. Das Spezifikum sol-cher künstlicher »Neural Networks« besteht nun darin, daß der Rechner hier nicht durch voll-ständig vorgegebene Programmbefehle gesteuert wird, sondern (aufgrund geeigneter Algo-rithmen) in zeitlichen Annäherungsprozessen durch Bewegen großer Datenmengen aus dem (u.U. scheinbar chaotischen) Input kumulativ bestimmte Regelmäßigkeiten extrahiert werden können, die durch veränderte Gewichtungen, d.h. Aktivierungen der Verbindungen zwischen

11

den Knoten des Netzwerks, zustandekommen: Deswegen redet man hier auch von adaptiv-»selbstorganisierenden« Programmen (Verwandtschaften etwa zu Maturanas Konzept der »Autopoiesis« sind offensichtlich, sollen hier aber nicht diskutiert werden). Das Problem, ob der Konnektionismus tatsächlich einen Fortschritt gegenüber der Symbol-KI darstellt, als neu-es Paradigma in der Informatik bzw. der Kognitiven Psychologie betrachtet werden darf, den Status eines kruden Assoziationismus überschreitet etc., war und ist Gegenstand heftiger Kon-troversen (vgl. etwa Fodor & Pylishyn, 1988, als Parteigänger der Symbol-KI, und Smo-lensky, 1989, der den Konnektionismus gegen deren Kritik verteidigt).

Die erwähnte Herausbildung von Regularitäten als Optimierung der Systemfunktion unter jeweils bestimmten Randbedingungen (Fehlerminimierung durch wiederholte Gewichtungs-modifikationen der Informationsübertragungen im Netz anhand eines gewünschten Outputs) wird in diesem Kontext häufig als »Lernen« des Systems bezeichnet. Je nach der Stärke des Eingriffs der Randbedingungen in den kumulativen Optimierungsprozeß unterscheidet man dabei etwa »supervised learning« mit Umgebungsinformation über die angemessene Lösung, »reinforcement learning«, bei welchem die Umgebung lediglich mit einer gewissen Regelmä-ßigkeit auf den Output des Systems reagiert, und »unsupervised learning«, in welchem die Regelmäßigkeiten ganz ohne Umgebungsinformation allein aus dem Signalfluß im Network selbst entstehen (vgl. u.a. etwa Hinton 1988). Als für das Netzwerk spezifische Form des »Lernens« wird verbreitet das »Lernen« durch »back propagation« herausgestellt: Eine Kom-plizierung des »reinforcement learning«, wobei die am Zustandekommen eines unrichtigen Ergebnisses beteiligten Gewichtungen nicht um einen festen Betrag erhöht oder erniedrigt wer den, sondern das Ausmaß der Erhöhung/Erniedrigung einer Gewichtung vom Grad ihrer Be-teiligung am Ergebnis abhängig gemacht wird. Die Resultate von Prozessen lokaler Fehlermi-nimierung werden dabei an alle Parameter des Netzwerks zurückgemeldet. Solche konnektio-nistischen »Lern«-Konzepte sind auf verschiedene Problemfelder angewendet worden, so u.a. z.B. auch zur Computer-Simulation der selektiven Aufmerksamkeit im SLAM (Selective At-tention Model) von Phaf, van der Hejden & Hudson (1990): Hier sollte gezeigt werden, daß man unter Voraussetzung lediglich zweier Mechanismen (»object selection« und »attribute selection«) mit Hilfe entsprechen der Spezifikationen des Netzwerk-Modells die zeitliche Herausfilterung von Aufmerksamkeitsprozessen (mit »natürlicher« Streuung von Reaktions-zeiten etc.) angesichts von mehrdeutigen Environments simulieren kann. Im Ganzen gesehen sind (so wird angenommen) aufgrund solcher »Lernfähigkeiten« die konnektionistischen Sys-teme weder auf die Koordination und Supervision durch eine übergeordnete Zentralinstanz noch auf eindeutige Vorgaben angewiesen, sondern können sich jeweils »selbst« (d.h. mittels kumulativer Approximationsprozesse) an die häufig unpräzisen, unvollständigen, stets wech-selnden Eigenschaften der Umwelt (soweit sie in den System-Environments berücksichtigt sind) anpassen.

Die Beziehung des so verstandenen konnektionistischen Ansatzes zum Gedächtniskonzept versteht sich generell aus dem Umstand, daß die Optimierungsvorgänge in den Computer-Netzwerken - indem hier zeitliche Veränderungen berücksichtigt werden, mit welchen die jeweils schon extrahierten Regelmäßigkeiten weiter vereindeutigt oder stabilisiert werden - kumulativer Art sind. Daraus ergeben sich Implikationen des Konnektionismus hinsichtlich der Konzeptualisierung und Implementierung von Gedächtnis-Funktionen. Pionierarbeit in diesem Bereich leistete Kohonen, so in seiner Arbeit mit dem Titel »Self-organization and associative memory« (1984). Die dabei entwickelten Modellvorstellungen weichen jedoch aufgrund der Konstruktionsprinzipien der neural networks prinzipiell von den Speichermodel-len der Symbol-KI ab. Die »Architektur« eines bestimmten Netzwerk-Modells, die Anzahl, Art und Wechselwirkung der dabei eingeführten Module etc. ergeben sich aus der jeweils gestellten Aufgabe (Mustererkennung, Spracherwerb, Aufmerksamkeit etc.), womit auch die Art der genannten Kumulationsprozesse entsprechend unterschiedlich ausfallen muß.

12

Im Ganzen gesehen ist, wie schon aus der Affinität seiner »Lern«-Konzeptionen zu verschie-denen Spielarten der »Verstärkung« hervorgeht, der Konnektionismus - obwohl im kogniti-vistischen Kontext von Künstlicher Intelligenz und Computer-Simulation entstanden - inhalt-lich u.U. angemessener als eine bestimmte Art von Computerisierung SR-theoretischer Grundansätze zu betrachten und deswegen nur bedingt der Kognitionswissenschaft zuzurech-nen - was aber noch genauer zu untersuchen wäre (vgl. da zu Lenz & Meretz 1992).

Nach der damit abgeschlossenen Darstellung der kognitivistischen Gedächtnis-Konzeptionen und ihrer Varianten bzw. Alternativen müßte jetzt - gemäß unseren bisherigen Gepflogenhei-ten - der Aufweis ihres impliziten BGM-Charakters und der daran anschließende Versuch ihrer begründungstheoretischen Reinterpretation folgen. Nun ergibt sich aber im gegenwärti-gen Problemzusammenhang eine spezifische Schwierigkeit: Einerseits versteht sich schon aus der Formulierung der kognitivistischen Gedächtnistheorien in Termini der Computer-Hardware und besonders -Software, daß es sich dabei (soweit überhaupt die i. e. S. psycholo-gische Ebene angesprochen ist) um Begründungsmuster handeln muß, und zwar deswegen, weil die Computer / Computerprogramme ja als Hilfsmittel zur optimalen Bewältigung be-stimmter Aufgaben konstruiert wurden, so daß auch in den als Computer-Analogien formu-lierten Gedächtnistheorien in irgendeiner Weise »gut begründete«, »vernünftige« Kognitions-aktivitäten angesprochen sein müssen. Andererseits aber ist es (mindestens teilweise) nicht auf Anhieb möglich, derartige Begründungsmuster zu identifizieren, weil das Subjekt (der »Akteur«), von dessen Standpunkt aus die Begründetheit der kognitiven Aktivitäten allein faßbar werden könnte, in den kognitivistischen Gedächtnistheorien kaum auszumachen ist. Diese Problematik muß von uns erst bewältigt werden, ehe wir zu unseren Reinterpretations-versuchen übergehen können. Dem dient der folgende eingeschobene Abschnitt.

Die Aufhebung der mystifizierenden Hineinverlegung des Subjekts ins »System« als Voraussetzung begründungstheoretischer Reinterpretierbarkeit der kognitivistischen Gedächtnismodelle Um einen Ansatz zur Klärung der benannten Schwierigkeit zu finden, muß man sich verdeut-lichen, daß die direkt auf Computerstrukturen und/oder -operationen bezogenen Aussagen, wenn sie in metaphorischer Weise als kognitionstheoretische Termini benutzt werden - indem hier der Computer quasi vom Hilfsmittel zum Modell menschlicher Kognition umgedeutet wird (vgl. Holzkamp 1989) - eine spezifische Transformation durchmachen: Bei der Anwen-dung von realen Computern / Computerprogrammen steht der »User« als Subjekt der Anwen-dung eindeutig außerhalb des informationsverarbeitenden Systems. Wenn nun aber der Com-puter als Modell menschlicher Kognitionsprozesse verwendet wird, so ergibt sich daraus die nahe liegende, d.h. - wenn dem nicht reflexiv gegengesteuert wird - spontan sich durchsetzen-de Tendenz, auch den Anwender des Computers in Termini des »Systems« zu modellieren. Damit geht aber sein Platz außerhalb des Systems verloren und das System wird so quasi zum »Subjekt« seiner eigenen Anwendung. Anders: Sofern hier das individuelle Subjekt so be-trachtet wird, als ob es ein Computer sei, kann es nicht gleichzeitig als Benutzer, Programmie-rer, Hersteller des Computers abgebildet werden. Damit wäre quasi keiner mehr da, der au-ßerhalb des Computers diesen benutzen, programmieren etc. könnte: Vielmehr ist das Subjekt der Computeranwendung und -programmierung hier in das informationsverarbeitende Sys-tem-Individuum selbst hineinverlegt und das wirkliche individuelle Subjekt damit mystifi-ziert.

Die Tendenz zu einer solchen Mystifizierung des Handlungssubjekts muß dann noch begüns-tigt werden, wenn man bereits die Operationen des realen Computers derart versprachlicht, daß dieser in quasi animistischer Weise als selbständiges »Subjekt« seiner Operationen er-scheint, also schon auf dieser Ebene dessen »Mittel«-Charakter verlorengeht, womit das der-

13

gestalt konstituierte Computer-Subjekt mit der metaphorischen Fassung des Computers als Modell menschlicher Kognition unmittelbar in das Individuum »hineinwandert«. So charakte-risiert etwa Bower die gängige Verwendung der Computer-Sprache, in welcher seiner Auffas-sung nach »äußerst attraktive Metaphern und Analogien für psychologische Deutungsversu-che« angeboten wer den, um deren »Nutzen« zu verdeutlichen, auf folgende Weise: »Man sagt von programmierten Maschinen, daß sie Stimuli entdecken, identifizieren, vergleichen und klassifizieren; daß sie Informationen speichern und wieder abrufen; daß sie lernen und Fragen beantworten; daß sie denken, Probleme lösen und über die Verwendung von Strate-gien entscheiden usw. Weil wir die ‚Mechanik‘ dessen sehen können, wie diese Prozesse im Computerprogramm ausgeführt werden, glauben wir, daß wir jetzt verstehen, wie richtige Organismen diese Dinge tun, die wir mit den angegebenen Namen bezeichnen« (Bower & Hilgard 1984, S.215). Die auf diesem Wege vorerst noch implizit vollzogene Hineinverlage-rung des Computer-Subjekts in das Individuum, damit Eliminierung des wirklichen Hand-lungssubjekts aus der Wissenschaftssprache, wird mit aller Klarheit offenbar, wenn Bower aus seinen Überlegungen die Konsequenz zieht: »So ist das kognitive System in der Lage, sich selbst für erfolgreiche Anpassungen und Handlungen in seiner Umwelt zu programmie-ren« (a.a.O., S.227, Hervorh. K.F1.). In dieser Modellvorstellung vom sich selbst program-mierenden Computer, worin der Computer vom Hilfsmittel des Menschen zur mythischen »causa sui« stilisiert wird (also die Computer-Metapher sich quasi selbst aufhebt), verdichten sich in besonders zugespitzter Weise gängige kognitivistische Denk- und Redeweisen, in wel-chen »informationsverarbeitende Systeme« oder Untersysteme animistisch als Subjekte ihrer eigenen Operationen angesehen werden und so der metaphorische Computer mit allerlei Ho-munculi bevölkert ist, die »von innen« dessen Anwendungsarten, die Wechselwirkung seiner Teilsysteme u.ä., planen und realisieren. Diese Homunculus-Annahme ist in den Anfängen des Kognitivismus gelegentlich offengelegt, problematisiert, aber auch (so von Attneave, 1961, in einem Artikel »In defence of homunculi«) verteidigt worden. In der Sprache der heu-tigen Kognitiven Psychologie dagegen ist die »Homunculisierung« von Systemkomponenten vielerorts mehr oder weniger unhinterfragt gang und gäbe, wobei oft - besonders wenn nicht theoretische Modelle diskutiert, sondern die Aktivitäten von Versuchspersonen im Experi-ment interpretiert werden - damit vermischt auch Formulierungen antreffbar sind, in denen von wirklichen Individuen als Ursprung der Systemoperationen die Rede ist - dies als Aus-druck der prinzipiellen Unklarheit darüber, wo und was in der kognitivistischen Theorie ei-gentlich das »Subjekt« sei.

Begriffsverwirrungen wie die damit aufgewiesenen sind von Herrmann (1982) als »System-Akteur-Kontaminationen« innerhalb des Kognitivismus umschrieben und an Beispielen sprachanalytisch expliziert worden. Von da aus stellt er an die Wissenschaftssprache der Kognitiven Psychologie die Forderung, sie müsse »stilrein sein; Kontaminationen ... aus meh-reren disparaten Modellvorstellungen oder auch Sprachspielen müssen vermieden werden«. Demnach habe man sich zu »entscheiden, ob man den Kognizierenden beispielsweise als in-formationsverarbeitendes System konzipiert, zu dem Untersysteme von der Art der Speicher, Prozessoren und dgl. gehören und dessen output registriert wird, oder ob man ihn etwa als ein absichtsvoll handelndes Subjekt konzipiert, welches Situationen interpretiert, welches sich Ziele setzt und welches die Folgen seiner Handlungen bewertet« (S.7). Im Kontext unseres gegenwärtigen Argumentationszusammenhangs, wo es um die Aufhebung der Mystifizierung des Subjekts kognitiver Aktivitäten innerhalb der impliziten Begründungsmuster kognitivisti-scher Gedächtnistheorien geht, können wir diese Forderung nach »Stilreinheit« noch spezifi-zieren: Zur Vorbereitung ihrer begründungstheoretischen Reinterpretation sind die Konzepte der kognitivistischen Gedächtnisforschung (wo nötig bzw. möglich) so zu analysieren und zu reformulieren, daß dabei mystifizierende Hineinverlegungen von »Subjekten« in das Indivi-duum als »informationsverarbeitendes System« aufgehoben und demgegenüber der reale Sub-jektstandpunkt von Individuen außerhalb des »Systems« rekonstruiert ist.

14

Wenn man unter diesen Gesichtspunkten die dargestellte Entwicklung der kognitivistischen Gedächtnisforschung von den »Mehrspeicher-Modellen« zur Theorie der »Verarbeitungsebe-nen« überblickt, so zeigt sich, daß man die damit vollzogene kategoriale Umorientierung in gewissem Sinne selbst schon als Aufhebung der mystifizierenden Hineinverlagerung des Sub-jekts in das System durch Rekonstruktion des realen Subjektstandpunktes betrachten kann: Aus der Craik & Lockartschen Programmatik, die menschlichen Behaltensleistungen seien nicht als Eigenschaft des jeweiligen »Speichers«, sondern als Ergebnis der unterschiedlich »tiefen« perzeptiv-begrifflichen Verarbeitung des zu behaltenden Materials aufzufassen, ver-deutlicht sich »ex negativo«, daß in den damit kritisierten Mehrspeicher-Modellen, indem man hier unterschiedliche Kodierungsprozesse usw. als abhängige Größe der jeweiligen Spei-cherart definiert, tatsächlich irgendwie die Speicher selbst als Subjekte des Transfers der In-formation von einem Speicher zum anderen und der damit vollzogenen Kodierungsleistungen o.ä. unterstellt sind. Dabei werden solche Systemsubjekte oft direkt benannt - »der Kurzzeit-speicher ruft Information aus dem Langzeitspeicher ab« - häufig wird deren Explikation aber auch durch Passiv-Formulierungen, wie »die einkommende sensorische Information wird im Kurzzeitspeicher unter phonematischen Gesichtspunkten kodiert« umgangen etc. Im Verar-beitungsebenen-Modell dagegen ist es zweifelsfrei das reale Subjekt außerhalb des »Sys-tems«, das hier aufgrund unterschiedlicher Tiefe der Materialverarbeitung die Information in verschiedener Weise, etwa phonematisch oder semantisch, kodiert, von dessen Aktivitäten es also abhängt, was wie lange behalten wird (daraus resultiert die konzeptuelle Überlegenheit des Verarbeitungsebenen-Modells gegenüber dem Mehrspeicher-Modell, unabhängig von den erwähnten Schwierigkeiten bei deren empirischer Realisierung).

Die Überwindung des »introjektiven« Systemsubjekts und Rekonstruktion des wirklichen Subjekts außerhalb des Systems im Verarbeitungsebenen-Ansatz bedeutet eine Aufhebung oder mindestens Zurückdrängung der Computer-Analogie. Entsprechend ist in dem geschil-derten, aus der Kritik an Craik & Lockart erwachsenen Roll-Back der Speicher-Modelle (vgl. S.131) mit der Bekräftigung der computer- bzw. programmsprachlichen Fassung der Ge-dächtnistheorien die Entmystifizierung des Subjekts als kategorialer Fortschritt unversehens wieder rückgängig gemacht. Mithin findet man in diesem Kontext im erwähnten ACT*-Modell von Anderson wiederum als gängige Redeweise die Einsetzung von homunculi als »Subjekte« in das System, so in Formulierungen wie: Übung führe »to increased production strength, when the system has no reason to judge the performance as failure« (1983, S252, Hervorh. K.H.): Nicht menschliche Subjekte, sondern »Systeme« haben demnach Gründe für bestimmte Handlungen bzw. Urteile!

Auch in der skizzierten neuen Arbeitsrichtung des Konnektionismus ist die Deutung der Sys-teme bzw. Netzwerke als Subjekte ihrer eigenen Optimierungsaktivitäten gang und gäbe. Formulierungen wie die von Williams (1988) in seiner Arbeit »Connectionist learning through gradient following«:

»the objective is for the network to discover statistical regularities or clusters in the stream of input patterns« (S.6, Hervorh. K.H.), stehen mithin für beliebig viele andere. Allgemeiner gesehen ist bereits die hier übliche Verwendung des Begriffes »Lernen« zu problematisieren: Indem dabei die jeweils aufgewiesenen Prozesse der Optimierung, Fehlerminimierung, Ap-proximation o.ä. als »Lernprozesse« des Systems oder des Netzwerks bezeichnet werden (so heißt es etwa bei Dalenoort, 1990, programmatisch »intelligent systems can learn; if a system cannot learn it is not intelligent«, S.9), sind wiederum diese unter der Hand als Subjekte des »Lernens« eingesetzt. So ist hier durch eine Art von animistischem Etikettenschwindel der Umstand verschleiert, daß dabei von menschlichem Lernen, das ein wirkliches Subjekt vor-aussetzt, das hier lernt, überhaupt nicht die Rede ist.

Zusätzliche Verwirrung bringt ein solcher Sprachgebrauch in diesem Kontext dadurch mit sich, daß im Konzept der »neural networks« ja gerade Optimierungs-, Regulierungs- und Sta-

15

bilisierungsprozesse abbildbar werden sollen, die ohne bewußte Intentionen von Subjekten allein aufgrund der Struktur bzw. Architektur der jeweiligen Netzwerk-Modelle (einschließ-lich ihrer Wechselwirkung mit dem in bestimmter Weise definierten Environment) ablaufen: Selbstoptimierung, Selbstregulierung, Selbstorganisation bedeutet hier Optimierung, Regulie-rung, Organisation nicht durch ein außerhalb des Systems stehendes »Selbst«, sondern eben allein durch das System »selbst«. Damit ist also eine unspezifische Ebene der Ordnung und Vereindeutigung der Umgebungsbeziehung unterhalb des i.e.S. psychologischen Niveaus menschlicher Subjektivität angesprochen, die gleichzeitig wieder mystifiziert wird, in dem durch die benannte Redeweise der Systemfunktion der Netzwerke etc. selbst schon Subjekt-charakter zugesprochen ist. So bleibt der Umstand mehr oder weniger dunkel, daß mit dem konnektionistischen Netzwerk-Modell über subjekthaft-aktives menschliches Handeln noch gar nichts ausgesagt worden ist; dementsprechend kann auch das Verhältnis zwischen den in Netzwerk- Modellen abbildbaren unspezifischen Optimierungsprozessen und der Ebene sub-jektiv intendierter Lernhandlungen erst gar nicht zum Problem werden.1 (ausgelassene Fußno-te)

Anstatt »Gedächtnis«: Behalten/Erinnern im Begründungsdiskurs Wenn wir uns nach diesen Zwischenüberlegungen nun dem bisher aufgeschobenen Versuch einer begründungstheoretischen Reinterpretation der kognitivistischen Gedächtnisforschung etc. zuwenden, so wird sogleich deutlich, daß es sich bei der in den Mehrspeichermodellen praktizierten analogisierenden Hineinverlegung von Computer-Speichern »in« das Indivi-duum um eine Spielart jener verdinglichenden Begriffsbildungen handelt, wie wir sie früher an den Motivations-Vorstellungen der (kognitiv erweiterten) SR-Theorie aufgewiesen haben: Auch hier sind die verdinglichenden Bezeichnungsweisen der Alltagssprache, in welchen mein »Gedächtnis« quasi als Ursache meiner Behaltensleistungen unterstellt wird (ich »habe« eben ein »schlechtes Gedächtnis« o.ä.) ohne reflexive Hinterfragung wissenschaftlich stili-siert: Die Art und der Umfang des Behaltens werden zirkulär aus den Systemeigenschaften des jeweiligen Speichers »erklärt«. Damit wird auch an dieser Stelle das Weiterfragen nach den Begründungszusammenhängen meiner »Gedachtnisleistungen«, d.h. den Bedingungen / Prämissen und Intentionen, von denen deren Besonderheit und Effektivität abhängen, abge-schnitten. Dies verdeutlicht sich noch, wenn wir die Art und Weise berücksichtigen, wie man zu der begrifflichen Ausdifferenzierung immer weiterer »Speicher« kam: Dabei wurde offen-sichtlich bestimmten ausmachbaren funktionalen oder inhaltlichen Verschiedenheiten von Gedächtnisleistungen einfach eine besondere Speicherart (Ultrakurzzeitspeicher, Kurzzeit-speicher, episodischer und semantischer Langzeitspeicher, Arbeitsspeicher, prozeduraler und deklarativer Speicher etc.) unterschoben und daraus dann die Besonderheit der jeweiligen Behaltens-/Erinnernsaktivitäten »erklärt«. Entsprechend beliebig könnten (gemäß der unbe-grenzten Heraushebbarkeit speziellerer funktionaler oder inhaltlicher Eigenheiten der Behal-tens-/Erinnernsprozesse) immer weitere Speicherarten hinzuerfunden werden (eine Facette der von Herrmann, 1982, so genannten kognitivistischen »Begriffsinflation«). Gleichermaßen beliebig ist auch die Weise, in der solche Speicheraufteilungen wieder rückgängig gemacht wurden - bis (etwa bei Norman, 1978) nur noch ein Einspeicher-Modell bzw. (wenn man die Beibehaltung der Annahme eines sensorischen Registers berücksichtigt) Zweispeicher-Modell übrigblieb.

Nach Aufhebung bzw. Reflexion der genannten Mystifizierungen des Handlungssubjekts und der damit zusammenhängenden reifizierenden Begriffsbildungen läßt sich nun auch der BGM-Charakter der funktionalen Konzepte in den Mehrspeichermodellen explizieren: Es

1 Den >psychologischen< Verfremdungen und Mystifikationen innerhalb der konnektionistischen Wissenschaftssprache, ihren Gründen und Konsequenzen, ist die Diplomarbeit von Lenz & Meretz (1992) gewidmet. Dort wird auch demonstriert, dass und in welcher Weise das Netzwerk-Modell ohne mystifizierende Einführung von System-Subjekten verschiedener Art verssprachlicht werden kann. Ich bin in meinen vorstehenden einschlägigen Ausführungen dieser Arbeit wesentlich verpflichtet.

16

wird klar, daß die dort angesprochenen »Strategien», »Suchprozesse« etc. auf Aktivitäten des Subjekts bezogen sind, deren sich dieses »vernünftigerweise« zur Optimierung seiner Behal-tens- und Abrufleistungen bedient. Die theoretische Spezifizierung der Voraussetzungen für die Anwendung dieser oder jener der benannten »Strategien« etc. ist also nicht auf vorfindli-che Empirie bezogen, sondern eben (qua BGM) die Definition »gut begründeter« Kognitions-aktivitäten unter den jeweils spezifizierten Bedingungen als Prämissen. Entsprechendes läßt sich auch an Konzepten nachweisen, in denen die Optimierungsfunktion der benannten Akti-vitäten nicht schon aus der Wortbedeutung selbst hervorgeht, wie etwa an dem kognitivisti-schen Grundkonzept der »Kodierung«: Die »reduktive Kodierung«, Bildung von »Clustern«, »Chunks« etc., soll ja (wie dargestellt) der Überwindung der begrenzten Kapazität zur Auf-nahme verschiedener Informationseinheiten durch Bildung von übergeordneten Kennwerten für mehrere Elemente o.ä. dienen, ist also auch eine »Strategie«, hier zur Optimierung des Behaltens trotz begrenzter Aufnahmekapazität. M.a.W: Die »reduktive Kodierung« ist ein unter der Prämisse meiner begrenzten Kapazität zur Aufnahme mehrerer Elemente »gut be-gründeter« Versuch der Realisierung meiner Behaltensintention, d.h. es ist »vernünftig«, unter dieser Prämisse und Intention mehrere Items zu höheren Einheiten zusammenzufassen, um diese Einheitenbildung bei Bedarf per »Dekodierung« durch Dekomposition wieder rückgän-gig machen zu können: So kann ich nämlich sehr viel mehr Elemente behalten und erinnern, als ich gleichzeitig aufzufassen und festzuhalten vermag. Entsprechend läßt sich auch das Konzept der »elaborativen Kodierung« (u.U. in Form erhöhter »Verarbeitungstiefe«) als BGM verdeutlichen: Es ist unter der Prämissen des Gegebenseins unverbundener Elemente »vernünftig«, diese Elemente in übergreifende, schon etablierte Wissenszusammenhänge ein-zuordnen, weil so das jeweilige Element durch seine Ortung innerhalb derartiger Zusammen-hänge leichter reproduzierbar ist, o.ä. Auch der Umstand, daß es sich bei den »Produktionen«, wie sie von Newell & Simon in die kognitivistische Theorie eingeführt und (wie erwähnt) etwa von Anderson als Basiskonzepte seines ACT* -Modells benutzt worden sind, tatsächlich um Begründungsmuster handelt, ist - hat man dies einmal expliziert - offensichtlich: Die Pro-duktionen sind ja in psychologische Theoreme konvertierte Befehlsfolgen als Computerpro-gramme, wobei der BGM-Charakter solcher Theoreme sich unmittelbar aus dem Charakter der in den Programmen enthaltenen »IF-THEN«-Ketten als Mittel zu optimaler Problemlö-sung anhand von Erfolgsrückmeldungen ergibt, die in ihrer »psychologischen« Wendung qua-si als Selbstinstruktionen fungieren (s.u.): Die jeweiligen »IFs« sind so gesehen quasi die Prämissen, unter denen die »THENs« als kognitive Operationen »gut begründet«, d.h. »ver-nünftig« sind. Anderson bringt dies - allerdings wiederum ohne daraus die erforderlichen the-oretisch-methodologischen Konsequenzen zu ziehen - selbst zum Ausdruck, etwa wenn er in dem angeführten Zitat feststellt, »the system (d.h. das darin mystifizierte Subjekt/K.I-I:) has no reason to judge the performance as failure« (1983, S.252, Hervorh. K.H.). Weitere derarti-ge Beispiele sind - da beliebig beizubringen - wohl nicht erforderlich.

Man mag nun gegen solche BGM-Explikationen einwenden, dabei sei ja vorausgesetzt, daß die Individuen die jeweiligen Operationen intendiert, also bewußt vollziehen, es könne sich hier aber doch auch um »automatische«, »unbewußte« o.ä. Mechanismen handeln, deren sub-jektive Begründetheit man also nicht annehmen dürfe. Tatsächlich werden solche automati-schen Prozesse in manchen Ausprägungen der kognitivistischen Gedächtnisforschung mehr oder weniger eindeutig unterstellt, was sich sicherlich schon aus dem »mechanischen« Cha-rakter der hier analogisierend »introjizierten« Computer-Operationen ergibt. Somit fänden wir an dieser Stelle ein Problem wieder, das wir bereits als Frage der »awareness« von Konditio-nierungsprozessen innerhalb SR-psychologischer Experimente diskutiert haben (vgl. S.44ff), wobei mindestens die dort begründeten Zweifel an einer methodisch tragfähigen Nachweis-barkeit der Nichtbeteiligung des Bewußtseins auch auf die hier zu erörternde Problemlage zu übertragen sind. Darüber hinaus ist man bei der Verteidigung des automatischen oder mecha-nischen Charakters von Gedächtnisoperationen im Rahmen des kognitivistischen Ansatzes in

17

einer noch ungleich schwierigeren Situation, da die Kognitive Psychologie ja gerade zur Re-habilitation des menschlichen Bewußtseins gegenüber seiner Eliminierung durch die SR-Psychologie angetreten ist. Entsprechend »mentalistisch« sind denn auch wesentliche Kon-zepte der kognitivistischen Gedächtnisforschung: »Aufmerksamkeit«, »Strategien«, ja sogar »Ziele« und »Intentionen« (gerade deswegen war man gezwungen, einschlägige Homunkuli, die aufmerksam sein, Strategien verfolgen, Ziele oder Intentionen haben können, in das in-formationsverarbeitende System einzusetzen). Wenn man unter diesen Umständen die Auto-matismus-These beibehalten will, so bleibt einem mithin nichts anderes übrig, als derartige Konzepte nachträglich mit dem Attribut »automatisch« zu versehen, also automatische Auf-merksamkeitsprozesse, Strategien, Ziele, Intentionen zu unterstellen, womit die beabsichtigte Rehabilitierung des Bewußtseins in der Psychologie unversehens wieder zurückgenommen wäre.

Aufgrund der bisherigen Diskussion bietet es sich an, im begründungstheoretischen Kontext nicht von »Gedächtnis« zu sprechen, sondern von »Behalten« und »Erinnern« als menschli-chen Handlungen: Mit dieser »funktionalen« Terminologie (wie sie ja bereits etwa von Craik vorgeschlagen wurde, vgl. S. 130f) sind zum einen alle Anklänge an die diskutierten reifizie-ren den Begriffsbildungen vermieden, und zum anderen ist damit der aufgewiesene BGM-Charakter der einschlägigen Theorien, etwa in der Spezifizierung des Behaltens bzw. Erin-nerns als in der Behaltens- bzw. Erinnernsintention begründete Strategien o.ä., leicht auf den Punkt zu bringen. Damit erhebt sich nun aber sogleich die Frage, wie das Verhältnis zwischen Behalten und Erinnern im Begründungsdiskurs genauer zu bestimmen ist.

Innerhalb der traditionellen Gedächtnisforschung (sei es klassischer oder kognitivistischer Art) wird meist schon durch die Art der Standardanordnungen das Verhältnis zwischen Behal-ten und Erinnern als kontingente Beziehung zwischen unabhängiger und abhängiger Variable aufgefaßt: In den jeweiligen Anordnungen wird hier (innerhalb welcher Designs auch immer) ein erstes Stadium des Lernens, Einprägens, Behaltens, der Übung des Materials einem zwei-ten Stadium der Reproduktion, des Abrufs, des »retrieval«, des »recall«, gegenübergestellt. Im ersten Stadium des Lernens sollen dabei die unabhängigen Variablen eingeführt sein, von denen aus die Reproduktion des gelernten Materials im zweiten Stadium vorhersagbar werden soll. »Behalten« und »Erinnern« werden hier also als Wenn-Dann-Komponenten einer empi-rischen Hypothese aufgefaßt, deren Glieder sich in keinem logischen bzw. implikativen, son-dern eben in einem kontingenten, bloß faktischen Zusammenhang befinden. Diese »Variabili-sierung« des Verhältnisses zwischen Behalten und Erinnern schlägt sich auf theoretischer Ebene darin nieder, daß hier in verschiedenen Versionen das Behalten als ein Prozeß aufge-faßt wird, dessen Effektivität zwar mittels Erinnernsprüfung festgestellt werden kann, der aber als solcher mit dem Erinnern nichts zu tun hat. Entsprechend erscheint dabei auch das Erin-nern als ein selbständiger Prozeß, der zwar durch die Art des Behaltensprozesses beeinflußt wird, aber in sich keinerlei Bestimmungsmomente des vorgängigen Behaltens impliziert. Eine besonders schlagende und verbreitete Konkretisierung erfährt diese wechselseitige konzeptio-nelle Isolierung von »Behalten« und »Erinnern« innerhalb der klassischen Gedächtnisexperi-mente, aber auch vielerorts innerhalb der kognitivistischen Gedächtnisforschung gebräuchli-chen Gleichsetzung des Lernens bzw. Einprägens eines bestimmten Materials mit dessen Ü-bung, d.h. Wiederholung, wobei die Anzahl der Wiederholungen mehr oder weniger eindeutig als Maß für den Grad des »Lernens« (also Behaltens in unserem Sinne) genommen wird. Be-sonders schwerwiegend ist dabei, daß diese theoretische Gleichsetzung von Lernen/Behalten und Wiederholung bereits in die Standardmethoden zur Messung der Behaltensleistung, wie sie von Ebbinghaus bzw. Müller & Schumann eingeführt und seither in mannigfachen Ab-wandlungen immer wieder benutzt wurden, eingegangen ist: So wird der Vp bei der Methode des »Erlernens« eine Liste mit sinnlosen Silben (oder anderem Gedächtnismaterial) solange wiederholt dargeboten, bis sie sie fehlerfrei reproduzieren kann, wobei die Anzahl der dazu

18

nötigen Wiederholungen als Maß für die Gedächtnisleistung dient; die »Ersparnismethode« und die »Methode des Behaltens« basieren bei etwas anderer Struktur ebenfalls auf diesem Wiederholungskonzept. Dies ist unabhängig davon, ob das Gelernte sodann durch »gepaarte Assoziationen«, »serielle« Reproduktion von Listen oder »freie Reproduktion« abgefragt wird. Der allgemeinere theoretische Rahmen für eine derartige Gleichsetzung von Einprägen und Wiederholen ist die geschilderte assoziationistische Grundüberzeugung als Charakteristi-kum praktisch der gesamten traditionellen Gedächtnisforschung bzw. die ebenso verbreitete Vorstellung des »Einprägens« als »Spurenbildung« im Gedächtnis bzw. im Gehirn: Die »Fes-tigkeit« der assoziativen Verknüpfungen bzw. die Ausprägung der Spurenbildung erscheint danach als selbstverständliches Resultat der Anzahl der Wiederholungen im Einprägungspro-zeß. Damit ist notwendig zugleich eine Isolierung des Einprägevorgangs von der Erinne-rungsanforderung impliziert: Die jeweiligen Assoziationen bzw. Spuren bilden sich unabhän-gig vom Erinnernsprozeß und werden über diesen lediglich in ihrem jeweiligen Ausprägungs-grad diagnostizierbar.

Wenn man das Behalten nun im Begründungsdiskurs als intendierte menschliche Handlung reinterpretiert, so wird (wie schon aus unseren früheren Darlegungen hervorgeht) deutlich, daß es sich bei dem Verhältnis zwischen »Behalten« und »Erinnern« um keine kontingent-empirische, sondern um eine inferentiell-implikative Beziehung handelt: Meine Behaltensak-tivitäten sind darin begründet, daß ich später (in welcher situationalen Konkretisierung auch immer) das Behaltene erinnern will. Behaltensintentionen ohne antizipierte Erinnernsanforde-rung sind vom Subjektstandpunkt offensichtlich sinnlos; bzw., noch weiter zugespitzt, die Behaltensintention ist in gewisser Weise mit der Intention, mich später an das Behaltene erin-nern zu wollen, identisch. So haben wir es in den einschlägigen Experimenten wiederum mit einer Variante der schon früher aufgewiesenen Inkongruenz zwischen der bedingungsanalyti-schen Begriffsbildung des Experimentators und dem begründeten Handeln der Versuchsper-son unter den gesetzten Bedingungen als Handlungsprämissen zu tun: In der Theorie ist von durch Übung d.h. Wiederholung geförderten Einprägungsprozessen die Rede, wobei implizit davon ausgegangen wird, daß die Vpn mit der Übernahme der Lernaufgabe ebenfalls nur Gründe dafür sehen, das Material zu Einprägungszwecken möglichst oft mechanisch zu wie-derholen; dies kommt u.a. in der geschilderten Auffassung zum Ausdruck, daß die Einpräge-leistung der Vpn umso besser ist, je mehr Zeit ihnen für das »innere« Wiederholen des Mate-rials zur Verfügung steht (diese Annahme wird gelegentlich »Gesamtzeithypothese« genannt, vgl. etwa Baddeley, 1979, S.34ff). Vom Subjektstandpunkt der Vp hingegen antizipiert diese eine bestimmte Erinnerungsanforderung und begründet darin ihre jeweilige Behaltensstrategie mit den vorgegebenen Versuchsbedingungen als Handlungsprämissen - dies wiederum unab-hängig da von, wieweit ihr die Tatsache und/oder die Art der späteren »Prüfsituation« vom Experimentator mitgeteilt wurde oder nicht: Sie muß sich in Abwesenheit anderer Informatio-nen hier notwendig selbst bestimmte Hypothesen über die Art der Erinnernsanforderung bil-den, da sie andernfalls keinerlei Gründe für das vom Experimentator verlangte intendierte Lernen des Materials hätte, also gar nicht in der Lage wäre, dessen Instruktion nachzukom-men.

Die in Gedächtnisuntersuchungen aufgrund nomologischer Theorienbildung mit assoziatio-nistisch-mechanistischen Vorannahmen bestehende Diskrepanz zwischen dem, was die Vpn hier tatsächlich tun, und den Annahmen des Experimentators darüber ist von Miller, Galanter & Pribram (1960) in ihrem Buch »Plans and the structure of behavior« (auf das wir später noch in prinzipielleren Zusammenhängen eingehen) überzeugend veranschaulicht und kon-kretisiert worden. Die Autoren legen - obwohl sie diese selbst in den Trend der damals im Aufschwung begriffenen Kognitiven Psychologie einordnen - ihrer Arbeit tatsächlich einen um die Begriffe der »Intentionalität« und des »Planes« zentrierten Ansatz zugrunde, der (ob-wohl nicht konsequent zuende gebracht und später kaum in seiner Eigenart erkannt und wei-

19

tergeführt, s.u.) sie zu Einsichten über kognitive Prozesse vom Standpunkt des Subjekts befä-higt hat, die den Rahmen des üblichen kognitivistischen Denkens weit überschreiten. In ihrem mit den traditionellen Gedächtnisexperimenten befaßten Kapitel »Plans for remembering« (S.125ff) stellen sie dementsprechend die Forderung nach Berücksichtigung der Intentionali-tät, damit Subjektivität der Vpn im Experiment gegen deren übliche, in theoretischen Vorur-teilen gegründete Vernachlässigung heraus.

Wie aber gewinnt man Zugang zur Intentionalität/Subjektivität der Versuchspersonen im klassischen Gedächtnisexperiment? Miller, Galanter & Pribram finden darauf die gleiche Antwort, wir wir sie im Kontext unseres »intersubjektiven« Methodenansatzes gegeben ha-ben: »Ordinarily the simplest way to find out what a person is doing is to ask him« (S.126). Gerade dieses Fragen werde aber von den Psychologen aus Gründen methodischer »Objekti-vität« eliminiert. Wenn man jedoch eine Vp danach frage, was sie in den traditionellen, mit sinnlosen Silben durchgeführten Untersuchungen getan habe, so stelle sich heraus, daß diese, um die ihnen aufgetragene Aufgabe des »memorizing« erfüllen zu können, notwendig die Absichten des Experimentators durchkreuzen müsse, indem sie versucht, die sorgfältig ausge-suchten »sinnlosen Silben« dennoch in einen sinnvollen Zusammenhang zu bringen: »Well, it wasn‘t easy, but he did it« (S.126). Miller, Galanter & Pribram bringen dafür mannigfache Beispiele aus ihrer experimentellen Arbeit und verallgemeinern diese mit der Feststellung, daß die Vpn dabei »two different kinds of plans« ausführen müßten: »On the one hand, the subject is attempting to construct a Plan that will, when executed, generate the nonsense syl-lables in the correct order. But at the same time he must adopt a Plan to guide his memorizing, he must choose a strategy for constructing the Plan for recall« (S.128). Dafür stünden der Vpn verschiedene Wege offen: Sie könnten z.B. die sinnlosen Silben in Worte übersetzen, diese in Sätze einordnen und aus diesen eine Geschichte erfinden, um bei der geforderten Wiedergabe (als seriellem Lernen) den gleichen Weg rückwärts zu gehen und so die korrekte Reihenfolge der Silben rekonstruieren zu können. Ein anderer möglicher Plan bestehe in der rhythmischen Gruppierung der Silben, ein wieder anderer darin, die Silben in einem imaginären Raum an-zuordnen und beim Erinnern jeweils dahin zu »blicken« und die Reihenfolge der Silben dort »abzulesen«, wo sie »stehen« (S.128f).

Dies wird von Miller, Galanter & Pribram in folgender Weise verallgemeinert auf den Begriff gebracht: »Unless a person has some kind of Plan for learning, nothing happens. Subjects have read nonsense syllables hundreds of times and learned almost nothing about them if they were not aware that they would later be tested for recall. In order to get the list memorized, a subject must have that mysterious something called an ‚intent to learn‘. An intention to learn means that the subject executes a Plan to form a Plan to guide recall«. Solche Pläne mögen, so Miller, Galanter & Pribram, u.U. lediglich fragmentarischer Natur sein, mehr oder weniger »absent minded« und zufällig erfolgen, wobei die Vpn also auch ohne eindeutige und be-wußte Intentionen einiges lernen könnten (s.u.): »The important thing« sei jedoch »to have a Plan to execute for generating the recall response; ordinary, but not invariably, that Plan will not be achieved without intend to learn, that is to say, without a metaplan for constructing a Plan that will guide recall« (S.129)

In dieser Sichtweise ist nun auch die Funktion der Wiederholung für das Lernen bzw. Einprä-gen des Materials im Gedächtnisexperiment begründungstheoretisch reinterpretierbar: Die Wiederholung hat so betrachtet keineswegs schon als solche einen »einprägenden«, »spuren-bildenden« etc. Effekt, sondern ermöglicht lediglich unter bestimmten experimentellen Be-dingungen die Entwicklung einer adäquaten subjektiven Strategie zur Erfüllung der antizipier-ten Erinnernsanforderung (so wird die Vp im von Miller, Galanter & Pribram angeführten Beispiel die Strategie der Verknüpfung der sinnlosen Silben mit sinnvollen Wörtern, deren Einordnung in Sätze und die Zusammenfügung dieser Sätze zu einer Geschichte nicht schon beim einmaligen Lesen einer Liste fertig haben, sondern erst von Wiederholung zu Wiederho-

20

lung allmählich aufbauen können). Von da aus würden sich dann auch die erwähnten wider-sprüchlichen Befunde über den Effekt der Wiederholungen für den Behaltensprozeß erklären (so fanden, wie dargestellt, etwa Craik & Lockart, daß bloßes Wiederholen ohne erhöhte »Verarbeitungstiefe« keine Verbesserung der Erinnerungsleistung bringe, was etwa von Bad-deley bestritten und gegen die Verarbeitungsebenen-Theorie ins Feld geführt wurde): Wie-derholungen werden dann die Erinnernsleistungen verbessern, wenn bei den Vpn im Experi-ment die Bedingungen/Prämissen und die Intentionen dafür gegeben waren, diese Wiederho-lungen zum Aufbau von an der Antizipation der Erinnernsanforderung orientierten Behaltens-strategien zu nutzen; keine förderliche Wirkung der Wiederholungen auf die Erinnerung be-stünde hingegen dann, wenn für die Vpn keine Möglichkeit und/oder kein Grund zur Ent-wicklung derartiger Strategien vorhanden war. Befunde, in denen ein Zusammenhang zwi-schen Wiederholung und Erinnerungsleistung feststellbar ist bzw. fehlt, sind mithin - wie stets bei der bedingungsanalytischen »Brechung« des Verhältnisses zwischen Experimentator und Versuchsperson - in diesem Kontext notwendigerweise mehrdeutig und letztlich uninterpre-tierbar, weil hier über die nur in intersubjektivem Frage- und Antwortspiel aufzuweisenden wirklichen Handlungsbegründungen der Vpn hinwegspekuliert wird.

Aus unserer (an das Konzept der Verarbeitungsebenen angelehnten und begründungstheore-tisch gefaßten) Umformulierung von »Gedächtnis«-Modellen in Konzepte über intentionale Behaltens-/Erinnernsaktivitäten ergibt sich, daß die vorgeblich besonderen Funktionen von »Speichern« o.ä. als funktionale Spezifika der jeweiligen Behaltensstrategien verstanden wer-den müssen: Es hängt so gesehen von der Art der intendierten Erinnernsleistung ab, welche Arten von typischen Behaltens-/Erinnernsstrategien dabei begründetermaßen in Anschlag zu bringen sind, wobei bestimmte Inhalte um so dauerhafter behalten werden können, je umfas-sender und stabiler die schon vorhandenen Wissensstrukturen sind, in denen das Zu-Behaltende durch die jeweilige Behaltensstrategie verankert wird. Eine Uminterpretation des sensorischen Registers, Kurzzeitspeichers und Langzeitspeichers unter solchen Gesichtspunk-ten ist (mindestens im Prinzip, also unabhängig von den jeweiligen inhaltlichen Bestimmun-gen, s.u.) in Craik & Lockarts Konzept der »Tiefe« der Verarbeitung bereits versucht worden (wobei der BGM-Charakter dieses Ansatzes auf der Hand liegt). In entsprechender Weise müßten nun aber auch andere Einteilungen, wie etwa die dargestellte gängige Unterscheidung zwischen episodischem und semantischem Gedächtnis reinterpretierbar sein. Die Vorausset-zungen dazu sind (wie sich zeigen wird) auf dem gegenwärtigen Stand unserer Diskussion allerdings noch nicht gegeben, wir kommen deshalb später, bei der Darlegung einer bestimm-ten Entfaltungsstufe der von uns zu erarbeitenden subjektwissenschaftlichen Lerntheorie, dar-auf zurück.

Gesamteinschätzung: Gerichtetheit auf Permanenz des Gelernten in den Schranken immanent-sprachlicher Bedeutungsbezüge Wir weiten jetzt wiederum den begrifflichen Rahmen der Darstellung aus, indem wir die blo-ße Begründungsanalyse überschreitend unsere kategorialen Bestimmungen der umfassenden sachlich-sozialen Bedeutungskonstellationen, die als Prämissen in die Handlungsbegründun-gen eingehen, explizit auf die bisherigen Resultate unserer Reinterpretation der kognitivisti-schen Gedächtnistheorien beziehen: Welche prinzipiellen Beschränkungen und Möglichkeiten des von uns bisher reinterpretativ daraus gewonnenen Konzepts subjektiv begründeter Behal-tens-/Erinnernsaktivitäten werden in dieser Sichtweise erkennbar? Welche über die Schluß-folgerungen aus der Reinterpretation (kognitiv erweiterter) SR-psychologischer Ansätze hi-nausgehenden Fragestellungen für die weitere lerntheoretische Analyse sind auf diesem Wege zu explizieren?

Aus den kognitiven Erweiterungen der SR-Theorien ergab sich für uns (wie dargestellt) die Notwendigkeit der Unterscheidung zwischen Lernen und Ausführung und weiterhin der Aus-differenzierung des Lernens in intendiertes und inzidentelles Lernen. Wie verhält sich nun das

21

neue Konzept der intendierten Behaltens-/Erinnernsaktivitäten zu diesen begrifflichen Diffe-renzierungen? Offensichtlich ist einerseits das »Behalten/Erinnern« (zunächst gleichviel ob intendiert oder inzidentell) zwanglos dem »Lernen« zuzuordnen (entsprechend redet man in der traditionellen Gedächtnisforschung häufig statt von der Behaltens- oder Einprägungsphase auch von der »Lernphase« als erstem Stadium des experimentellen Ablaufs). Andererseits aber ist, wenn man von »Lernen« als »Behalten« redet, ein bestimmter Aspekt des Lernens hervorgehoben, nämlich die Dauerhaftigkeit oder Permanenz des Lernresultats: Dies ist es ja, was in den Vorstellungen vom »Gedächtnis« als »Speicher« etc. seinen verdinglichten Aus-druck findet. Damit verdeutlicht sich, daß eine derartige Permanenz im Konzept des Lernens implizit stets in irgendeiner Weise mitgemeint sein dürfte: »Lernen« hat demnach nicht schon dann statt gefunden, wenn in einer bestimmten Situation erfahrungsbedingte Änderungen der Leistung, Einstellung etc. feststellbar sind, sondern erst dann, wenn diese Änderungen über die spezielle Situation, in der sie erworben wurden, hinaus erhalten bleiben, so daß in einer nächsten einschlägigen Situation weitere Änderungsprozesse quasi darauf aufbauen können. Eine solche transsituationale Permanenz und Kumulation soll in unseren späteren Ausführun-gen als (weiteres) spezifisches Merkmal des Lernhandelns aufgegriffen werden. Bei Akzentu-ierung der Unterscheidung »inzidentell-intendiert« verdeutlicht sich, daß im inzidentellen Lernen die Permanenz sich irgendwie von selbst, als Nebeneffekt der Erfahrungsbildung, her-stellen muß. Bei intentionalem Lernen sind dagegen zwei Möglichkeiten in Rechnung zu stel-len: Entweder sind hier die Lernintentionen auf andere Dimensionen als das Behalten / Erin-nern (etwa »Können« oder »Verstehen«) gerichtet, dann ergibt sich die Permanenz als ledig-lich mitintendiert; oder das Behalten/Erinnern stellt die einzige oder mindestens dominante Dimension der Lernintentionen dar, dann ist die Permanenzintention das Spezifikum der Lernaktivitäten. Intendiertes Behalten/Erinnern wäre so bestimmt als intentionales Lernen unter der Dominanz der Permanenzintention. Definitorisch gesehen könnte mithin die Ge-dächtnisforschung, indem hier Lernaktivitäten thematisiert sind, bei welchen das Individuum in verselbständigter Weise die Dauerhaftigkeit seiner Lernresultate anstrebt, als ein Spezialfall der Lernforschung eingestuft werden. Faktisch allerdings stehen (wie gesagt) in den einschlä-gigen Forschungstraditionen »Lernen« und »Gedächtnis« weitgehend begriffslos nebeneinan-der, so daß wir im Laufe unserer weiteren Überlegungen die sich aus einer derartigen Ver-hältnisbestimmung ergebenden lerntheoretischen Konsequenzen erst noch herausarbeiten müssen.

Ein weiteres Desiderat, das in unserer späteren lerntheoretischen Entwicklungsarbeit auf-zugreifen ist, ergibt sich aus folgendem: Wenn man die (immer: intendierten) Behaltens-/Erinnernsaktivitäten, wie wir sie in Reinterpretation der kognitivistischen Gedächtnisfor-schung gekennzeichnet haben, im Lichte unserer benannten Kategorialbestimmungen betrach-tet, so wird schon auf den ersten Blick deutlich: Die dort angesprochenen Strategien etwa des Clustering, der Kodierung verschiedener Art, des Suchens, der Rekonstruktion, Ortung in semantischen Netzwerken, die verschiedengradige Verarbeitungstiefe etc. werden niemals als in sachlich-soziale Bedeutungszusammenhänge hineinwirkende, realitätsverändernde, spuren-hinterlassende, praktische Handlungen, sondern durchgehend als lediglich »innere«, gedankli-che, mentale Handlungen verstanden. Dies geht soweit, daß selbst dort, wo etwa vom »proze-duralen Gedächtnis« die Rede ist, üblicherweise keineswegs - wie man meinen könnte - »äu-ßere« Handlungsfolgen, sondern wiederum bloß mentale »Prozeduren« gemeint sind. (So stellt etwa Anderson mit Bezug auf das »Produktionsgedächtnis« als seine Version des »pro-zeduralen Gedächtnisses« zunächst fest, darunter könnte ja ein Gedächtnis für eigentliche rnotorische Fähigkeiten, wie Fahrradfahren oder Schreibmaschineschreiben verstanden wer-den, die ACT-Theorie befasse sich aber in diesem Kontext aus schließlich mit kognitiven, programmsprachlich formulierbaren Prozeduren, wie Entscheidungsfindung, mathematisches Problemlösen, Sprachentstehung etc., vgl. 1983, S.215). Können denn aber derartige externe, praktische Handlungen überhaupt als Behaltens-/Erinnernsaktivitäten fungieren, macht es also

22

einen Sinn, sie in diesem Kontext zu vermissen? Genau diese Frage ist es, die wir später, wenn wir bei der Auseinanderlegung unseres Entwurfs einer subjektwissenschaftlichen Lern-theorie soweit gekommen sein werden, aufgreifen müssen.

Allgemeiner gesehen tritt bei Reflexion der möglichen Bezüge menschlichen Behaltens und Erinnerns auf die sachlich-sozial bedeutungsvolle Welt der Umstand hervor, daß durch die kognitivistische Gedächtnisforschung derartige Bezüge radikal ausgeklammert sind: Zwar wird (gerade in den neueren Entwicklungen des Kognitivismus) zunehmend auf die »Bedeu-tung« des zu behaltenden und erinnernden Materials abgehoben, dabei sind jedoch (im Ein-klang mit der allgemeinen Beschränkung der traditionellen Gedächtnistheorien auf sprachlich-symbolische Gegebenheiten) ausschließlich i.w.S. sprachliche Bedeutungen gemeint, deren Beziehung zu den gegenständlichen Weltbedeutungen unsichtbar bleibt (s.u.). Auch wo in-nerhalb des Kognitivismus die Wechselwirkung des Systems mit bestimmten Merkmalen des »Environments« in Rechnung gestellt wird, handelt es sich nicht um die wirkliche Umgebung, sondern nur um die programmsprachliche Repräsentanz von bestimmten gesetzten Umge-bungs-Parametern. So tritt hier an die Stelle der Welt das »Weltwissen« und an die Stelle der Berücksichtigung der verschiedenen Ausprägungen sachlich-sozialer Bedeutungsstrukturen im Handlungs- und Praxiszusammenhang der Individuen die Unterscheidung verschiedener »Wissensdomänen« o.ä. (vgl. dazu die kritischen Analysen von Lave, 1988, etwa S.83ff). Durch eine derartige Sprachimmanenz scheint das Subjekt in die »innere« Welt seiner sprach-lichen Bedeutungsbezüge eingesperrt: Es führt mit Bezug auf mein eigenes Handeln wie mit Bezug auf meine Erfahrungsmöglichkeiten auch hier kein Weg hinaus in die wirkliche, histo-risch gewordene, von »uns allen« in unserer Lebenspraxis geteilte gesellschaftliche Lebens-welt. Graumann & Sommer (1985) haben dies in verallgemeinerter Weise aufgewiesen, in-dem sie als Hauptgefahr der »Computerisierung« kognitionspsychologischer Modellbildungen »Einkapselung (encapsulation) und, deswegen, Realitätsverlust (loss of reality)« herausheben: »Die gesamte Welt, einschließlich dessen, was wir soziale Realität nennen, ist (in der Kogni-tiven Psychologie/K.H.) konzentriert in individuellen ‚brains‘ and ‚minds‘, als kognitive Rep-räsentationen zwischen Input und Output von Information eingeschlossen, um verarbeitet, gespeichert und abgerufen zu werden« (S 66f., Ubers. K.H.).

Aus der Reflexion auf die Ausklammerung realer sachlich-sozialer Bedeutungszusammen-hänge fällt auch neues Licht auf die (schon angedeutete) Kontinuität des Assoziationsprinzips (i.w.S.) von der SR-Psychologie zum Kognitivismus: In der SR-Psychologie bezieht (wie früher etwa im Kontext unseres Bremslicht-Beispiels aufgewiesen, vgl. S.60f) das Konzept der Konditionierung als assoziativer Verknüpfung von Signal und Signalisiertem bzw. Ver-halten und Verhaltenskonsequenz seine theoretische Unverzichtbarkeit daraus, daß die »Welt« hier nicht in ihren vergegenständlichten Bedeutungszusammenhängen, sondern nur als Inbegriff von isolierten Gegebenheitszufällen sichtbar wird, so daß alle Verknüpfungsleis-tungen dem Individuum aufgebürdet werden müssen. Wenn nun, wie gerade herausgestellt, im Kognitivismus in dieser Richtung quasi noch ein Schritt weitergegangen wird, in dem die »Welt« im Ganzen durch Zentrierung auf bloß »innere« Prozesse der Informationsverarbei-tung ausgeklammert ist, so würde daraus folgen, daß hier trotz aller Kritik an der SR-Psychologie deren prinzipiell »assoziationistischer« Denkweise kaum etwas entgegengesetzt werden könnte, vielmehr in diesem Punkt eine (vielleicht z. T. verschwiegene) Kontinuität zwischen SR Theorie und Kognitivismus aufweisbar sein müßte.

Eine solche Fortschreibung assoziationistischer Prinzipien von der SR Psychologie zur kogni-tivistischen Gedächtnisforschung wurde auf überraschende Weise in der schon erwähnten, an der schwedischen Universität Umea abgehaltenen Konferenz unter dem Thema »Perspectives on learning and memory« (vgl. Nilsson & Archer 1985) deutlich. Bei der Suche nach Ge-meinsamkeiten zwischen beiden Grundansätzen wurde dabei immer wieder das Assoziations-prinzip als möglicher »gemeinsamer Nenner« benannt - einschlägige Diskussionen ziehen

23

sich wie ein roter Faden durch fast alle der dort gehaltenen Beiträge. Man war sich unter SR-Psychologen und Kognitivisten in Umea weitgehend einig, daß das Assoziationsprinzip (mög-licherweise in ausgeweiteter und »liberalisierter« Form) psychologisch unverzichtbar sei und ein wesentliches Verbindungsglied zwischen beiden Positionen darstelle. So konnten denn Rönnberg & Ohlsson (1985) bei ihrer Synopse der in Umea gehaltenen Beiträge hervorheben, daß das Assoziationsprinzip nicht nur - erwarteterweise - die moderne SR-Psychologie be-herrscht, sondern (mindestens implizit) den wesentlichen Ansätzen kognitivistischer Gedächt-nisforschung zugrunde liegt: »Human memory theorists, in their turn, have hidden the explicit associative assumptions in their models. Closer scrutiny reveals that the association is alive and well established even in such models« (S.184). Dies gilt nicht nur für die Aufbauprinzi-pien des sensorischen Registers und Kurzzeitgedächtnisses, sondern - wie Nilsson & Archer hervorheben - ebenso etwa für die modernen Modelle des semantischen Gedächtnisses: In den hier formulierten Konzepten über semantische »Netzwerke« oder »Hierarchien« sei die Asso-ziation notwendig als strukturbildender Faktor vorausgesetzt. Auch auf die assoziationistische Grundlage des ACT* von Anderson wird von den Autoren hingewiesen (S.294, vgl. dazu Anderson selbst, 1983, S.202). Nilsson & Archer fassen zusammen: »The association is a robust concept and perhaps necessary to the fields of learning and memory« (S.295). Auch der moderne Konnektionismus muß (obwohl man über die Besonderheiten des kognitivisti-schen gegenüber früheren, einfachen Formen des Assoziationismus streiten kann, vgl. etwa Fodor & Pylishyn 1988 und Smolensky 1989) - da hier Knoten und gerichtete Verbindungen angenommen sind, zwischen denen durch rückwirkende Gewichtungsmodifikation Verbin-dungen sich herausbilden - in einem weiteren Sinne als eine besondere Art von Assoziatio-nismus bezeichnet werden. Dementsprechend konnte (wie dargelegt) etwa Kohonen (1984) das »Gedächnis« in konnektionistischer Fassung umstandslos als »associative memory« be-zeichnen.

Wenn wir auf unsere drei »Gesamteinschätzungen« jeweils am Ende der begründungstheore-tischen Reinterpratationsversuche der vorher diskutierten traditionellen lern- bzw. gedächtnis-theoretischen Ansätze zurückblicken, so verdeutlicht sich, daß dabei in jeweils anderem Kon-text das kategoriale Problem des beschränkten Weltbezuges im Mittelpunkt der Kritik stand: Die »Welt« der SR-theoretischen Konzeption erwies sich als Inbegriff isolierter Einwirkung von Umweltkontingenzen auf den Organismus (wobei der konnektionistische Weltbezug u.U. als eine Spielart des SR-theoretischen aufgefaßt werden kann). Nach Diskussion der kognitiv erweiterten SR-theoretischen Lernkonzepte erwies sich, daß mit dem hier (explizit und impli-zit) zugrundeliegenden »Erwartungskonzept« der aktiv-ändernde Ausgriff des Subjekts auf seine Lebenswelt (damit auch Veränderung der Prämissen des eigenen Handelns) nicht kon-zeptualisierbar ist. Aus der Erörterung der kognitivistischen Gedächtnisforschung ließ sich verallgemeinern, daß hier der »Input« und der »Output«, also die Eingabe- und Ausgabefunk-tion des »Systems«, an die Stelle der unabhängigen Lebenswelt tritt und daß dabei die Spra-che (i.w.S.) quasi als undurchdringliche Mauer zwischen dem Subjekt und der Außenwelt steht. Aus alldem ergibt sich, daß wir diese Beschränkungen in unserer später zu erarbeiten-den subjektwissenschaftlichen Lerntheorie rückgängig machen bzw. vermeiden müssen. Es muß uns gelingen, den subjekthaft-aktiven Charakter des Lernens als Zugang des Subjekts zur wirklichen Welt sachlich-sozialer Bedeutungszusammenhänge zu konzeptualisieren. Oder (anders gewendet): Wir müssen zu lerntheoretischen Grundkonzepten jenseits der (gleichviel ob aus dem SR-psychologischen Reiz-Reduktionismus oder der kognitivistischen Sprachim-manenz resultierenden) Weltlosigkeit der traditionellen Lerntheorien gelangen.

Bevor wir damit beginnen können, ist jedoch erst noch ein weiterer lerntheoretischer Grund-ansatz darzustellen und zu reinterpretieren, der der später zu erarbeitenden subjektwissen-schaftlichen Lernkonzeption einen wesentlichen Schritt näher kommt: Aus der kognitivisti-schen Tradition erwuchs (wie schon erwähnt) neben der gerade diskutierten Gedächtnisfor-

24

schung noch ein anderer lernpsychologisch relevanter Entwicklungszweig als »kyberneti-scher« Theorieansatz, wie er heute in Gestalt der Handlungsregulationstheorie vorliegt. Mit diesem Ansatz ist in gewissem Sinne eine Verbindung zwischen dem Kognitivismus und dem tätigkeitstheoretischen Ansatz, aus dessen kritischer Rezeption unsere subjektwissenschaftli-che Grundkonzeption entstanden ist, hergestellt. So könnte von da aus der Übergang zwischen unseren Reinterpretationsbemühungen und eigener lerntheoretischer Entwicklungsarbeit in besonders stringenter Weise vollziehbar werden.