Studienreader zur analogen elektroakustischen Musik
Transcript of Studienreader zur analogen elektroakustischen Musik
Studienreader zur analogen elektroakustischen Musik
hg. von Michael Custodis
2
Der vorliegende Reader dokumentiert die Ergebnisse der Schreibwerkstatt, die als Seminar
im Wintersemester 2012/13 im Bachelorstudiengang Musikwissenschaft an der WWU Müns‐
ter angeboten wurde. Innerhalb des vorgegeben Rahmenthemas stand es den Studierenden
frei, selbstständig ein Themen zu finden, um in gemeinsamen Arbeitssitzungen das Recher‐
chieren, Präzisieren, Ausarbeiten und Redigieren lexikalischer Artikel zu üben. Die themati‐
sche Fokussierung auf die Geschichte der analogen elektroakustischen Musik diente dabei
zugleich der Vorbereitung auf ein Workshop‐Seminar des Komponisten Simon Stockhausen
im folgenden Sommersemester 2013, das unter dem Titel „Grenzenlos – Möglichkeiten der
elektronischen Klangerzeugung im 21. Jahrhundert“ den Studierenden mit praktischen
Übungen die digitale Phase der elektroakustischen Musik nahebringen wird.
Münster, im April 2013
Michael Custodis
3
Seite
Additive Synthese 4
Pierre Boulez 7
John Cage 9
Herbert Eimert 12
Home‐Made Electronics 15
Institut de Recherche et Coordination Acoustique/Musique (IRCAM) 18
Gottfried Michael Koenig 21
Otto Luening 24
Musique concrète 26
Henri Pousseur 30
Terry Riley 34
Walter Ruttmann 37
Karlheinz Stockhausen 39
Simon Stockhausen 42
Tape Music 44
Elektroakustische Musik beim Westdeutschen Rundfunk Köln I. Die elektroakustische Musik beim Rundfunk 47 II. Das elektronische Studio des WDR 50 III. Technische Entwicklung 53
Iannis Xenakis I. Biografie 55 II. Stochastische Synthese 58 III. Centre de Mathématique et Automatique Musicales – CEMAMu 60
4
Additive Synthese oder auch Fourier‐Synthese, nennt man die Erzeugung einer komplexen periodischen
Schwingung aus einer Reihe von harmonischen Komponenten, den sog. Sinustönen.
1.Fourier‐Theorem
2.Additive Synthese
3.Klangsynthese in der elektroakustischen Musik
4. Digitalisierung der additiven Synthese
1.Fourier‐Theorem
Der franz. Mathematiker und Physiker Joseph Fourier (1768‐1830) erkannte, dass jede kom‐
pliziertere periodische Schwingung als Schallphänomen eine Darstellung von Überlagerun‐
gen mehrerer reiner, harmonischer Schwingungen ist. Unter harmonischen Schwingungen
versteht man das zu einer Grundtonfrequenz gehörige ganzzahlige Vielfache der Grundfre‐
quenz. Somit lässt sich ein Klang auf seine Obertöne und ihren Lautstärkeanteil im gesamten
Klanggebilde hin untersuchen, was auch Fourier‐Analyse genannt wird. Der deutsche Physi‐
ker Georg Simon Ohm fand 1843 heraus, dass das menschliche Gehör nach eben diesen ana‐
lytischen Methoden arbeitet. Umgekehrt zeigt das Fourier‐Theorem, dass sich eine Schwin‐
gungsform aus verschiedenen sinusförmigen Teilschwingungen zusammensetzen lässt.
2.Additive Klangsynthese
Einzelne Obertöne (auch Partial‐ oder Teiltöne genannt) einer Klangstruktur entstehen durch
das Hinzufügen von Sinuston‐Komponenten. Jeder Teilton hat eine eigene Hüllenkurve im
Frequenzspektrum. Die Hüllenkurve einer Frequenz lässt sich in vier zeitlich aufeinander fol‐
gende Phasen unterteilen: Anschwellzeit (A: Attack), Abklingzeit (D: Decay), Haltezeit (S:
Sustain), Ausklingzeit (R: Release) (siehe Abb. 1).
Abb. 1: Schema der vier zeitlichen Phasen einer Frequenzhüllkurve
Somit hat jeder Oberton eines Klangs seinen eigenen Charakter der Tonentfaltung und eine
direkte und hörbare Einwirkung auf das ganze Tongebilde. Ziel der additiven Synthese ist es
unter anderem, natürliche Klänge oder die mechanischer Musikinstrumente authentisch zu
reproduzieren. Dabei ergibt die Addition und Modulation von rund 32 Obertönen einen für
das menschliche Gehör natürlichen Klang. Zu viele Teiltöne wirken wiederum unrealistisch
konstruiert.
5
3.Klangsynthese in der elektroakustischen Musik
(1) Subtraktive (selektive) Klangsynthese bezeichnet einen Prozess, in dem gewünschte Fre‐
quenzen eines Klanggemisches oder Rauschens (Überlagerung mehrerer nicht‐harmonischer
Schwingungen) mit Hilfe von Frequenzbandfiltern (Equalizer) herausgeschnitten oder aber
verstärkt werden. Allerdings lassen sich singuläre Frequenzen nicht separat filtern. Die zu fil‐
ternde Frequenz kann auf Grund von elektrotechnischen Prinzipien nur eingegrenzt und ge‐
filtert werden. Es können deshalb nur ganze Frequenzbänder bearbeitet werden. Partialfre‐
quenzen werden herausgefiltert, bis eine gewünschte Tonfarbe moduliert ist (Funktionswei‐
se früher Synthesizer). Der neue Klang kann dann mit weiteren Filtern manipuliert werden.
Die (2) additive Synthese erfordert zunächst keine digitale Signalverarbeitung. Mit mehreren
Oszilatoren werden die Partial‐Sinustöne eines Sounds erzeugt. Grundlage hierfür ist die Ei‐
genart von Sinustönen: Ein Sinuston ist eine periodische Schwingung mit nur einer Frequenz
f (1/Periodendauer T), welche die Tonhöhe, und einer Amplitude (max. Auslenkung einer
Schwingung), die die Lautsärke bestimmt (siehe Abb. 2).
Abb. 2: Schema einer harmonischen und ungedämpften Sinusschwingung
Die Hüllkurven aller Frequenzen im Sound müssen einzeln mit sog. Modulen bearbeitet, be‐
vor sie mit einem VCA (voltage controled Amplifier) verstärkt werden können. Neben den
Modulen zur Hüllkurvenbearbeitung werden auch solche zur Freq.‐, Amplituden‐ und Pha‐
senmodulation verwendet, um neue Klänge zu generieren. Bereits in der Kölner elektroni‐
schen Musik der frühen 1950er wurden Klänge mit dem Prinzip der additiven Synthese kre‐
iert. Um einen natürlichen Klang zu reproduzieren, benötigt man für alle Obertöne separat
die oben genannten Geräte und Module. Daher ist die additive Synthese mit Computeran‐
wendung leichter und in einem größeren Umfang zu realisieren.
Als (3) direkte Klangsynthese bezeichnet man die digitale Berechnung von Frequenzmodula‐
tionen zur Erzeugung der gewünschten Schwingungsform mit einem entsprechenden Pro‐
gramm, dem eine Wertetabelle der Schwingungsformen zugeordnet wird. Die Elongation
(max. Auslenkung einer Schwingung) mit einem Spannungswert wird als binäre Form ange‐
geben und durch einen D/A‐Wandler in eine analoge elektrische Schwingung umgeformt.
4.Digitalisierung der additiven Synthese
Komplexe, natürliche Klänge, wie die eines mechanischen Musikinstrumentes, können erst
am Computer mit einer entsprechenden Rechenleistung nutzerfreundlich, das heißt mit
technischen Mitteln geringeren Umfangs realisiert werden. Kompliziert bei der Berechnung
von Klängen ist die temporäre Differenz in der Entwicklung der Partialtöne und ihrer jeweils
6
eigenen Hüllenkurve. Durch eine digitalisierte Klangsynthese ist ein präziserer Eingriff in die
Mikrostruktur (die Parameter jeder einzelnen Frequenz) von Klängen möglich sowie die Er‐
zeugung einer beliebig hohen Anzahl von Obertönen ohne größeren technischen Aufwand.
Es wird eine hohe Rechenleistung benötigt, um eine hohe Auflösung des Klangs zu erzielen.
Durch die Digitalisierung können Schwingungen nicht als Ganzes beschrieben werden, son‐
dern immer nur punktuell in Abhängigkeit von der Zeit und somit immer lückenhaft. Zu ei‐
nem Zeitpunkt t werden die Parameter einer Schwingung gespeichert und können so wie‐
dergegeben werden. Je mehr Punkte einer Schwingung in Binärform ausgedrückt werden
können und je kleiner die Lücken zwischen festgehaltenen Parametern werden, umso präzi‐
ser wird eine Wiedergabe möglich. Bei einer hohen Klangauflösung ist das menschliche Ge‐
hör nicht mehr in der Lage, die Lücken bewusst wahr zu nehmen. Ein klanglicher Qualitäts‐
unterschied desselben Sounds bei unterschiedlicher Auflösung ist durchaus hörbar. Die digi‐
tale additive Klangsynthese ermöglicht theoretisch, alle vorstellbaren Klänge zu erschaffen,
diese zu samplen und sie musikalisch nutzbar machen.
Quellen
Eimert, Herbert und Humpert, Hans Ulrich, Das Lexikon der elektronischen Musik, Regensburg 1973
Pousseur, Henri, in: die Reihe 1 (1955), Heft 1 Elektronische Musik
Enders, Bernd, Lexikon Musikelektronik", Mainz 1985
Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010
Abb.2: http://musicweb.hmt‐hannover.de/ipmm/mth_content/mth_adsr.gif [3. Februar 2013]
Peter Bergmüller
7
Boulez, Pierre Französischer Komponist und Dirigent (* 26. März 1925 in Montbriston). Er gilt als einer der
herausragendsten Vertreter der Avantgarde. Anfangs noch stark durch seinen Lehrer Olivier
Messiaen beeinflusst, verband er die bei ihm gelernten, sich wiederholenden Reihenprinzi‐
pien der Satz‐ und Formlehre später mit dem Spätstil Anton Weberns und Igor Strawinskys
Rhythmik zu einer einzigartigen Kompositionsweise, welche in der Multiplikationstechnik
mündete. Ein zentraler Aspekt seiner Musik ist die stetige Entwicklung der Variation sowie
der Einfluss vorklassischer, europäischer als auch außereuropäischer Musik. Außerdem hatte
die Literatur und Dichtung von beispielsweise Stéphane Mallarmé oder René Char große Be‐
deutung. Über Zwischenschritte gelenkter Aleatorik erweiterte er seinen Stil immer weiter
und schränkte seine Kompositionstätigkeit in den 1960er Jahren zunehmend ein zugunsten
seiner Karriere als einer der führenden Dirigenten des 20. Jahrhunderts. Seine Karriere als
Dirigent begann 1957 und führte zur Zusammenarbeit u.a. mit dem BBC Symphony Or‐
chestra, den New Yorker Philharmonikern, den Wiener Philharmonikern sowie den Wagner‐
Festspielen in Bayreuth.
Geboren als Sohn des Ingenieurs und Industriellen Léon Boulez, wuchs er in einem großbür‐
gerlichen, katholisch geprägten Elternhaus auf. Erstmalig bekam er mit 6 Jahren Klavierun‐
terricht. Auf Wunsch des Vaters besuchte er von 1941‐43 die École polytechnique in Lyon,
um Mathematik zu studieren. Boulez setzte sein Klavierunterricht bei Lionel de Pachmann
fort, der ihm die ersten zentralen musikalischen Grundlagen vermittelte. Gegen den Wunsch
des Vaters zog es ihn im Herbst 1943 nach Paris, um an das dortige Conservatoir zu wech‐
seln. Dort besuchte er den Harmonielehreunterricht von Georges Dandelot. Da Boulez die
klassischen Methoden des Unterrichts nicht schätzte, nahm er ab April 1944 Privatunterricht
bei Andrée Vaurabourg‐Honegger. Der bald darauf erfolgten Aufnahme in die Harmonieklas‐
se von Oliver Messiaen wurde zu einem zentralen Einfluss , da nicht nur selten zu hörende
europäische Musik (z.B. Arnold Schönbergs Pierrot Lunaire, Alban Bergs Lyrische Suite), son‐
dern auch außereuropäische Musik behandelt wurde. Nach dem Besuch einer Aufführung
von Schönbergs Bläserquintett op.26 unter der Leitung von René Leibowitz beschloss Boulez,
fasziniert von der Reihentechnik, bei diesem Unterricht zu nehmen. Er führte ihn an die
Spätwerke Weberns heran, kompositorisch umgesetzt als Verschmelzung mit Einflüssen von
Messiaen in seinem Werk von 1945 Douze Notations. Seine erste Hörspielmusik, Le Soleil des
Eaux, realisierte er 1948 in Zusammenarbeit mit Char, nachdem er einige seiner Werke gele‐
sen hatte. Auf Empfehlung Arthur Honeggers wurde Boulez Direktor des Compagnie
Barrault‐Renard, was den Grundstein für seine spätere Karriere als Dirigent legen sollte.
Durch die weltumspannenden Tourneen der Gruppe lernte er hautnah z.B. die südamerika‐
nische Musik kennen. Durch die Pariser Aufführung seines Stücks Le Soleil des Eaux im Jahr
1950 wuchs sein Bekanntheitsgrad, jedoch war es die von seinem Mentor Heinrich Strobel
initiierte Uraufführung von Polyphon X im folgenden Jahr in Donaueschingen, die seinen
Platz als einer der führenden Musiker seiner Generation beflügelte. Bereits Anfang der
1950er Jahre hatte Boulez persönlichen Kontakt mit anderen wichtigen neuen Komponisten
wie Karlheinz Stockhausen [→], John Cage [→] oder Henri Pousseur [→], mit denen er sich
über die Bedeutung und die neuen Wege und Möglichkeiten der Musik austauschte. 1952
nahm er erstmalig an den Darmstädter Ferienkursen teil, die er von Mitte der 1950er bis in
8
die 1960er Jahre als Dozent mitgestalltete. Der weltweite Durchbruch als Komponist gelang
Boulez mit der Uraufführung seines Stücks Le Marteau sans matîre in Baden‐Baden beim
dortigen Weltmusikfest 1955 der Internationalen Gesellschaft für Neue Musik (IGNM). Da
Hermann Scherchen es ablehnte, die Sonate Le Visage nuptial zu dirigieren, musste Boulez
1957 selbst übernehmen. Er beschrieb diese erfahrung später als wichtiges Erlebnis, da er
nun versuchte, eine Verbindung der Ausdrucksweise aus Sicht des Komponisten und des In‐
terpreten zu suchen. Dies schuf den erfolgreichen Grundstein für die Verbindung aus Kom‐
ponist und Dirigent zu einer künstlerischen Einheit. 1959 zog Boulez von Paris nach Baden
Baden. In den nachfolgenden Jahren war er vor allem sehr häufig als Dirigent (z.B. in Bay‐
reuth 1966‐70, beim BBC Symphony Orchestra 1969‐72, bei den New York Philharmonikern
1971‐1975) oder als Lehrer (z.B. an der Musikakademie Basel 1960‐63, als Gastprofessor in
Harvard ab 1963) tätig. Der damalige Staatspräsident Frankreichs, Georges Pompidou, bat
Boulez im Jahr 1970, die Planung und den Aufbau des IRCAM [→] zu übernehmen, das im
Jahr 1977 eröffnet wurde und bis 1991 unter seiner Leitung stand. Mit den neuen technolo‐
gischen Möglichkeiten, die das IRCAM bot, erschuf Boulez neue Klangwelten. Das Wiederho‐
len einzelner rhythmischer oder melodischer Strukturen wird auf virtuelle Klangelemente
verlagert, so dass Boulez mit der realen Präsenz einzelner Teile spielen konnte, um die Struk‐
turen ineinander verschwimmen zu lassen. Gut demonstriert ist dies bspw. in seinem Stück
Dialogue de l`ombre double (1982‐85). Dort veränderte er die Instrumentalklänge und deren
einzelne Strukturen in einem simultanen Vorgang. Sein Ziel dabei war stets, die Ebenen der
Zeit durch unendliche Skalierbarkeit der rhythmischen Werte und durch die Einbettung mik‐
rotonaler Welten aufzusprengen und sich in ihr frei bewegen zu können. Dies war schon bei
Polyphon X sichtbar, da nach dem Vorbild Strawinskys durch einzelne rhythmische Struktu‐
ren sowie deren innere minimale Veränderung ein gleichbleibendes, sich stets veränderndes
Schema entsteht, welches durch melodische Zwischenwürfe akzentuiert werden kann.
Quellen
G. W. Hopkins und Paul Griffiths, Art. Boulez, in: NG2 Band 4, London 2001
Bösche, Thomas, Art. Boulez, in: MGG2 Personenteil 3, Kassel et al. 2000
Hirsbrunner, Theo, Pierre Boulez und sein Werk, Laaber 1985
Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart, 2010
http://www.universaledition.com/Pierre‐Boulez/komponisten‐und‐werke/komponist/88 [22. Januar
2013]
Alexander Schenk
9
Cage, John Milton war ein amerikanischer Komponist, Philosoph und Schriftsteller (* 05. September 1912, Los
Angeles; † 12. August 1992, New York). Er gilt als einer der prägendsten Köpfe der avangar‐
distischen Künste im 20. Jahrhundert, einschließlich der elektroakustischen und experimen‐
tellen Musik in den USA.
1. Zur Person
Als Sohn des Erfinders John Milton Cage Sr. zeichnete sich schon früh eine Neigung zur Musik
ab, die neben einer Begabung für Literatur und Fremdsprachen die zentrale Rolle in J. Cages
Leben spielt. Nach dem Collegeabbruch im Jahr 1930 begab er sich auf eine zweijährige Rei‐
se nach Europa, auf der er Eindrücke über Kunst, Musik und Architektur sammelte. Vor die‐
ser Reise wurde er auf die Zeitschrift "Transition" aufmerksam, durch die er wichtige Eindrü‐
cke über die neuesten Entwicklungen der europäischen Avantgarde sammelte, dort aber
hauptsächlich durch die Schriften von James Joyce beeinflusst wurde. Zurück in Amerika stu‐
dierte er Komposition, Musiktheorie, Analyse, Harmonielehre, Kontrapunkt sowie moderne
und außereuropäische Musik. Zu seinen Lehrern zählten u.a. Arnold Schönberg, Adolph
Weiss, Richard Buhlig und Henry Cowell. Zusätzlich zur musikalischen Ausbildung erwarb sich
Cage ab dem Ende der 1940er Jahre fundamentale Kenntnisse über fernöstliche Kulturen,
wobei der Schwerpunkt bei indischer Philosophie und Zen‐Buddhismus lag. Seinen Lebens‐
unterhalt verdiente Cage zunächst mit Gelegenheitsarbeiten und Auftragsmusiken. Er beglei‐
tete die Merce Cunningham Dance Group als musikalischer Leiter, gab Konzerte oder lehrte
experimentelle Musik an der School of Design in Chicago. Auf einer weiteren Europareise
begegnete er den Malern Robert Rauschenberg und Jasper Johns, die neben Marcel
Duchamps mit ihren ästhetischen Konzepten einen großen Einfluss auf Cages kompositori‐
sche Entwicklung hatten. Zudem lernte er 1949 Pierre Boulez [→] kennen, mit dem er sich
über elektroakustische Musik austauschte. Durch diese Einflüsse bereichert schrieb Cage ab
den 1950er Jahren Musik, die sich nach dem chinesischen Orakelbuch I Ching durch Zufall‐
soperationen definierte und seiner Arbeit mit Tonbandaufnahmen sowie mit dem „prepared
piano“ seine persönliche Note verliehen.
2. Kunstverständnis und Musikästhetik
Die Musik von John Cage war beeinflusst durch die strukturelle und systematische Erarbei‐
tung musikalischen Materials und rhythmischer Strukturen, wobei seine innovative und ex‐
perimentelle Haltung immer eine große Rolle spielte. Aus seinem Blickwinkel bestand Musik
aus kleinen Klangeinheiten, die in sich ein geschlossenes Ereignis darstellen. Entgegen übli‐
cher Konventionen ordnete er diese aber nicht nach Regeln der Melodie‐ und Stimmführung,
Harmonik oder durch geplante Rhythmen, sondern reihte sie hintereinander auf. Seiner Auf‐
fassung nach bestand die Verbindung dieser in sich geschlossenen Einheiten zueinander
durch ihre Koexistenz im Raum. Dieses Aufeinanderfolgen von Elementen unterschiedlichs‐
ter Rhythmen und Klangfarben wurde in seinen Werken für das „prepared piano“ deutlich.
Hierbei handelt es sich um einen Konzertflügel, dessen Saiten mit einer Vielzahl von Objek‐
ten präpariert werden. So werden u.a. Holz, Metall, Gummi oder Glas dafür verwendet, um
verschiedene Klangfarben zu erzeugen sowie die Tonqualität und den Anschlag zu variieren.
10
Ein weiterer Faktor für Cages innovative Haltung war die Arbeit mit dem I Ching, das chinesi‐
sche Buch der Wandlungen, das für Cage zur zentralen Entscheidungshilfe werden sollte. Es
besteht aus einem System von 64 Zeichen (Hexagramme) mit sechs horizontal untereinander
angeordneten Linien, die entweder ununterbrochen oder einmal unterbrochen waren. Jedes
dieser Hexagramme stellte ein musikalisches Ereignis dar. Welches Hexagramm eine Antwort
auf eine bestimmte kompositorische Frage liefern sollte, wurde durch Münzwurf ermittelt.
Diese Methode gewährte Cage eine fortlaufende Wandlung bzw. Veränderung des musikali‐
schen Materials. Eine weitere Möglichkeit, die Cage ausschöpfte, waren die von ihm sog.
„chance operations“, eine Zahlenreihe zur Ermittlung der Dimension einzelner Klänge oder
auch der Satzdichte. Auch hier diente der Münzwurf wieder der Festlegung der unterschied‐
lichen Parameter. Mit Hilfe dieser Zufallsentscheidungen wollte er eine Aufhebung der Sub‐
jektivität der Komposition bewirken. Damit ein Hörer die Musik wertfrei und losgelöst von
Geschmack und Vorurteilen genießen konnte, sollte diese möglichst nicht intentional ge‐
prägt sein, sodass jeder Hörer sein "eigenes Stück" hörte. Diese beiden Methoden stellen die
Grundlage für Cages Arbeit mit elektronischer Musik dar und bilden das Konstrukt für sämtli‐
che seiner u.a. am Computer erstellten Werke sowie der früheren Tonbandmusik.
Neben diesen Zufallsmethoden war für Cage die Beziehung der Musik zu Umwelt und Gesell‐
schaft wichtig. Dieser Einbezug der Umwelt stellte für Cage eine große Motivation für seine
Tonbandaufnahmen dar. Es sollte der Steigerung der Aufmerksamkeit und des Bewusstseins
in Bezug auf die reale, materielle Welt dienen. Er konfrontierte die Hörer bewusst mit unan‐
genehmen Geräuschen und Lärm, um eine bessere Reaktionsfähigkeit und einen besseren
Umgang mit Alltagsgeräuschen (z.B. U‐Bahn, Verkehr) zu entwickeln. Cage legte großen Wert
darauf, dem Publikum einen neuen Zugang zur Umwelt zu eröffnen, um diese wieder schät‐
zen zu können.
3. Tape Music und elektroakustische Musik
Das Stück Williams Mix von 1952 ist eine Klangcollage von Tonbandaufnahmen (→ Tape Mu‐
sic), die nach dem Prinzip des I Ching zusammengestellt wurden. Das Material wurde in
sechs Kategorien eingeteilt: Stadt‐ und Landschaftsgeräusche, elektronische, manuell oder
windproduzierte Klänge, sowie Sounds, die aufgrund ihrer geringen Lautstärke verstärkt
wurden. Diese Aufnahmen wurden in kleine Einheiten geschnitten, um nutzbar gemacht zu
werden. Diese Einheiten wurden wieder durch die bekannte Zufallsmethode mit den Para‐
metern Klangfarbe, Rhythmus und Dynamik modifiziert.
Der Rozart Mix (1965) ist ein weiteres Beispiel für den vielfältigen Einsatz von Cages Ton‐
bandaufnahmen. Es ist ein Konzertstück für 13 Tonbandgeräte und sechs Darsteller. Ver‐
wendet wurden 88 Aufnahmen, die aufgrund der Willkür des verwendeten Materials von be‐
liebigen Personen zusammengestellt wurden. Die Aufführung fand im Rose Art Museum, in
dem die Abspielgeräte in den Ecken des Raumes aufgestellt wurden, um so ein möglichst
verworrenes Klangbild zu erlangen. Ein ähnliches Projekt war schon sein Stück Imaginary
Landscape No.4 (1951) gewesen, in dem Cage zwölf Radios als Musikinstrumente verwende‐
te und diese mit jeweils zwei Ausführenden besetzte. Diese regelten sowohl die Lautstärke
als auch den Sender, wobei im Voraus nicht ersichtlich war, welcher Sender was zu welchem
11
Zeitpunkt spielen würde. So ergab sich in beiden Stücken ein verworrenes und undurchsich‐
tiges Klangfeld.
Quellen
Erdmann, Martin, Art. Cage, in: MGG2 Personenteil 3, Kassel et al. 2000
Kostelanetz, Richard, John Cage. Documentary Monographs in Modern Art, New York 1970
Pritchett, James und Laura Kuhn, Art. Cage, in: NG2 Band 3, London 2001
Ungeheuer, Elena (Hg.), Elektroakustische Musik, Laaber 2002
Sebastian Stewing
12
Eimert, Herbert Deutscher Komponist, Radioproduzent, Musiktheoretiker und Journalist ( ⃰ 8.4.1897 in Bad Kreuznach; † 15.12.1972 in Düsseldorf). Eimert ist Mitbegründer des Studios für Elektroni‐
sche Musik des WDR [→] und vor allem einer der wich gsten Förderer der zeitgenössischen
elektronischen Musik in Deutschland.
Herbert Eimert wurde als Sohn eines Gymnasiallehrers und einer Geigenlehrerin geboren.
Von 1919‐24 studierte er Geige, Klavier, Tonsatz und Dirigieren am Kölner Konservatorium
bei Herrmann Abendroth, Johann Eduard Franz Bölsche und August von Osthegraven. 1923
schrieb er Fünf Stücke für Streichquartett und eine Atonale Musiklehre, die bei ihrer Veröf‐
fentlichung 1924 zum Bruch mit seinem Theorielehrer Bölsche führte. Daraufhin verließ er
das Konservatorium ohne Abschluss und studierte Musikwissenschaft an der Kölner Univer‐
sität bei Ernst Bücken, Willi Kahl und Georg Kinsky. Hier hörte er auch Philosophie bei Max
Scheler und Paul Nicolai Hartmann. 1930 erfolgte die Promotion über Musikalische Form‐
strukturen im 17. und 18. Jahrhundert. Versuch einer Formbeschreibung, die 1932 mit von
Hartmann verlangten Änderungen veröffentlicht wurde. Zeitgleich, von 1927‐33, war er Mit‐
arbeiter des Kölner Rundfunks und schrieb zeitweilig für die Musikzeitschriften Melos und
Zeitschrift für Musik (heute: Neue Zeitschrift für Musik). Ab 1930 wurde er, parallel zu seinen
Rundfunktätigkeiten, Musikreferent beim Kölner Stadt‐Anzeiger. 1935 nahm er die Stelle des
Redakteurs bei der Kölnischen Zeitung an und wurde im August 1945 einer der ersten Ange‐
stellten des unter britischer Besatzung verwalteten Kölner Rundfunks, wo er dann 1947 das
Ressort der Kulturberichterstattung übernahm. Im darauffolgenden Jahr wurde er Leiter des
Musikalischen Nachtprogramms, das am 21. Oktober 1948 zum ersten Mal auf Sendung ging
und für das er bis 1966 ca. 380 Sendungen produzierte. Die Sendereihe wurde zur bedeu‐
tendsten Musiksendung für zeitgenössische Musik, da sie europaweit einem großen Hörer‐
kreis zugänglich wurde, und galt als eine der Hauptinformationsquellen über die aktuellen
Entwicklungen der neuen Musik. 1951 beschloss das Kölner Funkhaus, auf Initiative von Ei‐
mert und mit Unterstützung von dem Informationstechniker Werner Meyer‐Eppler und dem
Tonmeister Robert Beyer, das Studio für elektronische Musik zu gründen, das Eimert bis
1962 leitete (1963 wurde Karlheinz Stockhausen sein Nachfolger, →). Auf Meyer‐Eppler und
Beyer wurde er 1951 aufmerksam, als sie drei Vorträge unter dem Titel Die Klangwelt der
elektronischen Musik bei den Darmstädter Ferienkursen seines Journalistenkollegen Wolf‐
gang Steinecke hielten. Das Elektronische Studio des WDR und das Musikalische Nachtpro‐
gramm standen in enger Zusammenarbeit. Dadurch, dass Eimert als Leiter des Studios eine
Öffnung nach außen durchsetzte, förderte er zahlreiche, heute weltbekannte Komponisten,
die im Studio ihre Werke realisieren konnten, wodurch es recht schnell zum Zentrum der
Avantgarde wurde: K. Stockhausen, Karel Goeyvaerts, Henri Pousseur [→], Go ried Michael
Koenig [→], György Lige und Nam June Paik gehörten u. a. zum Umfeld. 1951‐57 unterrich‐
tete Eimert vermehrt in Darmstadt, wo z. B. eine Vorlesung über punktuelle Musik hielt, um
die Post‐Webernsche Betonung der „einzelnen Note“ zu charakterisieren. 1965 wurde er
zum Professor an der Hochschule für Musik in Köln ernannt, wo er auch das von ihm gegrün‐
dete Studio für Elektronische Musik leitete. Mit Hans Ulrich Humpert, der 1971 sein Nachfol‐
ger des Studios der Musikhochschule wurde, arbeitete er am Lexikon der elektronischen Mu‐
sik, welches erst 1973, einem Jahr nach Eimerts Tod, publiziert wurde.
13
Seine eigene elektronische Musik brachte Eimert eine große öffentliche Aufmerksamkeit.
1952 entstanden beispielsweise Gemeinschaftskompositionen mit Beyer, die noch Versuchs‐
charakter hatten. Dazu gehörten Klangstudie I, II und III, Klang im unbegrenzten Raum und
Ostinate Figuren und Rhythmus, die allesamt am 26. Mai 1953 innerhalb des Neuen Musik‐
festes vorgestellt wurden. Seine wohl bedeutendste Komposition ist Epitaph für Aikichi Ku‐
boyama (1958‐62). Das verwendete Klangmaterial besteht ausschließlich aus Sprachklängen,
die aus einemText von Günther Anders abgeleitet wurden.
Doch Eimerts Hauptanliegen waren vor allem seine Schriften. Als Kritiker schrieb er mehr als
3000 Rezensionen, die vor allem vermitteln und produktiv sein sollten. Viele von Eimert ver‐
fassten Zeitschriftenartikel sind von den Nachkriegsdebatten über elektronische Musik und
Weberns Musik beeinflusst. Er erwog die Musik Weberns als Vorreiter für serielle Methoden
der Avantgarde‐Generationen. Seine Atonale Musiklehre von 1923 beansprucht, die erste
systematische Beschreibung der atonalen Technik zu sein, in der er Arnold Schönbergs Neu‐
erungen der Zwölftonmusik zusammenfasste und Aspekte von Josef Matthias Hauers Theo‐
rie und kompositorische Techniken von Yefim Golišev erläuterte. Eben diesen verdankt er
nach eigenen Angaben seine Kenntnisse der Zwölftontechnik, da er durch das Einbeziehen
von Rhythmus‐Parametern bereits vor den 1920ern ein Vordenker serieller Technik war.
1950 verfasste Eimert das Lehrbuch zur Zwölftontechnik und zählte sich neben Schönberg,
Hauer und Golišev als die vierte Figur einer Autorenschaft der Zwölftontechnik, da er melo‐
disch‐lineare Zwölftonbildungen zur Grundlage des Systems machte. Es wurde mit mehreren
Auflagen und Übersetzungen zum erfolgreichsten Zwölftonlehrbuch.
Im Nachkriegsdeutschland war Eimert neben Josef Rufer und René Leibowitz einer der We‐
nigen, die Zwölftontechnik unterrichteten. In seiner Schrift Zur musikalischen Situation
(1954) definierte er seinen Begriff der elektronischen Musik und konstruierte eine Musikge‐
schichte, die im seriellen Konzept der elektronischen Musik kulminiert. In diesem Text lehnte
er u. a. die seit 1948 von Pierre Schaeffer begründete Musique concrète [→] ab und ließ sie
daher nicht in seiner Geschichtsschreibung zu. Die Ablehnung beruhte darauf, dass diese Art
der Musik Klänge und Geräusche mit einem Mikrophon aufnehme. Später widersprach er
selbst diesem Kriterium und benutzte Mikrophone zur Aufnahme, so wie er zu Beginn der
Arbeit im neugegründeten Kölner Studio für Elektronische Musik Klänge nicht seriell, son‐
dern sehr assoziativ komponieren ließ. Von 1955‐62 gab er mit K. Stockhausen in acht Heften
das Periodikum die reihe – Informationen über serielle Musik heraus. 1963 ging er gedanklich
mit Grundlagen der musikalischen Reihentechnik über die Zwölftontechnik hinaus und zog
die Konsequenzen aus dem inzwischen überholten seriellen Denken, welches die Arbeit sei‐
nes Kölner Künstlerkreises bestimmt hatte.
Quellen
Custodis, Michael: Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart
2004
Eimert, Herbert, Atonale Musiklehre, Leipzig 1924
Ders., Lehrbuch der Zwölftontechnik, Wiesbaden 1950
14
Ders., Musikalische Formstrukturen im 17. und 18. Jahrhundert. Versuch einer Formbeschreibung,
Augsburg 1932 [Dissertation Univ. Köln, 1930].
Ders., Grundlagen der musikalischen Reihentechnik, Wien 1964
Ders. mit Hans Ulrich Humpert, Lexikon der elektronischen Musik, Regensburg 1973
Ders. mit Karlheinz Stockhausen (Hg.), die reihe – Informationen über serielle Musik, 8 Hefte,
1955‐62
Kämper, Dietrich, Pionier der Neuen Musik. Herbert Eimert – Journalist, Komponist, Organisator und
Förderer, in: MusikTexte 14 (1996), Heft 69/70
Kirchmeyer, Helmut, Kleine Monographie über Herbert Eimert, Stuttgart und Leipzig 1998
Supper, Martin, Art. Eimert, Herbert, in: MGG2 Personenteil 6, Kassel et al. 2006
Wilson, Charles, Eimert, Herbert, in: NG Band 6, London 1980
http://www.elektropolis.de/ssb_eimert.htm [3. Februar 2013]
Janine Eichholz
15
Home‐Made Electronics Als Home‐made electronics bezeichnet man elektronische Musik, die nicht mit Computern
oder in speziellen Studios erzeugt wird, sondern aus zweckentfremdeten Alltagsgegenstän‐
den entsteht, die mit Mikrofonen und Lautsprechern versehen werden und über die Beein‐
flussung elektromagnetischer Felder klänge produzieren.
1. Anfänge
Das erste kommerziell elektronische Instrument war das Theremin, das 1917 von Lew Ter‐
men erfunden und erfolgreich vermarktet wurde. Die Position der Hände beeinflusst über
zwei Elektroden in Form von Antennen zwei elektrische Felder, die einen Ton erzeugen, der
über einen Lautsprecher hörbar gemacht wird.
Abb. 1: Undatiertes Portrait von Lew Thermen
2. Piezo‐Musik
Nach John Cages [→] Cartridge Music versuchten viele Klangkünstler, Techniken zum Ver‐
stärken der mechanischen Schwingungen und mikroskopische Geräusche zu entdecken. An‐
fang der 1970er Jahre hat man die in Piepern enthaltenen Piezoscheiben mit Lötkolben so
verarbeitet, dass man sie z.B. als Tonabnehmer von Bluegrass‐Madolinen benutzen konnte.
Durch die Vielfalt an Geräuschen entstand ein eigener Stil von Piezo‐Musik. Hugh Davis und
Richard Lerman waren zwei der ersten Künstler auf diesem Gebiet. Davis erfand piezover‐
stärkte Instrumente, die durch Zupfen oder Einblasen Marimba‐Klänge erzeugen konnten.
Lerman begann 1977, sich auf Piezo‐Musik zu konzentrieren und verwendete Computerfest‐
platten, die er mit gasbetriebenen kleinen Lötlampen stimulierte, die durch das Rauschen
des Gases einen über Lautsprecher hörbar gemachten Klangeffekt erzeugen.
16
3. David Tudors Rainforest
David Tudor begann seine Karriere als einer der führenden Pianisten der Avantgarde. In den
frühen 1950er Jahren war er als Pianist und Ausführender elektronischer Stücke bei der
Merce Cunningham Dance Company engagiert worden. Vergleichbar seiner herausragenden
pianistischen Fähigkeiten war er ein Virtuose der Elektronik. Aufbauend auf Cages Arbeit mit
„gefunden“ Technologien von Radios und Plattenspielern erwarb er sich umfangreiche elekt‐
rotechnische Kenntnisse, um eigene Schaltungen und Instrumente herzustellen. Inspiriert
wurde Tudor dabei auch von Gordon Mumma.Beginnend im Jahr 1968, entwarf Tudor eine
Reihe von Stücken unter dem Titel Rainforest ihr Höhepunkt war Rainforest. Das Prinzip al‐
ler Stücke dieser Reihe ist ähnlich: Klänge werden von Sensoren erzeugt, die an festen Ge‐
genständen angebracht sind. Die verarbeiteten Sounds werden direkt von den Objekten zu‐
rückgeworfen, indem an den Objekten zusätzlich befestigte Mikrofone das Vibrieren der
Oberflächen aufnehmen. Die am Mischpult zusammengeführten Klänge werden schließlich
auf Lautsprecher ausgegeben, die um das Publikum herum aufgestellt wurden.
4. Spuren in der elektronischen Musik
Die 1970er Jahren waren eine entscheidende Zeit in der Entwicklung der Technologie und
Kultur der elektronischen Musik, da Synthesizer noch sehr teuer waren und junge Musiker
selten Zugang zu profesionellen Studios hatten. Aus der mündlichen Tradierung von Wissen
über elektronische Klänge entwickelte sich eine kreative Gemeinschaft von Gleichgesinnten,
von denen einige auch mit Tudor arbeiteten. Zu ihnen gehörte auch David Behrman, der am
Mills College im kalifornischen Oakland Schüler von Tudor war und bis heute als Produzent
und Komponist arbeitet.
Ein anderes Beispiel ist die 1972 von den zwei Schweizer Andy Guhl und Norbert Möslang
gegründete Formation Voice Crack, die zunächst zusammen experimentelle elektronische
Musik machten. In den 1980er Jahren stieg ihre Bekanntheit, als sie aus alltäglichen elektro‐
nischen Geräten wie Diktafonen und Plattenspielern sowie aus blinkenden Lichtern, fernge‐
steuerten Autos oder Funkstörungen Geräusche generierten.
Die von Voice Crack repräsentierte Nähe zu Bildender Kunst und Klanginstallationen trifft
auch auf Christian Terstegge zu, der bereits seit den früher 1980er Jahren dafür bekannt
war, Klanginstallationen und Performances mit hausgemachten Schaltungen zu entwerfen.
Seine im Jahr 1986 vorgestellte Arbeit Ohrenbrennen findet in einem abgedunkelten Raum
statt, man blickt in die offenen Seiten von vier schwarzen, nebeneinander aufgestellten Käs‐
ten, die mit Lautsprechern verbunden sind. In jedem Kasten steht eine dünne Kerze, die
nacheinander angezündet werden. Während sich das Streichholz der Kerze nähert, entsteht
ein Ton. Wenn alle Kerzen angezündet sind, überlagern sich ihre Frequenzen, was sich mit
steigender Tonhöhe verstärkt, je weiter die Kerzen abbrennen.
17
Abb. 2: Installation von Ohrenbrennen 1988 im Künstlerhaus Hamburg
Quellen
Behrman, David, Chaotische Systeme. Tudor, in: MusikTexte 14 (1996) Heft 69/70
Collins, Nicolas, Handmade Electronic Music ‐The art of hardware hacking, New York 20092
Kuivila, Ron, Composer Indise Electronics. Anmerkungen zu David Tudor, in: MusikTexte 14 (1996)
Heft 69/70
Müller, Hermann‐Christoph, Einheit von Klang und Technik. Die Musik des US‐amerikanischen Kom‐
ponisten David Behrman, in: MusikTexte 18 (2000) Heft 85
http://www.soundbasis.eu/pdfs/Davies_Portrait.pdf
http://www.christian‐terstegge.de/kunst/ohrenbrennen.html
Abb. 1 http://ludditesgroup.blogspot.de/2010/03/leon‐thermen.html [9. April 2013]
Abb. 2 http://www.christian‐terstegge.de/kunst/ohrenbrennen.html [9. April 2013]
Nadine Dakkour
18
Institut de Recherche et Coordination Acoustique/Musique (IRCAM) Ein Forschungsinstitut für Musik in Paris, welches 1970 von Pierre Boulez mit Unterstützung
des französischen Präsidenten Georges Pompidou gegründet wurde. Es entwickelte sich zu
einem Zentrum der experimentellen elektronischen Musik. Aufgabe des Instituts ist es, For‐
schungen zur neuen Musik und ihrer Technologie zu betreiben. Boulez selbst beschrieb die
Aufgabe des IRCAM so:
„Überhaupt wurden diese Forschungen immer in Institutionen betrieben, die dafür nicht ge‐
schaffen waren […] Es schien mir also notwendig, nicht mehr von Institutionen abhängig zu
sein, die andere Gesichtspunkte […] haben. […] Man braucht eine Institution, die sich aus‐
schließlich mit diesen Forschungen befasst.“
1. Geschichte
Die Idee eines Instituts für Musikforschung hatte Boulez aus Deutschland. Dort gab es ab
1965 Planungen für ein Max‐Planck‐Institut für Musik, welches in München entstehen und
unabhängig von Musikschulen und anderen Institutionen sein sollte. Boulez kam zu diesen
Planungen im Mai 1966 hinzu. Nachdem er es zunächst abgelehnt hatte, hauptamtlich dort
zu arbeiten, legte er am 21.09.1971 doch einen Plan für ein solches Institut vor mit dem Titel
„Centre de Recherches Acoustiques“. In diesem Papier findet man viele Ansätze, die im IR‐
CAM verwirklicht wurden. Als das Projekt in Deutschland wegen verschiedener Differenzen
bereits stagnierte, bekam Boulez das Angebot, in Paris ein solches Institut nach seinen Wün‐
schen aufzubauen. Boulez hatte zunächst auf Grund des ambivalenten Verhältnisses zu
Frankreich starke Vorbehalte, dorthin zurückzukehren. Vor allem seine Zusage war schließ‐
lich aber der Grund für das endgültige Ende des Münchener Projekts im Jahr 1972. Weitere
wichtige Einflüsse für das IRCAM waren das Standford University’s Center for Computer Re‐
search in Music and Acoustics (CCRMA) und das Stanford Artificial Intelligence Laboratory
(SAIL). Darüber hinaus war die anfängliche Abhängigkeit von amerikanischer Technik und
Technikern durchaus prägend.
1977 nahm das IRCAM schließlich unter der Direktion Pierre Boulez seine Arbeit auf dem Ge‐
lände des Centre Pompidou auf. 1992 übernahm Laurent Bayle die Leitung, der 2002 von
Bernard Stiegler abgelöst wurde. Seit 2006 leitet Frank Madlener das IRCAM. Die Arbeit des
IRCAM wurde in die Bereiche Elektroakustik, Computer(technik), Pädagogik, Instrumente
und Stimme aufgeteilt, die jeweils von einem Spezialisten geführt wurden. U.a. arbeiteten in
der Anfangszeit Luciano Berio, Vinko Globokar, Jean‐Claude Risset und Gerald Bennet am
Institut. Nicholas Snowman war von 1972‐1986 künstlerischer Direktor. Die dezentrale Auf‐
teilung dieser fünf Bereiche erwies sich jedoch als problematisch, so dass 1980 und 1984 die
Organisationsstrukturen des IRCAM jeweils neu geregelt wurden. Insgesamt konzentrierte
sich die Forschung immer mehr auf den Bereich der computertechnischen Musikproduktion.
Die Leitung des Instituts schaffte es, externe Einflüsse weitgehend zu vermeiden. So war es
möglich, die technischen Forschungen hauptsächlich nach den künstlerischen Zielen und
Vorstellungen zu gestalten.
19
1999 wurde die Forschungsgruppe der Performing Arts unter der Leitung von François Raf‐
finot gegründet. Darüber hinaus wurden 2004 die musikalischen Forschungsgruppen neu in
Orchestration, Rhythmus und Stimme aufgeteilt. Inzwischen wird zwischen drei Hauptar‐
beitsbereichen unterschieden: Werk, Forschung und Vermittlung. Im IRCAM arbeiten unge‐
fähr 150 Vollzeitmitarbeiter, darunter 90 Forscher und Ingenieure. Jährlich werden ca. 20
Komponisten beauftragt, Werke zu schreiben und diese am Institut zu verwirklichen. Heute
hat sich das IRCAM zur Aufgabe gemacht, auch ein breiteres Publikum zu erreichen und jun‐
ge Künstler zu fördern. Dies zeigt sich u.a. in der Expansion des seit 1998 jährlich vom IRCAM
ausgerichteten Agora‐Festivals sowie der Zusammenarbeit mit Hochschulen.
2. Arbeiten und Projekte
Zur Förderung junger Künstler wurde bereits 1990 ein Kursprogramm für Komposition und
Computermusik eingerichtet, das vor kurzem in einem zweijährigen Kurs als Teil des ECMCT
Leonardo Projekts (European Course for Musical Composition and Technologies) umgewan‐
delt wurde. Weiterhin besteht seit 1993 eine Partnerschaft mit der Université Paris VI. In
diesem Jahr wurde auch das IRCAM Forum gegründet, eine Software Usergroup, in der 1500
professionelle Musiker vertreten sind. 1996 eröffnete das Institut die IRCAM multimedia
library und seit 1995 bilden das Kultusministerium, das CNRS und IRCAM das „science and
technologies for music and sound research lab“ (STMS). 2010 trat diesem auch die Universi‐
tät Pierre et Marie Curie (UPMC) bei. Seit 2001 arbeitet das IRCAM verstärkt an internationa‐
len Projekten mit, wie dem RadioThém, Carrouso, DoReMi, DVD á la carte, SemanticHIFI o‐
der i‐Maestro.
Im Zuge der Forschung entwickelte das IRCAM viele technische Neuerungen. Bei den Hard‐
waretools ist besonders der digitale Audioprozessor 4X zu nennen, den man seit 1976 vor al‐
lem produzierte, um Boulez‘ Répons verwirklichen zu können, und der 1981 fertig gestellt
wurde. Dieses Stück illustriert insgesamt viele der Forschungen am IRCAM. So kommt hier
auch die IRCAM Signal Processing Workstation zum Einsatz, eine Technik, welche die Live‐
Elektronik vereinfachte. Mit dieser Workstation muss sich das Orchester nicht mehr an die
Geschwindigkeit des Tonbandes halten, sondern der Computer orientiert sich mit Hilfe der
Partiturverfolgung (Pitch Tracker) an der Geschwindigkeit der Musiker.
Im Softwarebereich war das erste große Projekt 1988 das Max‐Programm, welches die In‐
teraktion zwischen Computer und Interpreten vereinfachte, und heute zu einer Stan‐
dardsprache bei den mit MIDI arbeitenden programmierbaren Systemen geworden ist. Im
selben Jahr wurde auch das Syntheseprogramm Modalys fertiggestellt. Ein weiteres Synthe‐
seprogramm, welches sprachorientiert arbeitet, ist Chant. 1995 wurde eine Software speziell
für Konzerthallenakustik vorgestellt. In Zusammenarbeit mit dem Ministerium für Kultur und
Industrie wurde 1996 eine Software für das Komponieren am Computer entwickelt. Diese
OpenMusic Software kommt besonders im Hochschulunterricht zum Einsatz. Ein weiteres
Projekt für die Ausbildung in Kooperation mit der Regierung war 2002 das MusiqueLab Pro‐
gramm. 2008 stellte das IRCAM das System „Wave Field Synthesis“ (WFS) fertig. Dies ist ein
Verfahren zur räumlichen Audiowidergabe. Das Ziel dieses Systems ist es, eine virtuelle akus‐
20
tische Umgebung schaffen zu können. Darüber hinaus verantwortet das IRCAM mehrere
Zeitschriften‐ und Publikationsreihen.
Quellen
Born, Georgina, Rationalizing Culture; IRCAM, Boulez, and the Institutionalization of the Musical
Avant‐Garde, Los Angeles 1995
Boulez, Pierre, Wille und Zufall; Gespräche mit Célestin Deliège, Stuttgart 1977
Custodis, Michael, Schwer von Begriff; Pläne zu einem nicht realisierten Max‐Planck‐Institut für Musik
(1965‐1972), in: Die Tonkunst 6 (2012) Heft 2
Jungheinrich, Hans‐Klaus (Hrsg.), Das Gedächtnis der Struktur. Der Komponist Pierre Boulez, Frankfurt
a.M. 2010
Manning, Peter, Art. Institut des Recherche et Coordination Acoustique/Musique, in: NG2 Band 12,
London 2001
Supper, Martin, Elektroakustische Musik und Computermusik, Fulda 1997
Vinet, Hugus, Science and Technology of Music and Sound: The IRCAM Roadmap, in: Journal of New
Music Research 36 (2007) Heft 3
http://brahms.ircam.fr/works/alphabetical‐order/a/ [1. März 2013]
http://www.ircam.fr/62.html?&L=1 [1. März 2013]
Vera Muhmann
21
Koenig, Gottfried Michael Dt. Komponist, Theoretiker, Hochschullehrer und Computermusik‐Pionier (* 5. Okt. 1926 in
Magdeburg). Obwohl G. M. Koenig eher zu einem der übersehenen Künstler der Kölner
Richtung gehört, ist er, neben seiner umfangreichen Kompositions‐ und Lehrtätigkeit, vor al‐
lem durch seine theoretisch‐systematische Aufarbeitung der elektronischen Musik bekannt
geworden, welche logisch aus seinem eigenen Kompositionsprozess folgt. In seinen theoreti‐
schen Schriften geht es u. a. um den Brückenschlag zwischen elektronischer und instrumen‐
taler Musik sowie dem zwischen zufälliger und serieller Kompositionsweise.
Koenig wurde als Sohn eines evangelischen Pfarrers geboren und erhielt von seinem zehnten
Lebensjahr an Klavier‐ sowie später Violin‐ und Orgelunterricht. Von 1936 bis 1944 besuchte
er das Wilhelm‐Gymnasium in Braunschweig, bis er zum Kriegsdienst eingezogen wurde. Im
Mai 1945 kam er in amerikanische Kriegsgefangenschaft, aus der man ihn aber bereits 1946
wieder entließ. Noch im selben Jahr begann er ein Studium der Kirchenmusik in Braun‐
schweig und wechselte 1946 an die Nordwestdeutsche Musikakademie nach Detmold, wo er
Komposition bei Günter Bialas, Musikgeschichte bei Lina Jung, Analyse bei Wilhelm Maler,
Klavier bei Jan Natermann und Akustik bei Erich Thienhaus studierte.
Durch den Besuch der Darmstädter Ferienkurse 1951, bei denen er u. a. Vorträge von
Werner Meyer‐Eppler [→ Elektronisches Studio des WDR] und Herbert Eimert [→] hörte,
sowie die ersten Nachtprogramme des NWDR wurde sein Interesse für die elektronische
Musik geweckt. Daraufhin schrieb sich Koenig 1953 für ein Studium der musisch‐ techni‐
schen Gestaltung an der Musikhochschule Köln ein und bewarb sich bei Eimert auf eine
Stelle im elektronischen Studio des NWDR, welche er 1954 antrat. Bis 1964 war er dort fes‐
ter Mitarbeiter. Zum einen assistierte er Kollegen, etwa Karlheinz Stockhausen [→], Mauricio
Kagel, Franco Evangelisti, Györgi Ligeti, Henri Pousseur [→] oder Herbert Brün, zum ande‐
ren verwirklichte er dort seine eigenen elektronischen Kompositionen. In dieser Zeit ent‐
standen z. B. Klangfiguren I u. II (1955 bzw. 1955/56), Essay (1957/58) und Terminus 1
(1962). Des Weiteren schrieb er weiterhin Werke für Orchester und kammermusikalische
Besetzungen, beispielsweise Diagonalen für 2 Orchester (1955), Quintett für Holzbläser
22
(1958/59) oder das Streichquartett 1959. Zusätzlich erhielt Koenig ab 1962 einen Lehrauftrag
für elektronische Musik, Analyse und Komposition an der Musikhochschule Köln. Zwischen
1962 und 1964 studierte er außerdem Computertechnik in Bonn, wo er seine ersten
Kompositionsversuche mit dem neuen Medium unternahm. Von 1964 bis 1986 war er an‐
schließend Mitarbeiter an der Universität Utrecht, davon die längste Zeit als Direktor des In‐
stituts für Sonologie, das unter seiner Leitung zu weltweitem Ruhm gelangte. Er entwickelte
dort u. a. die Computerprogramme Projekt 1, Projekt 2 und SSP (Sound Synthesis Program).
Als das Institut 1986 von Utrecht nach Den Haag verlegt wurde, widmete sich Koenig wieder
zunehmend der Komposition, um an grafischen Computermethoden und der Entwicklung
musikalischer Expertensysteme zu arbeiten. Darüber hinaus verlegte er seine gesammelten
theoretischen Schriften, Essays, Vortragsnotizen und Tagebücher. Auch im hohen Alter hält
Koenig weiterhin Vorträge im In‐ und Ausland.
Für seine Arbeit erhielt Koenig zahlreiche Auszeichnungen. Darunter waren 1961 die Förde‐
rungsprämie des Landes Nordrhein‐Westfalen, 1987 der Matthijs Vermeulen‐Preis der Stadt
Amsterdam, 1999 der Christoph und Stephan Kaske‐Preis sowie im Jahr 2010 der Giga‐Hertz‐
Preis des Zentrums für Kunst und Medientechnologie in Karlsruhe. 2002 wurde ihm darüber
hinaus die Ehrendoktorwürde der philosophischen Fakultät der Universität des Saarlandes
verliehen und 2002/03 die Ehrenprofessur für Computermusik an der Universität der Künste
Berlin.
Bereits in seiner Kölner Zeit zeichneten sich seine Kompositionen durch konsequent struktu‐
rierte Formen aus, etwa in seinem Stück Essay. Koenig interessierte sich mit naturwissen‐
schaftlicher Genauigkeit besonders für Kompositionsprozesse – so dem Wirken von „Musik
und Zahl“, mit dem „versucht wird, die Komposition musikalischer Strukturvarianten zu for‐
malisieren“ – und Klangfarben. Obwohl er sich streng an die Trennung zwischen instru‐
mentaler und elektronischer Musik hielt, so sind diese beiden, für ihn augenscheinlichen
Extreme doch durch bestimmte Systematiken bis zu einem gewissen Grad miteinander ver‐
knüpft. Sinnbild für die Überwindung dieser Lücke sind vorrangig seine Computerprogram‐
me, auch wenn sie für ihn immer bloß Mittel zum Zweck waren. Seine Funktionen‐Reihe
(1967‐69) wurde beispielsweise nur aus einer einzigen, seriell strukturierten Spannungskurve
heraus mithilfe eines im Utrechter Studio gebauten Funktionsgenerator abgeleitet; die Klän‐
ge wurden über einen Ringmodulator erzeugt. Seine Programme hatten zum Ziel, seine be‐
reits existierenden Kompositionstechniken weiter zu systematisieren und sie anderen Kom‐
ponisten zugänglich zu machen. Hatte Cage mit seinen stark vom Wert des Zufall geprägten
Kompositionsidealen noch stark die Avantgardeszene erschüttert, so gelang es Koenig und
anderen, die vermeintliche Kluft zwischen zufälligen und geplanten Elementen in der Mu‐
sik zu überbrücken. Das von ihm programmierte Projekt 1 (1964 – 1966) erzeugte, durch ei‐
nige wenige Angaben des Komponisten, zufällig generierte, serielle Tonreihen. Projekt 2
(ca. 1966 – 1968) erweitere die Möglichkeiten des Komponisten noch erheblich. Die Kompo‐
sitionsprozesse mussten nun von vorneherein und in diversen Schritten strukturiert werden.
Der „TENDENZ“‐Algorithmus, den Koenig hierfür verwendete, bildete die Grundlage für fast
alle modernen Kompositionsprogramme. Auch instrumentale Kompositionen profitierten
23
von der Computerentwicklung. Hier sei exemplarisch Übung für Klavier (1970/71) zu nennen.
SSP (1972‐1977) wiederum erzeugte Klang bloß mit den Parametern Amplitude und Zeit.
Quellen
Koenig, Gottfried Michael u. C. Roads, An Interview with Gottfried Michael Koenig, in: Computer Mu‐
sic Journal 2 (1978) Heft Dezember
Metzger, Heinz‐Klaus (Hg.), Gottfried Michael Koenig, München, 1989
Tual, Françoise‐Gildas, Art. Koenig, in: MGG2 Personenteil 10, Kassel 2003
Wolf, Frobenius (Hg.), Koenig, Gottfried Michael: Ästhetische Praxis. Texte zur Musik (aus der Reihe
Quellentexte zur Musik des 20. Jahrhunderts Bd. 1‐5), Saarbrücken 1991 bis 2002
http://www.koenigproject.nl [24. Januar 2013]
http://www.youtube.com/watch?v=VtRXEc0YsMY. [3. Februar 2013]
Abb. http://www.nmz.de/artikel/koelner‐aussenminister‐und‐entwicklungshelfer [24. Januar 2013]
René Bialik
24
Luening, Otto US‐amerikanischer Komponist, Dirigent, Flötist, Dozent und Wegbereiter der
Elektroakus schen Musik in den USA (* 15. Juni 1900 in Milwaukee; † 2. September 1996 in
New York).
Als Sohn des deutschen Dirigenten, Pianisten und Sängers Eugene Luening und seiner Frau,
der Sängerin Emma Luening entdeckte O. Luening bereits im Alter von sechs Jahren seine
Affinität zur Musik. Zunächst bekam er Unterricht bei seinem Vater und komponierte bereits
erste Stücke. 1912 zog Luening mit seiner Familie von Milwaukee nach München, wo er von
1915 bis 1917 an der Staatlichen Hochschule für Musik Flöte und Klavier bei Josif Brecht
sowie Komposition bei Anton Beer‐Walbrunn studierte. Aufgrund des Kriegseintritts der USA
floh die Familie 1917 aus München und ließ sich in Zürich nieder. Dort studierte Luening ab
1917 für drei Jahre am Zürcher Konservatorium Dirigieren bei Volkmar Andreae und
Komposition bei Philipp Jarnach. Außerdem nahm er Unterricht bei Ferruccio Busoni.
Zeitgleich spielte er seit 1917 Flöte und Percussion beim Tonhalle‐Orchester Zürich und
debütierte im selben Jahr als Komponist und Dirigent.
1. Biografisches
1920 zog Luening nach Chicago und studierte bei Wilhelm Middelschulte Harmonielehre,
Musiktheorie und Kontrapunkt. Außerdem wurde er zeitgleich Dirigent bei der
neugegründeten American Grand Opera Company. Von 1925 bis 1928 leitete er als Executive
Director die Opernabteilung der Eastman School of Music in Rochester/New York, wo er auch
als Dirigent angestellt war. 1930 bis 1932 erhielt er zwei Jahre in Folge ein Guggenheim‐
Stipendium, um seine erste eigene Oper Evangeline zu komponieren, die auf einer
poetischen Erzählung von Henry Wadsworth Longfellow beruht. 1932 bis 1934 bekam er eine
Stelle an der University of Arizona als Associate Professor. 1934 leitete er für 10 Jahre die
Musikabteilung des Bennington College in Vermont und war gleichzeitig von 1936 bis 1938
stellvertretender Dirigent des New York Philharmonic Symphony Chamber Orchestra. 1944
bis 1964 war Luening Dozent am Barnard College in New York und parallel dazu Professor für
Komposition an der Columbia University New York (1949‐1960), wo er auch seit 1944 die
Opernproduktionen leitete. 1959 wurde das Columbia‐Princeton Electronic Music Center
gegründet [→ Tape Music], an dessen Einrichtung er maßgeblich beteiligt war. Hier wurde er
neben Vladimir Ussachevsky und Milton Babbitt Vizedirektor. Nach seiner Emeritierung 1964
übernahm er bis 1970 die Leitung der Musikabteilung der Columbia School of Arts und
wurde anschließend bis 1973 Professor für Komposition an der Julliard School of Music.
Zudem hatte Luening viele weitere Positionen und Funktionen in unterschiedlichsten
Künstlervereinigungen inne und bekam eine große Anzahl von Preisen für seine
Kompositionen und sein Engagement im Bereich der Musik. Unter seinen zahlreichen
Schülern waren unter anderem Marvin David Levy, Charles Dodge, Harvey Sollberger und
John Corigliano. 1980 veröffentlichte Luening seine Autobiographie mit dem Namen The
Odyssey of an American Composer. In dieser Autobiographie dokumentierte er alle wichtigen
Ereignisse seiner Karriere. Zudem ist die Quellenlage zu seiner Person im Vergleich zu
anderen Komponisten dieses Genres und dieser Zeit sehr dünn. Man findet in den großen
Standardwerken viel zu seiner Biographie, jedoch wenig zur Musik Luenings. Er selbst
25
publizierte zahlreiche Aufsätze, bevorzugt über die Entwicklung der elektroakustischen Musik
in Europa und den USA.
2. Die Enwicklung seiner Musik
Die frühen Werke Luenings sind vom Kontrapunktstudium bei Jarnach und Busoni geprägt.
Inspiriert von Schönberg, findet sich in dieser Phase jedoch auch die Kombination von
Tonalität und Atonalität in seinen Kompositionen wieder. Außerdem lassen sich polytonale
und serielle Techniken erkennen, die auf die Lehre von Bernhard Ziehn zurückzuführen sind.
Ab 1920 entwickelte Luening das Konzept der „Akustischen Harmonik“. Hier gestaltete er
außerhalb der Grund‐ und Septimenakkorde verschiedene segmentäre Obertonreihen, was
ihn in den 1950er Jahren schließlich zur Elektronischen Musik brachte. Er setzte sich
besonders intensiv mit dem neuen Medium des Tonbandes auseinander. In Luenings ersten
elektronischen Kompositionen wurden Tonband‐Klänge als primäre Formkomponente
verwendet. Im Oktober 1952 fand die erste Aufführung seiner elektronischen Musik
zusammen mit Vladimir Ussachevsky statt, welcher kurz zuvor ebenfalls einen Lehrauftrag an
der Columbia University erhalten hatte. Gemeinsam führten sie im Museum of Modern Art
in New York Luenings Werk Fantasy in Space auf, bei dem dieser live Flöte zum Tonband
spielte. Außerdem enthielt das Programm seine Low Speed Invention und Ussachevskys
Sonic Contours. In der Low Speed Invention arbeitet Luening mit vielen Echos, die einen
umher kreisenden Klang erzeugen, außerdem besteht eine weitere Besonderheit darin, dass
die Flöte unterhalb der eigentlichen Stimmlange gespielt wird. Seine zwei aufgeführten
Werke beschrieb Luening selbst als exotisch, impressionistisch und virtuos. Kurz nach der
ersten Aufführung entstand das Werk Rhapsodic Variations (1953/54) für Orchester und
Tonband, welches Luening zusammen mit Ussachevsky komponierte. Dieses
Gemeinschaftswerk wurde erstmalig am 20. März 1954 mit dem Louisville Orchestra
aufgeführt. In den 1960er Jahren entdeckte Luening erneut sein Interesse an Kammermusik,
so dass er das Kombinieren verschiedener Stile zu seinem Formprinzip erhob.
Quellen
Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004
Kagan, Wendy, Otto Luening Biography, online unter
http://www.musicianguide.com/biographies/1608003277/Otto‐Luening.html [9. April 2013]
Luening, Otto, Some Randon Remarks about Electronic Music, in: Journal of Music Theory 8 (1964)
Heft 1
Ders., An Unfinished History of Electronic Musik, in: Music Educators Journal, 55 (1968) Heft 3
Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001
Marlene Ryba
26
Musique concrète Musique concrète ist der von Pierre Schaeffer eingeführte Begriff für die von ihm in den
1940er und 1950er Jahren begründete Studiomusik, welche zur Entwicklung der Elektroakus‐
tischen Musik der 2. Hälfte des 20. Jahrhunderts maßgeblich beigetragen hat. Das Aus‐
gangsmaterial sind konkrete Klänge und Geräusche, die allen Bereichen des Hörbaren ent‐
nommen sind und nach Aufnahme und Weiterverarbeitung in neue musikalische Zusam‐
menhänge gebracht werden.
1. Personen‐ und Sachgeschichte
Der französische Ingenieur, Musiktheoretiker und Komponist Pierre Schaeffer (* 14.8.1910 in
Nancy, 19.8.1995 in Les Milles bei Aix‐en‐Provence) entschied sich trotz seines musikali‐
schen Elternhauses für ein technisch‐naturwissenschaftliches Studium an der École poly‐
technique und der École de télécommunication und arbeitete ab 1935 als Tontechniker beim
Rundfunksender Radiodiffusion Française. Lediglich durch seinen Violoncellounterricht und
einige Analysekurse musikalisch gebildet, begann er mit auf seinen technischen Kenntnissen
beruhenden Geräuschexperimenten und dem Ziel, daraus eine neue Stilrichtung zu entwi‐
ckeln. Im Jahr 1942 gründete er hierfür das zunächst private Studio d’Essai, welches 1948
zum Club d’Essai als Teil von Radiodiffusion Télévision Française (RTF) wurde. Im gleichen
Jahr wurde sein Concert de bruits, in dem sich Verbindungen zum Futurismus erkennen las‐
sen, im Pariser Hörfunk ausgestrahlt. Für die neue Musikrichtung schlug er im Jahr 1949 in
der Zeitschrift Polyphonie die Bezeichnung Musique concrète vor, der Club d’Essai entwickel‐
te sich zum Zentrum der Diskussion. Dort begann P. Schaeffer die Zusammenarbeit mit dem
Komponisten Pierre Henry. Gemeinsam realisierten sie 1950 das erste Konzert Symphonie
pour un homme seul und gründeten im Folgejahr die Groupe de Recherche de Musique Con‐
crète (GRMC). Bei den Donaueschinger Musiktagen 1953 stellten sie das Werk Orphée 53
vor, das bei den Rezipienten jedoch auf starke Ablehnung stieß. Dennoch fand die konkrete
Musik fortan immer häufiger Verwendung in Rundfunk, Theater, Ballett, Film und Fernsehen.
Es folgte ein reger internationaler Austausch von Informationen und Tonbandaufnahmen.
Die Anfänge der Musique concrète waren geprägt durch das Verfahren, vokale und instru‐
mentale Klänge zu transformieren und in neue musikalische Strukturen einzubetten. Durch
den technischen Entwicklungsstand der Produktionstechniken bedingt, waren in den frühen
Werken viele Wiederholungen kurzer Abschnitte zu finden. In den frühen 1950er Jahren
konnte zwischen der konkreten und der elektronischen Musik, wie der des Kölner Studios
[→], noch unterschieden werden, da sich beide anderer Ausgangsmaterialien bedienten und
verschiedene Kompositionswege verfolgten. Hieraus resultierte eine erwähnenswerte Aus‐
einandersetzung zwischen den beiden Studios: Den Kölner Komponisten, die ausschließlich
von im Studio produzierten synthetischen Klängen ausgingen, wurde primär vorgeworfen,
dass sie die musikalischen Parameter Tonhöhe, Intensität und Dauer in den Vordergrund
stellten und somit nur eine begrenzte Anzahl von Klängen charakterisieren könnten. Dage‐
gen hätte sich die Bandbreite der konkreten Musik auch auf Farbe, Dichte, Dynamik und an‐
dere Eigenschaften erstreckt. Die Vertreter aus Köln beanstandeten an dem Schaffen der Pa‐
riser Gruppe um P. Schaeffer im Gegenzug das Fehlen einer kompositorischen Struktur in ih‐
ren Werken. Pierre Boulez [→], der zunächst Werke im Stil der konkreten Musik komponier‐
27
te, sich aber ab 1953 von ihr entfernte, kritisierte zudem die Oberflächlichkeit bei der Wahl
der Ausgangsmaterialien und die technische Qualität der Klangergebnisse. Die Bearbei‐
tungsmöglichkeiten differenzierten sich in der Folgezeit so weit aus, dass die ursprünglichen
Klang‐ und Geräuschquellen nicht mehr eindeutig bestimmt werden konnten. Daraus fol‐
gend schlug P. Henry für beide Stilrichtungen die zusammenfassende Bezeichnung Elektroa‐
kustische Musik vor. In erster Linie war die Diskussion ein Stil‐ und Qualitätsstreit zwischen
den Anhängern der Musique concrète und denen der elektronischen Musik.
Im Laufe der 1950er Jahre zog der Club d’Essai das Interesse internationaler Musiker auf
sich, so arbeiteten neben den Genannten u.a. auch Karlheinz Stockhausen [→], Olivier Mes‐
siaen, Edgar Varèse und Iannis Xenakis [→]im Pariser Studio. Hinsichtlich der Entwicklung
der wichtigsten technischen und theoretischen Grundlagen sind neben P. Schaeffer und P.
Henry auch François Bayle, Guy Reibel und Michel Chion zu nennen. Versuche, kompositori‐
sche Ordnungsprinzipien in der Musique concrète zu etablieren, blieben weitgehend erfolg‐
los. Erst in den Jahren nach 1956 traten bei Michel Philippot, Luc Ferrari, Ivo Malec, Xenakis
und Bayle eben solche Aspekte in den Vordergrund, die Werke standen jedoch nicht mehr in
enger Beziehung zur konkreten, sondern sind eher der seriellen bzw. seriell‐elektronischen
Strukturmusik zuzuordnen. Diesen Entwicklungen geschuldet gab P. Schaeffer im Folgenden
den Begriff Musique concrète auf. Zusammen mit François‐Bernard Mâche undFerrari for‐
mierte er im Jahr 1958 die GRMC zur Groupe de Recherches Musicales um: Schwerpunkt der
Forschung sollte die Entwicklung einer umfassenden Theorie der Klangwelt als Vorbedingung
für die kommende Elektroakustische Musik sein. Sein theoretisches Schaffen stand von die‐
sem Zeitpunkt an im Vordergrund. Im Jahr 1966 veröffentlichte er die Monographie Traité
des objets musicaux, in der er seinen zentralen Begriff des Klangobjekts beschrieb und den
Entwurf einer neuen Klanglehre vorstellte. Die Umstrukturierung der Rundfunkanstalt Office
de Radiodiffusion Télévision Française (ORTF) im Jahr 1974 führte zur Eingliederung der GRM
in das von P. Schaeffer mitbegründete Institut national de l’audiovisuel (INA), er selbst wur‐
de in den Ruhestand versetzt. Bereits im Jahr 1966 gab er die Leitung der GRM an Bayle ab,
seit 1997 ist Daniel Teruggi für sie verantwortlich. Für seine Verdienste wurde P. Schaeffer
mit nationalen Preisen, u.a. dem Grand Officier de l’ordre national de mérite, ausgezeichnet.
P. Henry (* 9.12.1927 in Paris), der zwischen 1950 und 1958 intensiv mit P. Schaeffer zu‐
sammenarbeitete, ist gelernter Schlagzeuger, Komponist und einer der bedeutendsten Ver‐
treter der Musique concrète. Ausgebildet wurde er zwischen 1937 und 1947 am Pariser Con‐
servatoire als Schüler von Messiaen, Nadia Boulanger und Félix Passeronne. Bereits zu Be‐
ginn seines musikalischen Schaffens war er an der Suche nach neuen Klängen interessiert.
Das Ergebnis eines Kompositionsauftrags zum Dokumentarfilm Voir l’invisible legte er 1949
eben Schaeffer vor und trat im selben Jahr dem Club d’Essai bei. Nach dem Ende der Zu‐
sammenarbeit im Jahr 1958 gründete er sein eigenes privates Studio Applications de pro‐
cédés sonores de musique électroacoustique (APSOME). In den 1980er Jahren wurden die
musikalische Verwendung von Elektronik und experimentelle Verfahrensweisen zum grund‐
legenden Bestandteil vieler Stile im Bereich der Popularmusik, so dass auch seine Arbeiten
zunehmend ihren innovativen Charakter verloren. Seit Mitte der 1990er Jahre entdeckte die
Technoszene ihn wieder, es folgten Remixe durch Musiker wie Fatboy Slim, William Orbit,
28
Kojak, Area 21 oder DJ Koze. Zudem veröffentlicht Henry eigene Techno‐Kompositionen.
Darüber hinaus lassen sich auch bei Künstlern anderer kontemporärer Musikstile Elemente
der Musique concrète wiederfinden, so z.B. bei Björk, Matmos oder Radio Boy.
2. Merkmale
Die Musique concrète gilt als erste Musikrichtung, die nur über Schallplatten, Tonträger und
Lautsprecher reproduziert wurde, also jederzeit gespielt und aufgeführt werden konnte. Sie
begann im Gegensatz zum traditionellen Kompositionsverfahren beim konkreten Klangphä‐
nomen. Dieses wurde Teil eines abstrakten Klangergebnisses, für das es keine theoretischen
Konstruktionen gab. Eine solche individuelle Klangmontage setzte keine Partitur voraus.
Zu den wichtigsten Merkmalen gehörte die Universalität des Klangmaterials, es gab keine di‐
chotomische Unterscheidung zwischen Tönen und Geräuschen. Ausgangsmaterialien konn‐
ten europäische und außereuropäische Musikinstrumente, Geräusche der technischen Um‐
welt wie z.B. Geräusche der Straße, Bahnhöfe oder Fabriken, Naturlaute wie Wind, Regen
und Wasserrauschen, oder Tierlaute sein. Weiterhin wurden Ausschnitte von Gesang,
Stimm‐ und Sprachlaute, die meist auf einzelne Worte und Vokale reduziert waren, Klänge
und Klangstrukturen bestehender Schallplattenmusik sowie elektrisch erzeugte Geräusche
und Klänge verwendet. Alle Ausgangsmaterialien wurden zunächst mit Mikrofonen aufge‐
zeichnet und auf Schallplatte gespeichert. Mit einer speziellen Klaviatur konnte Schaeffer
mehrere Schallplatten parallel bedienen. In der Folgezeit fanden zunehmend Magnetbänder
Verwendung. Aus diesen Aufnahmen wurden Klangfragmente ausgewählt, isoliert und mit
Hilfe elektroakustischer Apparate, wie z.B. dem Phonogène von Jacques Poullin und Francis
Coupigny, weiterbearbeitet, neu zusammengesetzt und gemischt. Durch die technische Be‐
arbeitung konnte das Klangobjekt seine ursprüngliche Identität verlieren. Der Höreindruck
und die kompositorische Verwendung waren im Gegensatz zur Herkunft der Klänge von
maßgeblicher Bedeutung. Eine Unterscheidung des Materials nach Quellen war nur dann ge‐
rechtfertigt, wenn der Ursprung im Ergebnis noch erkennbar war.
Grundbegriff der konkreten Musik war nach Schaeffer das Klangobjekt. Dieses definierte er
als so komplex, dass es nicht durch eindeutig festgelegte Variablen wie Lautstärke, Tonhöhe
oder Klangfarbe bestimmt werden konnte. Zu den technischen Bearbeitungsmöglichkeiten
zählten u.a. die von Schaeffer bereits 1948 entwickelten Grundtechniken der Fragmentie‐
rung und mechanischen Wiederholung. Hierfür verwendete er Schallplatten mit Endlosrillen,
wie sie bei Fehlproduktionen zu finden waren. Die Veränderung der Lautstärke und der Dy‐
namik durch Abdämpfen und Verstärken, Veränderung der Tonlage durch Transposition,
Wegnahme von Tönen durch den Einsatz von Filtern oder auch Veränderung der Klangfarbe
und Tonhöhen, z.B. durch additive Mischung, Synchronisation, oder multiplative Mischung,
Ringmodulation, ermöglichten weitere technische Manipulationen der Klänge und Geräu‐
sche. Die Verkürzung des Materials durch Abschneiden des Einschwingvorganges, die Ver‐
längerung durch Schleifenbildung oder die Veränderung der Hüllkurve ließen den Komponis‐
ten Einfluss auf die Form des Klanges und den Klangverlauf nehmen. Zudem konnte mit ab‐
soluter Transposition, bei der sich gleichzeitig die Tonlage und die Ablaufgeschwindigkeit des
Bandes bzw. die Dauer des Tons oder des Geräuschs änderten, die Materie des Klanges
29
grundlegend modifiziert werden. Der Zeitraffer führte zu einer schnelleren Ablaufgeschwin‐
digkeit und hat somit eine höhere Tonlage zur Folge, die Zeitlupe hingegen eine tiefere Ton‐
lage bei langsamerem Tempo. Der Komponist ging bei seiner Klangverarbeitung stets vom
realen Höreindruck und nicht von physikalischen Messwerten aus. Das Paradigma der Mu‐
sique concrète bestand also darin, dass der musikalische Wert der veränderten und neu zu‐
sammengesetzten Klänge nur an individuelle Kriterien der auditiven Wahrnehmung gebun‐
den war.
Quellen
Appen, Ralf von, Konkrete Pop‐Musik. Zum Einfluss Stockhausens und Schaeffers auf Björk, Matthew
Herbert und Matmos, in: Dietrich Helms und Thomas Phleps (Hg.), Samples. Notizen, Projekte und
Kurzbeiträge zur Popularmusikforschung, Bielefeld 2003
Blumröder, Christoph von, Musique concrète, in: Carl Dahlhaus und Hans Heinrich Eggebrecht (Hrsg.),
Brockhaus Riemann Musiklexikon Bd. 3, Zürich 1998
Eimert, Herbert und Hans Ulrich Humpert, Art. Musique concrète, in: dies., Das Lexikon der elektroni‐
schen Musik, Regensburg 1973
Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001
Frisius, Rudolf, Konkrete Musik. Ein Lehrpfad durch die Welt der Klänge, in: Neue Zeitschrift für Musik
158 (1997) Heft 5
Frisius, Rudolf, Art. Musique concrète, in: MGG2 Sachteil 6, Kassel et al. 1997
Humpert, Hans Ulrich, Musique concrète, in: ders., Elektronische Musik. Geschichte, Technik, Kompo‐
sitionen, Mainz 1987
INA – GRM. La création et la recherche dans le domaine du son et des musiques électroacoustiques,
online unter http://www.inagrm.com [18. Januar 2013]
Kaegi, Werner, Musique concrète und Tape music, in: ders., Was ist elektronische Musik, Zürich 1967
Möller, Torsten, Pierre Schaeffer, in: MGG2 Personenteil 14, Kassel et al. 2005
Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010
Schaeffer, Pierre, Musique concrète, in: Wilibald Gurlitt und Hans Heinrich Eggebrecht (Hg.), Riemann
Sachlexikon Musik, Mainz et al. 121996
Schweizer, Klaus, Pierre Schaeffer, in: Horst Weber (Hg.), Komponisten‐Lexikon. 350 werkgeschichtli‐
che Portraits, Stuttgart et al. 22003
Smalley, Denis, Groupe de Recherches Musicales, in: NG2 Band 10, London 2001
Supper, Martin und Elena Ungeheuer, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al.
1995
Tual, François‐Gildas, Art. Pierre Henry. in: MGG2 Personenteil 8, Kassel et al. 2002
Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al.
1995
Matthias Lund und Nils Wilmsmeier
30
Pousseur, Henri Léon Marie Thérèse
Belgischer Komponist und Musiktheore ker (*23.06.1929 in Malmédy; †06.03.2009 in Brüs‐
sel).
1. Leben
Über Pousseurs Kindheit undJugend sowie seine Wahrnehmung des für ihn prägenden deut‐
schen Angriffs auf seine Heimatregion in den Ardennen im Jahr 1940 ist wenig bekannt. 1990
sprach er von der „widersinnigen, gleichermaßen leidvollen, konflikthaften, zum Widerstand
rufenden und dennoch kulturell bereichernden Erfahrung der Annexion“ (vgl. Pousseur
1990, S. 15). Er absolvierte an den Konservatorien in Lüttich (Liège) (1947 – 1952) und Brüs‐
sel (1952/53) ein Musikstudium, während dessen er der Komponistengruppe „Variations“
um Pierre Froidebise beitrat, in der er sich besonders für Anton Webern begeisterte. Froide‐
bise führte Pousseur an die avantgardistische Musik heran und arrangierte im Juni 1951 für
ihn ein Treffen mit Pierre Boulez [→]. Dieser gab ihm eine „Unterrichtsstunde zu Fragen der
Webernschen Harmonik“, was er später als ausschlaggebend für seine weitere kompositori‐
sche Entwicklung bezeichnete. Nach dem Treffen komponiert er die Trois chants sacrés, um
das Gelernte umzusetzen. Durch Boulez‘ Klavierstücke Structures inspiriert, entstand
1952/53 (1954 revidiert) seine Prospection en deux phases für drei im Sechzehnteltonab‐
stand gestimmte Klaviere, seine erste vollständig serielle Komposition. Infolgedessen traf er
auch Karlheinz Stockhausen [→], dessen Elektronische Studien I/II (1953/54) für ihn eine
neue Ära markierten. 1954 nahm Pousseur an den Darmstädter Ferienkursen teil, wo er un‐
ter anderem auch Luigi Nono und Bruno Maderna kennenlernte. Ebenfalls in dieses Jahr fiel
seine erste Arbeit im Kölner Studio des NWDR [→]für das Stück Seismogrammes. In seinem
Ensemblestück Répons (1960) versuchte er erstmals die Verwendung der Aleatorik, also das
Zurückgreifen auf Variablen mit zufällig festgelegtem Wert, auf mehrere Instrumentalisten
anzuwenden, was mehr als hundert Proben erforderte.
Von 1960 bis 1968 arbeitete Pousseur gemeinsam mit dem Schriftsteller Michel Butor an der
Oper Votre Faust, welche auf dem gleichnamigen Sagenstoff basierte. Besonders ist hierbei,
dass das Publikum den Handlungsverlauf mitbestimmen kann: Durch Abstimmungen wird
das Stück maßgeblich beeinflusst und verändert. Insofern handelt es sich hierbei um eine
konsequente Fortführung der Einbringung des Zufalls in die Musik. Musikalisch stützte sich
Pousseur dabei maßgeblich auf textliche und musikalische Zitate, beispielsweise von Johann
Wolfgang von Goethe und Charles Gounod. Diese Verbindung von serieller Musik mit histori‐
schem Material legte er 1968 in seiner theoretischen Schrift L'apothéose de Rameau und der
darin erläuterten „Theorie der Netzwerke“ dar. 1970 gründete er in Lüttich das Centre de
Recherches et de Formation Musicales de Wallonie (CRFMW), welches in Belgien ähnlichen
Status wie das IRCAM [→] in Frankreich erreichen sollte, allerdings wurde hier besonderer
Wert auf pädagogische Projekte gelegt. Zu dieser Zeit wurde er auch in Lüttich Dozent am
Konservatorium.
31
Zu Ehren von Schönbergs hundertstem Geburtstag erhielt er einen Kompositionsauftrag der
Berliner Festspiele, für die er sein zweites Musiktheaterwerk Petrus Hebraicus (1973/74)
schrieb. Hier vermischen sich sowohl mehrere Handlungsstränge als auch mehrere musikali‐
sche Formen, von der barocken Kantate bis zur polytonalen Musik. Ebenfalls befasste sich
Pousseur mit der Neuorganisation musikalischen Materials, wie z.B. den Goldberg‐
Variationen in Nuits des nuits (1985). Er beabsichtigte hier durch Bearbeitung präexistenden
Materials Strukturen aufzuzeigen, die zwar im Original vorhanden, aber bisher nicht offen
erkennbar waren. Im Sommer 1994 zog Pousseur ins englische Waterloo, um sich ganz der
Komposition zu widmen, allerdings hielt er noch bis 1999 Gastvorträge an der Universität
Leuven. Sein Sohn Denis Pousseur (* 8. August 1958), der auch mit seinem Vater zusammen
arbeitete, ist heute Komponist im Bereich von Jazz und Filmmusiken.
2. Kompositionsweise
Pousseurs Kompositionsweise zeichnete sich insbesondere durch eine starke Verwendung
von mathematischen Prinzipien aus, welche er zunehmend komplizierter und vielschichtiger
anwandte. Komponierte er zu Beginn noch allein in Zwölftonreihen, welche verschiedenen
Mustern folgten (so zum Beispiel in Trois chants sacrés), wurden die Werke ab Prospection
en deux phases seriell komponiert, inspiriert durch seine ersten Auseinandersetzungen mit
elektronischer Musik in den frühen 1950er Jahren.
An Prospection lässt sich Pousseurs Technik beispielhaft erläutern:
Zuerst wählte er einen Tonraum von sechs Oktaven (links in Abbildung 1, die oberste vierge‐
strichene Oktave fehlt hier). In jeder Oktave wählte er sechs Töne (mittig in der Abbildung)
und jeden Ton trennte er nochmals in sechs Sechsteltöne (rechts in der Abbildung) auf, so‐
dass 63 = 216 Töne zur Verfügung standen.
Abb. 1
Die Ablauffolge dieser Töne regelte er durch sechs Quadrate mit 6x6‐Elementen (vgl. Abbil‐
dung 2), wobei in der Waagerechten jedes Element nochmals in Oktavlage, Ton und Sechsel‐
ton aufgetrennt ist. Die waagerechte Reihe entspricht in jedem Quadrat der senkrechten
(Quadrat I: 5‐4‐6‐1‐3‐2) in Oktavlage und Sechseltönen, die Töne ändern sich jeweils. Ebenso
bestimmt die Reihe die Transpositionsreihenfolge (zu erkennen am jeweils ersten Ton eines
Quadrates).
32
Abbildung 2
33
Dynamisch werden sechs Intensitätswerte unterschieden: pp, p, mp, mf, f, ff. Alle Werte
tauchten in der ersten Fassung (1953) des Stückes gleich oft auf, die zweite Fassung (1954)
rückte davon ab. In der ersten Fassung wurde auch eine Regel angewendet, welche besagte,
dass jede Dynamik nach ihrem sechsten oder nach ihrem zwölften Auftreten für mindestens
sechs Töne aussetzen musste. Diese Regel wurde jedoch später für die redigierte Fassung
außer Kraft gesetzt. Das Tempo des Stückes beträgt zu Beginn 60 bpm, die ersten drei Töne
variieren jeweils um die Länge einer Sechzehntelnote (2,25 Schläge; 2,5 Schläge; 2 Schläge).
Erkennbar wird die zentrale Stellung der Zahl sechs, aus welcher Pousseur ein Konzept ent‐
wickelte, welches steten Wandel verursachte und so seiner Prämisse der Unvorhersehbar‐
keit der Komposition folgte.
3. Bedeutung
Pousseur ließ als einer der ersten die strengen Vorgaben des frühen Serialismus hinter sich
(bspw. erkennbar an den Änderungen an Prospection in der zweiten Fassung) und legte dies
deutlich in seinen theoretischen Schriften dar, wodurch seine Gedanken weitergetragen und
von jüngeren Komponisten rezipiert werden konnten. Als bedeutsam wird ebenfalls die da‐
mals neuartige Verwendung von musikalischen Zitaten angesehen, denen er im seriellen
Kontext eine neue Bedeutung zukommen ließ. Auch dies erläuterte er umfassend in L'apo‐
théose de Rameau. Zudem war Pousseur einer der ersten Komponisten, die die Beziehung
von Determination und Indetermination in die Musik einbrachten. Die Verwendung von
streng konzeptionierten Mustern und aleatorischen Elementen war für ihn kein Wider‐
spruch, sondern im Gegenteil eine notwendige Kombination.
Quellen
Decoupret, Pascal, …wie die Redaktion zur Systemprämisse wurde, in: Musik‐Konzepte Heft 69 Henri
Pousseur, München 1990
IRCAM (2011), Henri Pousseur, online unter http://brahms.ircam.fr/henri‐pousseur [02.02.2013]
Pousseur, Henri, L’apothéose de Rameau. Essai sur la Question Harmonique, in: Musiques Nouvelles
XXI, Paris 1968
Pousseur, Henri, Ein hartnäckig vorausschauendes Gedächtnis, in: Musik‐Konzepte Heft 69 Henri
Pousseur, München 1990
Ruf, Wolfgang, Art. Pousseur, in: Riemann Musik Lexikon, Mainz 132012
Sabbe, Herman, Henri Pousseur: un défi, in: Revue Belge de Musicologie 43 (1989)
Sabbe, Herman, Pousseur – Butor, Text – Musik – Text, in: Musik‐Konzepte Heft 69 Henri Pousseur,
München 1990
Sadie, Stanley und John Tyrell, Art. Pousseur, in: NG2 Band 21, London 2001
Volborth‐Danys, Diana von, Interview d’Henri Pousseur, in: Revue Belge de Musicologie 43 (1989)
Abbildungen 1 und 2 aus Decoupret, S. 8 und 9
Henrik Oerding
34
Riley, Terry Mitchell US‐amerikanischer Komponist, Interpret, Dozent und Mitbegründer der minimal music (*24.
Juni 1935 in Colfax, Kalifornien). Merkmale seines musikalischen Schaffens sind Repetition,
Improvisation und die besondere Behandlung des Faktors Zeit unter Berücksichtigung der
physischen sowie psychischen Wirkung der Musik auf die Rezipienten. Kennzeichnend für
seine durch den Jazz und die indische Musik inspirierten elektronischen Kompositionen sind
desweiteren die Verwendung von Bandschleifentechnik, Phasenverschiebung, Patterns und
Echo‐ sowie Loopeffekte. Riley gilt als Innovator im Bereich der tape music mit großem Ein‐
fluss auf nachfolgende Komponistengenerationen, auch in der Popmusik.
Der Sohn eines irischstämmigen Eisenbahners und einer italienischstämmigen Mutter be‐
gann seinen musikalischen Werdegang mit Violinunterricht. Als begeisterter junger Radiohö‐
rer wechselte er im Alter von acht Jahren zum Klavier, an dem er lieber nach Gehör improvi‐
sierte, statt nach Noten zu spielen. Auf der High‐School beeinflussten ihn schon bald Kom‐
ponisten wie Debussy und Strawinsky. Ab 1955 finanzierte sich Riley dann als Ragtime‐
Pianist ein Studium der Fächer Komposition bei Robert Erickson und Klavier bei Duane
Hampton am San Francisco State College, wo er mit Loren Rush und Pauline Oliveros eine
Improvisationsgruppe gründete. Seine ersten Werke sind zunächst an die Klaviermusik De‐
bussys und Ravels angelehnt, zeigen allerdings zunehmend Einflüsse aus der Dodekaphonie
und der seriellen Musik (Stockhausen, →).
Nach seinem Abschluss 1957 (Bachelor of Arts) widmete sich Riley immer stärker dem Kom‐
ponieren und gewann 1959 mit seinem Stück Spectra den Nicola di Lorenzo Preis. Bis 1961
vervollständigte er seine Kompositionsstudien an der University of California in Berkeley bei
William Denny und Seymour Shifrin. Dort lernte er La Monte Young kennen, der maßgebli‐
che Impulse für Rileys musikalische Entwicklung setzte. Im Studio des San Francisco Tape
Music Centers [→ Tape Music], einer kulturellen und pädagogischen Einrichtung zur Förde‐
rung dieser Musik, entwickelte Riley im Kreis von Pauline Oliveros, Morton Subotnick,
Ramon Sender und Steve Reich neue Tonbandtechniken, die die Grundlage seiner folgenden
Kompositionen bildeten. Sein Werk Concert (1960) für zwei Klaviere und fünf Tonbandgeräte
beinhaltete Musique concrète‐Elemente [→], die auch in Mescalin Mix (1961) mit dem Ein‐
satz der Looptechnik zu hören waren.
In den Folgejahren reiste Riley durch Europa, wo er in den Pariser Aufnahmestudios des
Office de Radiodiffusion Télévision Française mit Bandschleifentechnik und Phasenverschie‐
bung arbeitete und unter erstmaliger Verwendung des Time Lag‐Accumulator die Musik zu
Ken Deweys Bühnenwerk The Gift (1963) beisteuerte. Außerdem spielte er weiterhin in Bars,
wirkte als Klavierbegleiter in Varietétheatern mit und gab Konzerte am Klavier und Saxophon
mit dem Jazztrompeter Chet Baker. Ferner besuchte er 1936 die Darmstädter Ferienkurse,
wo er Stockhausens Vorlesung zu Gruppen hörte. 1964 kehrte Riley nach New York zurück,
um mit dem Lautsprecherkonstrukteur Arlo Acton mit elektronischer Klangerzeugung zu ex‐
perimentieren und Lautsprecher für eine ideale Klangwiedergabe zu konstruieren. In San
Francisco wurde schließlich im selben Jahr ein Meilenstein der minimal music und sein wohl
berühmtestes Instrumentalstück In C uraufgeführt. Im Jahr 1967 folgte Riley Kompositions‐
35
aufträgen der Königlichen Musikakademie Stockholms und des Schwedischen Rundfunks
nach Schweden. Noch im gleichen Jahr beeindruckte er durch das „All Night Concert“ im Phi‐
ladelphia College of Art, bei dem er sein achteinhalbstündiges Saxophon‐Solo All Night Flight
spielte.
Ab 1970 wurde er für 15 Jahre Schüler von Pandith Pran Nath, bei dem er klassische hindus‐
tanische Musik studierte, die sich fortan in sein musikalisches Konzept eingliederte und dies
um neue Facetten erweiterte, die seine Musik bestimmen sollten und sich z. B. in Shri Camel
(1976‐78) zeigen. Anfang der 70er wurde Riley Professor für klassischen indischen Gesang
am Mills College, eine Position, die er bis heute innehat. Riley wandte sich ab diesem Zeit‐
punkt vornehmlich reiner Instrumentalmusik zu, jedoch ohne den improvisatorischen Anteil
aufzugeben. So schrieb er 13 Streichquartette, darunter das zweieinhalbstündige Salome
Dances for Peace (1985‐87). 1990 wurde Jade Palace für großes Orchester und Synthesizer
aufgeführt. Darüber hinaus komponierte Riley auch Musik für das Kronos Quartet, so etwa
The Sands (1991) für Streichquartett und Orchester. Er zeigte sich allerdings immer seltener
in der Öffentlichkeit und lebt heute mit seiner Familie zurückgezogen auf einer Ranch in der
Nähe von Berkeley.
Rileys Musikwerk ist im Bereich der minimal music durch bestimmte Eigenarten und Beson‐
derheiten streng von den Arbeiten seiner Kollegen abzugrenzen. Grundlegender Bestandteil
seiner Kompositionen ist das Prinzip der Repetition von melodisch‐rhythmischen Patterns,
kleinsten musikalischen Bausteinen, die sich durch Phasenverschiebung, Verzögerung sowie
Dehnung überlagern und eine Verdichtung des Klangmaterials bewirken, was mitunter zu
ungewöhnlichen akustischen Effekten führen kann. In seinen elektroakustischen Werken re‐
alisierte Riley dies in der analogen Anfangsphase mithilfe von modifizierten Tonbandgeräten,
wie dem erwähnten Time Lag‐Accumulator. Ein besagtes Pattern wird hierbei einmalig ge‐
spielt und in kurzer Verzögerung über eine Bandmaschine aufgenommen und gleichzeitig
wieder abgespielt. Anschließend läuft das bereits bespielte Tonband über ein weiteres in ei‐
niger Entfernung positioniertes Tonbandgerät, sodass das Motiv in regulierbaren Abständen
mehrmals hintereinander ertönt, während ein Livemusiker bereits weitere Patterns hinzufü‐
gen kann, um so den gewünschten Effekt der Überlagerung zu erzeugen. Zudem lassen sich
über die von Riley entwickelten Geräte Echo‐ und Delayeffekte erzielen, die Riley häufig sei‐
nen meditativen Klangteppichen hinzufügt.
Wichtig für die Musik Rileys ist fernerhin die Improvisation, die die Verbindung zum Jazz ver‐
deutlicht. Auch die Nähe zur indischen Musik ist form‐ und sinnstiftendes Element in seinen
Kompositionen, die sich mitunter durch modale und mikrotonale Strukturen mit modifizier‐
ten Stimmungen auszeichnen. Riley übt bis heute einen nachhaltigen Einfluss aus, der zu‐
nächst bei Komponisten wie Steve Reich oder Brian Eno, bis in die Rockmusik bei The Who
und der Synthesizermusik von Tangerine Dream zu finden war und die Entwicklung der Gen‐
res Ambient und Drone vorantrieb.
36
Quellen
Branscombe, Peter, Art. Terry Riley, in: NG2 Band 21, London 2001
Lovisa, Fabian R., minimal‐music – Entwicklung, Komponisten, Werke, Darmstadt 1996
Pardey, Wolfgang, Art. Terry Riley, in: Amerikanische Musik seit Charles Ives, Laaber 1987
Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005
Dies., Art. Terry Riley, in: MGG2 Personenteil 14, Kassel et al. 2005
Schulz, Reinhard, Art. Terry Riley, in: Komponisten der Gegenwart, Müchen 1992.
Marco Dimitriou
37
Ruttmann, Walter (alternativ Walther Ruttmann) Deutscher Maler, Regisseur, Drehbuchautor und Filmproduzent (*28.12.1887 in Frankfurt
am Main; †15.07.1941 in Berlin). Er gilt als Mitbegründer des sogenannten absoluten Films,
beteiligte sich an radiokünstlerischen Experimenten und gründete 1919 eine eigene Filmfir‐
ma mit Sitz in München. Er drehte sowohl Kunst‐, Werbe‐, wie auch Propagandafilme in der
Zeit von 1921 bis 1940. Kennzeichen seiner Filmarbeit war die Verwendung des „Kontra‐
punkts“, um mittels der musikalisch‐rhythmischen Struktur des vorhandenen Tonmaterials
Formen und Gegenstände von ihrer eigentlichen Bedeutung loszulösen.
Walter Ruttmann wurde als Sohn einer Kaufmannsfamilie geboren, studierte 1907 Architek‐
tur in Zürich und widmete sich zwei Jahre später in München der impressionistischen Male‐
rei und Grafik. Für diese Arbeiten erhielt er Auszeichnungen und konnte sich selbst durch
seine Kunst finanzieren. Von den grausamen Erfahrungen als Artillerie‐Leutnant und Gas‐
schutz‐Offizier an der Ostfront im ersten Weltkrieg geprägt, entwickelte er eine pazifistische
Haltung, die ihn nicht daran hinderte, ab Mitte der 1930er Jahre einige dokumentarische NS‐
Propagandafilme zu drehen.
Nach dem Ersten Weltkrieg entwickelte er sich künstlerisch vom Impressionismus zur abs‐
trakten Kunst. Das Besondere seiner Arbeit und seiner Anfänge ist eine Montagetechnik der
drei Klanguntergruppen Geräusch, Sprache und Musik. Gelingen sollte dies, indem er den
mechanisch instrumentalisierten Klang von seiner Quelle unabhängig machte, um ihn dann
durch seine Reproduzierbarkeit zu jeder Zeit an anderen Orten abspielen zu können. Der
Ausgang vom „konkreten Klang“, der mit dessen Wiedererkennbarkeit arbeitet und die da‐
ran angeknüpfte Lichttontechnik, die in seinen abstrakten Formen und Formverläufen das
Klangbild unterstützen sollten, waren darauf ausgerichtet, dem Film einen produktiven Cha‐
rakter zu verleihen und führten zur Entwickelung des Tonfilms (Opus II‐IV, 1921‐1925). Dabei
gelang es laut Ruttmann nicht mehr, die Lebendigkeit, gekennzeichnet durch seinen „frucht‐
baren Moment“, als tatsächliches Leben zu empfinden: „Die Rettung [liegt in einer] ganz
neuen Kunst, einer Malerei mit Zeit [...]. Es wird sich deshalb ein ganz neuer, bisher nur la‐
tent vorhandener Typus von Künstlern herausstellen, der etwa in der Mitte von Malerei und
Musik steht.“
Mitstreiter waren Künstler wie Hans Richter und Viking Eggeling, die auch 1925 an der Mati‐
nee des UFA‐Theaters Berlin „Der Absolute Film“ teilnahmen. Sie unterschieden sich inso‐
fern von ihren Kollegen Fernand Léger und Dudley Murphy, die auch an dieser Veranstaltung
als Künstler mitwirkten, dass sie nicht Abbilder des alltäglichen Lebens in der Montage zu‐
sammensetzten, sondern auf genau den Verzicht dieser Realitätswiedergabe bestanden und
sich auf abstrakte Formen konzentrierten. Grundlage für weitere Werke waren u.a. Tonma‐
terial von Hanns Eisler zu Ruttmanns Opus III, (1925), der Scherenschnitt zur Vertonung Lotte
Reinigers (Die Abenteuer des Prinzen Achmed, 1926), in der er eine Zauberwelt gestaltete,
oder auch ein „Querschnittsfilm“ (Melodie der Welt, 1929), dessen Partitur von Wolfgang
Zeller geschrieben wurde. Sein durch „poetischen Dokumentarismus der 20er“ begleiteter
Stummfilm Berlin – Sinfonie einer Großstadt (1927) wurde durch eine Partitur Edmund Mei‐
sels zu einem Tonfilm vervollständigt. Dieses Werk sollte die Zeit durch optische Mittel
38
rhythmisch organisieren, sich abwenden von gefilmtem Theater, unter Ausschluss von Men‐
schen als Gefilmtem stattfinden und ohne Untertitel fertiggestellt werden, da das Gezeigte
für sich sprechen sollte. Ruttmann grenzte sich hier zum absoluten Film seiner Kollegen ab,
indem er rein dokumentarisches Material verwendete und sich an der Ästhetik der Neuen
Sachlichkeit orientierte. Eines seiner meist genannten Werke Weekend (1930) entstand nach
dem Prinzip, Alltagsklänge in einem Hörspiel zusammenzusetzen und dabei deren Wiederer‐
kennbarkeit zu wahren. Durch seine Arbeit als Regisseur beherrschte er die Arbeitsmetho‐
den von Schnitt und Montage, die er hier nun mit Tonmaterial umsetzte. Diese Methode war
ihm durch die Verwendung von Tonfilmstreifen gegeben, wohingegen andere Künstler mit
Blenden oder Schallplatten arbeiteten. Bei Ruttmann kann auch von einer Realisation von
Hörspielideen gesprochen werden, da er hierzu vorher Partituren und auch Konzepte entwi‐
ckelte. Außerdem gelang es Ruttmann, Bilder durch die Montagetechnik aus ihrem konkre‐
ten Bedeutungszusammenhang zu lösen. Ein Beispiel dafür ist In der Nacht, 1931, mit dem er
den musikalischen Verlauf des Fantasiestückes opus 12 von Robert Schumann filmisch il‐
lustrierte. Durch seine Zusammenarbeit mit Leni Riefenstahl zum Reichsparteitags‐Film Tri‐
umph des Willens (1935) geriet er in die Nähe der NS‐Filmpropaganda, wurde aber von der
Zusammenarbeit unter fehlender Begründung noch vor der Vervollständigung des Films aus‐
geschlossen. Weitere Werke waren der 1932/33 in Italien entstandene Film Acciaio und der
Kurz‐Dokumentarfilm Henkel. Ein deutsches Werk in seiner Arbeit (1938). Zwei seiner letzten
Regiearbeiten waren die propagandistischen Kurzfilme Deutsche Waffenschmieden
(1939/40) und Deutscher Panzer (1940).
Quellen
Döhl, Reinhard, Das neue Hörspiel, Darmstadt 1988
Emons, Hans, Für Auge und Ohr: Musik als Film, Berlin 2005
Goergen, Jeanpaul. Musik des Lichts. Zum 100. Geburtstag Walter Ruttmanns.
http://www.filmportal.de/sites/default/files/BDDB9CE5DD9048EFAB5D26B2056C52F1_Portrxxt_
Ruttmann.pdf [Abgerufen am 23.11.2012]
Kloppenburg, Josef (Hg.). Handbuch der Musik im 20.Jahrhundert Bd.11, Musik Medial, Laaber 2000
Motte‐Haber, Helga de la (Hg.), Handbuch der Musik im 20 Jahrhundert Bd.12, Klangkunst, Laaber
1999
Schenk, Irmbert, Kino und Modernisierung, Marburg 2008
Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Band 5, Elektroakustische Musik,
Laaber 2002
Walther Ruttmann, Biographie. http://www.filmportal.de/person/walther‐
ruttmann_073d7d0d1c4b4c538b0b3db7ec60e44e [Abgerufen am 23.11.2012]
Sophia Kisfeld
39
Stockhausen, Karlheinz (* 22. August 1928; † 5. Dezember 2007) war ein dt. Komponist, Autor, Komposi onslehrer
und der Pionier der elektroakustischen Musik. Er ist einer der bedeutendsten Komponisten
seiner Generation und nimmt eine besondere Stellung im Zentrum der internationalen musi‐
kalischen Avantgarde nach 1950 ein.
1. Biographie und Instrumentalstücke
Karlheinz Stockhausen kam am 22. August 1928 in Mödrath bei Köln als ältester Sohn des
Volksschullehrers Simon Stockhausen und seiner Frau Gertrud Stockhausen zur Welt. Durch
seinem theaterbegeisterten Vater und seine Mutter, die gerne Klavier spielte und sang, be‐
kam Stockhausen schon in seiner frühen Kindheit einen engen Bezug zur Musik. Gertrud
Stockhausen fiel nach längerem Aufenthalt in einer Nervenheilanstalt 1941 dem Euthanasie‐
Mordprogramm der Nationalsozialisten zum Opfer. Sein Vater ließ sich bei der Machtüber‐
nahme der NSDAP für die Ideologie der Partei begeistern, wurde 1943 eingezogen und starb
bei einem Gefecht in Ungarn. K. Stockhausen war vor Kriegsbeginn in einem HJ‐Heim unter‐
gebracht, in dem er durch den militärischen Drill eine tiefe Abneigung gegen Marschmusik
entwickelte, und musste während des Krieges Lazarettdienst leisten.
Nach Kriegsende ging er 1947 nach Köln, um an der dortigen Musikhochschule Schulmusik,
Klavier und Musikwissenschaft zu studieren. 1951 belegte er zusätzlich die Fächer Germanis‐
tik und Philosophie an der Kölner Universität und stand mit dem Nobelpreisträger von 1946,
Hermann Hesse, in regem Briefkontakt. Nachdem Stockhausen in die Kompositionsklasse des
Schweizer Komponisten Frank Martin an der Kölner Musikhochschule aufgenommen wurde,
widmete er sich vollkommen der Musik. Bald darauf machte er die Bekanntschaft mit Her‐
bert Eimert [→], dem damaligen Redakteur des musikalischen Nachtprogramms am NWDR
Köln. Dieser wurde in den folgenden Jahren zu seinem wichtigsten Förderer, indem er ihm
erste Aufführungen ermöglichte und zu einer Anstellung beim Rundfunk verhalf. 1951 nahm
Stockhausen erstmalig an den Internationalen Ferienkursen für Neue Musik in Darmstadt
teil, wo er u.a. von Oliver Messiaen und seinem Schüler Karl Goeyvaerts zu ersten Komposi‐
tionsversuchen inspiriert wurde. Bald darauf entstand das radikale Werk Kreuzspiel für Kla‐
vier, in dem „alle traditionellen Elemente der Melodik, Rhythmik und Satztechnik eliminiert
schienen“. Bei dieser Komposition wandern vereinzelte Töne mit stetig wechselnder Elemen‐
tareigenschaft durch die verschiedenen Oktavräume. Im Jahre 1952 bot sich Stockhausen die
Möglichkeit, nach Paris zu gehen, wo er u.a. mit Pierre Boulez in Kontakt kam. Inspiriert
durch diese Erfahrung entstand bald darauf das Klavierstück Kontra‐Punkte, in dem er die
punktuelle Isolierung einzelner Töne überwinden wollte und diese zu unterschiedlich charak‐
terisierten Gruppierungen zusammenschloss.
2. Elektronische Musik
Zurück in Köln bot Eimert Stockhausen eine feste Anstellung in seinem neu gegründeten
Studio für elektroakustische Musik des Nordwestdeutschen‐Rundfunks [→] an, wo er mit
unermüdlichem Eifer elektronische und instrumentale Stücke, theoretische Schriften und
Analysen produzierte. Jährlich nahm er an den Darmstädter Ferienkursen teil, die als Kon‐
taktbörse und Informationszentrum eine wichtige Rolle spielte. Ab 1956 gab Stockhausen
40
dort regelmäßig eigene Kompositionskurse. 1953 widmete er sich im elektronischen Studio
ganz seiner ersten elektronischen Komposition, der Studie I. Bei dieser Studie baute er Klän‐
ge aus Sinustönen zusammen. 1954 folgte dann die drei minütige Studie II, in der jeder Klang
dem seriellen Einheitsdenken bis ins Kleinste verpflichtet ist und entsprechend individuell
bearbeitet wurde. Im selben Jahr begann er mit dem geistlichen Werk Gesang der Jünglinge,
das elektronische Klänge mit der menschlichen Stimme verband. Er kreierte ein Klangkonti‐
nuum zwischen Sinuston und „weißem Rauschen“, den akustischen Extremen von Einzelton
und Frequenztutti.
Im Rahmen einer Vortragsreihe besuchte Stockhausen 1958 die USA, wo er mit internationa‐
len musikalischen Einflüssen wie Jazz und der Popularmusik in Berührung kam. Dadurch
wuchs sein internationaler Bekanntheitsgrad auch außerhalb der Avantgarde‐Szene. Nach
seiner Rückkehr hatte es sich Stockhausen 1959 zur Aufgabe gemacht, nach der Vollendung
seines Zyklus für einen Schlagzeuger eine neue Notationsweise für elektronische Musik zu
finden. Er versuchte, die bisherige strenge Notation zu erweitern, um Spielräume für inter‐
pretatorische Gestaltung zu schaffen. Es kam zur Entstehung variabler Musik, bei der vor al‐
lem die interpretatorischen Möglichkeiten im Vordergrund standen, die z.B. zur Verände‐
rung der Gesamtdauer von Aufführung zu Aufführung führten. Beeinflusst wurde Stockhau‐
sen dabei durch die New Yorker Schule, insbesondere durch John Cage. Danach begann er
mit der Realisation von Kontakte, das er für Schlagzeug, Klavier und elektronische Zuspiel‐
klänge komponierte. Es ist ein Werk elektronischer Musik auf höchstem künstlerischem Ni‐
veau, das neben Gesang der Jünglinge heute zum meist beachteten Werk elektronischer
Musik zählt. Stockhausen selbst nannte die Form des Stückes die „Dekomposition“ der Klän‐
ge.
Im November 1967 kam es zur Uraufführung von Hymnen, einem Werk, das musikalisches
Material von vierzig Nationalhymnen verschiedenster Staaten collagierte. Stockhausens In‐
tention war dabei, nicht mehr persönliche Musik zu schreiben, sondern Musik, die die Men‐
schen aller Rassen und Nationen einbezieht. Zugleich finden sich hier mit dem Hinweis auf
die ideale Welt „Pluramon“ erste Spuren seiner Privatmystik. Im Jahre 1970 bot sich Stock‐
hausen die Möglichkeit, zur Weltausstellung in Osaka nach Japan zu reisen. Man hatte ihn
gebeten, ein tägliches Fünf‐Stunden‐Programm mit seinen Werken für die Dauer der Ausstel‐
lung auszuarbeiten, das in dem metallisch blauen Kugelauditorium einen idealen Auffüh‐
rungsraum fand.
Für die Zweihundertjahr‐Feier der USA erhielt Stockhausen 1975 einen Kompositionsauftrag
der deutschen Bundesregierung, woraufhin er Sirius für elektronische Musik, Trompete, Sop‐
ran, Bassklarinette und Bass schrieb. Das Werk war eine szenisch‐musikalische Darstellung
der vier Jahreszeiten als Resultat des Besuchs der Erde durch außerirdische Intelligenz. Nach
der Weltausstellung konzentrierte er sich auf das siebenteilige, zyklische Opernwerk Licht,
dessen erster Teil 1977 zur Aufführung kam. Dieses Stück sollte die Woche mit ihren sieben
Tagen darstellen. Nach dessen Abschluss begann er 2004 mit der Verwirklichung von Klang,
das den Tag mit seinen vierundzwanzig Stunden darstellen sollte, aber bis zu seinem Tod am
5. Dezember 2007 nicht vollendet werden konnte. Geplant war noch die Minute, bis er
41
schließlich in der Sekunde endete. Durch diese vorstrukturierte Lebensplanung mit zykli‐
schen Großprojekten wollte er die Begrenzung auf einzelne relativ kurze Werke überwinden,
um sein eigenes Leben zu einem Gesamtkunstwerk zu machen. Zugleich stand die Verbin‐
dung elektronischer und instrumentaler Klänge bis zuletzt im Zentrum seiner Kompositions‐
ästhetik, wobei sich seine Gestaltung elektronischer Musik mit der Umstellung auf digitale
Klangerzeugung grundlegend veränderte, da er die Ausarbeitung der elektronischer Sounds
zunehmend den ausführenden Musikern anvertraute oder – wie mit seinem Sohn Simon
Stockhausen [→] – für zwei Opern des Licht‐Zyklus von diesen vorbereiten ließ, um die ferti‐
gen Stimmen auf Zuspielbändern unveränderlich zu fixieren.
Quellen
Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart
2004
Eimert, Herbert und Hans Ulrich Humpert, Das Lexikon der elektronischen Musik, 1973 Regensburg
Frisius, Rudolf, Art. Stockhausen, Karlheinz, in: in: MGG2 Personenteil 15, Kassel et al. 2006
Ders., Karlheinz Stockhausen I. Einführung in das Gesamtwerk, Mainz 1996
Ders., Gespräch mit Karlheinz Stockhausen „Es geht aufwärts“, in: Karlheinz Stockhausen II. Die
Werke 1950‐1977, Mainz 2008
Kurtz, Michael, Stockhausen. Eine Biographie, Kassel 1988
Stockhausen, Karlheinz, Texte zur Musik Bd. 1‐10, Köln 1963, 1964, 1971, 1978, Kürten 1989, 1998
Ders., Kompositorische Grundlagen Neuer Musik. Sechs Seminare für die Darmstädter Ferienkurse,
Kürten 2009
Toop, Richard, Art. Stockhausen, Karlheinz, in: NG2 Band 24, London 2001
Paula Sophia Prüßner
42
Stockhausen, Simon Dt. Komponist, Produzent und Interpret (* 5. Juni 1967 in Bensberg bei Köln). Seine Mu‐
sikanschauung folgt der These, dass Geräusche durch kontextuelle Veränderung und elekt‐
ronisch‐prozessuale Klangmanipulation musikalisiert werden können. Diese Auffassung ver‐
eint Techniken der Musique concrète [→], des Dadaismus sowie der elektronischen Musik,
ohne das seine Musik einer dieser Kategorien zugeordnet werden könnte. Seine komposito‐
rische Arbeit orientiert er sich am jeweiligen Stand der Computertechnik, an der er zur Ent‐
wicklung von Soft‐ und Hardware selbst beteiligt ist.
Als Sohn der Künstlerin Mary Bauermeister und des Komponisten Karlheinz Stockhausen er‐
hielt er bereits während seiner frühen Kindheit Unterricht in den Fächern Klavier, Saxophon,
Schlagzeug, Synthesizer und Komposition. Dabei wurde er einerseits vom streng seriellen
Denken seines Vaters, andererseits von der Laisser‐faire‐Erziehung in der Hauskommune
seiner Mutter geprägt. Neben der artifiziellen Musik lernte er Popmusik kennen, die sein Va‐
ter strikt ablehnte, und entwickelte eine Vorliebe für Jazz und Progressive Rock. Nach dem
Abitur im Jahr 1986 wirkte er im Ensemble seines Vaters auf internationalen Konzertreisen
mit (Sternklang; Donnerstag aus Licht) und produzierte zusammen mit seinem Vater u. a. die
elektronische Musik für die Opern Dienstag (1992) und Freitag (1994) aus dessen LICHT‐
Zyklus. In Dienstag trat S. Stockhausen zudem im Klavierstück XV in der Rolle des Synthi‐Fou
auf. In der Einführung zur Partitur widmete Karlheinz Stockhausen die Komposition seinem
Sohn, den er als „Klavier‐Elektroniker“ im „Übergang […] von mechanischer Klaviermusik zu
einer Elektronischen Klaviermusik“ (Stockhausen 1995) betitelte. Die letzte Zusammenarbeit
der beiden Komponisten war 1996. Anschließend begann S. Stockhausen selbstständig in di‐
versen Bereichen zu arbeiten. Als Keyboarder/Live‐Elektroniker und Sopransaxophonist
spielte er mit der WDR‐Bigband, Lalo Shifrin und James Morrison (On the edge). Er leitete
zudem Workshops für elektronische Klangerzeugung (Education‐Projekt bei den Berliner
Philharmonikern). In Klanginstallationen und Performances suchte S. Stockhausen immer
auch die Begegnung zu den bildenden Künsten. Neben Musik für Dokumentarfilme bei WDR,
Arte und ZDF, Filmmusiken wie Trip to Asia (2007) und Theater‐ und Kammermusik finden
sich vereinzelt auch politisch konnotierte Werke (Brandnächte, Da SPEECH). Seit 2008 pro‐
duziert er kommerzielle Klangeffekte für diverse Online‐Klangbibliotheken und Softwarefir‐
men. Darüber hinaus gestaltete er 2011 den musikalischen Rahmen zur 47. Verleihung der
Grimme‐Preise. Im Jahr 2012 folgte eine Zusammenarbeit mit den Hamburger Symphoni‐
kern, die seinen Halbbruder Markus Stockhausen und ihn als Artists in Residence verpflichte‐
ten. Wie bereits in Berliner Geschichten (1999) sucht S. Stockhausen hier in Minimal Night‐
mare und Doktrin der Ruhe die interaktive Verknüpfung von Elektroakustik und Orchester.
Selbst bezeichnet er seine Tätigkeitsbereiche heutzutage als „Komposition – Produktion –
Sound Design“, da er kein konventionelles Komponistenbild erfüllt.
Sein einziges Paradigma betrifft die potenzielle Musikalität aller Geräusche und die Erfor‐
schung von Klang in all seinen Dimensionen. Dazu gehören Alltagsgeräusche ebenso wie
Sprache. Texturen, Rhythmen und Harmonien werden in seinen Prinzipien der Klangsynthese
aus Geräuschen abgeleitet, um anschließend in Kompositionen Verwendung finden. Diese
prozessuale Kompositionsweise bezieht sich auf Zeitparameter (z. B. Dehnung und Stau‐
43
chung von Klängen durch time‐stretching), die dynamische Veränderung durch Kompression
und die Möglichkeit, Aufnahmen rückwärts (reversed) abspielen zu lassen. In diesem grund‐
legenden Vorgang steht „prozessiert“ nicht allein für ein kompositorisches Stilmittel, son‐
dern meint hier die Veränderung von aufgenommenen Klängen. Durch digitale Klangsynthe‐
se [→ addi ve Synthese], die Genese künstlicher oder Abwandlung natürlicher Klänge, ist es
möglich, die Mikrotonalität der Klänge zu verändern. Bei S. Stockhausen bleibt nach dieser
Verfremdung der Ursprung der Klänge weiterhin erkennbar. Die Anwendung dieser Prinzi‐
pien ist für ihn aber keineswegs bindend. Während einerseits bestimmte seiner Werke einen
rein künstlerischen Anspruch haben, folgt andererseits z. B. seine Theater‐ und Filmmusik ei‐
nem jeweils funktionalen Zweck. Unabhängig von dieser Unterscheidung stehen die Prinzi‐
pien der kompositorischen Arbeit mit den Möglichkeiten der Klangsynthese in Einklang.
Die zahlreichen Arbeitsbereiche Klassik, Elektronik, Jazz sowie Weltmusik, Kunstperfor‐
mances, Filmmusik und Sound Design verhindern eine eindeutige stilistische Klassifizierung.
Da bisher keine wissenschaftliche Publikation über S. Stockhausen existiert, findet sich in der
musikwissenschaftlichen Literatur lediglich die provisorische Beschreibung im Bereich „inter‐
stylistic composition“ (Custodis 2011), um die Nähe zu Musikern wie Heiner Goebbels, Steve
Vai, Matthew Herbert und Thomas Adès aufzuzeigen.
Quellen
Bauermeister, Mary, Ich hänge im Triolengitter. Mein Leben mit Karlheinz Stockhausen, München
2011
Custodis, Michael, Living History. The Guitar Virtuoso and Composer Steve Vai, Online‐Publikation
Münster 2011, unter http://www.uni‐muenster.de/imperia/md/content/ musikwissen‐
schaft/pdf/custodis‐vai.pdf [10. April 2013]
Ders., Progressing Music. Auf der Suche nach dem Neuen im 20. Jahrhundert, in: Archiv für Musik‐
wissenschaft 69 (2012), Heft 1
Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010
Schmidt, Klaus, Die Brandnacht, Dokumente von der Zerstörung Darmstadts am 11. September 1944,
Darmstadt 61964
Seeber, Martina, Zukunft@BPhil, Berliner Polyfonie. Das Education‐Projekt REMIX‐San Francisco Po‐
lyphony, online unter http://www.berliner‐ philharmoniker.de/fileadmin/education/0910/H5_
0910_edu‐berliner_polyfonie.pdf. [10. April 2013]
Stockhausen, Karlheinz, SYNTHI‐FOU (Klavierstück XV) für einen Spieler elektronischer Tasteninstru‐
mente und Elektronische Musik vom DIENSTAG aus LICHT (1991), Kürten 1995
Ders., Texte zur Musik Band 7 und 8, Kürten 1998
Stockhausen, Simon, Simonstockhausen.com, online unter http://www.simonstockhausen.com
Attila Kornel
44
Tape Music Der Begriff Tape Music bzw. Music for Tape wurde, obwohl schon früher als musikalische
Form bekannt, 1952 durch Oliver Daniel eingeführt. Tape Music ist demnach Musik, die di‐
rekt mit einem Tonbandgerät erzeugt und aufgenommen wird, ohne dabei die Zwischenstu‐
fe einer schriftlichen Aufzeichnung zu durchlaufen. Kompositionen von Tape Music fanden
überwiegend in den 1950er‐ und 1960er‐Jahren statt, als Magnettonbandgeräte die best‐
mögliche Aufnahmetechnologie darstellten.
Das Genre wurde vorwiegend durch amerikanische Komponisten geprägt und verstand sich
als ideeller Gegenpol zur europäischen Musique concrète [→]. Technisch sind beide Termini
vergleichbar, jedoch nicht musikalisch. Vertreter der Tape Music kritisierten die Musique
concrète wegen ihrer Nachahmung von Orchesterinstrumenten, während sie selbst sämtli‐
che Klangspektren der elektronischen Instrumente nutzten. Die Tape Music folgte u.a. dem
Prinzip der Unvorhersehbarkeit, wie es v.a. von John Cage [→] vertreten wurde. Im Fokus
der Komponisten stand ebenso, Schwachstellen oder klangliche Besonderheiten des Ton‐
bandgerätes für die Komposition zu nutzen.
Der Komponist trat in der Tape Music als Schöpfer in zweiter Instanz auf, da er beim Kompo‐
nieren nur auf bereits vorhandene Sounds zurückgriff. Vertreter der Tape Music verfolgten
in ihren Kompositionen experimentelle Ansätze, wenn z.B. die Regeln der mathematischen
Wahrscheinlichkeit zur Anordnung von Klangquellen herangezogen wurden (Earle Brown –
Octet No. 1, 1953). Bildende Künste, Tanz und lyrische Texte waren ebenso Einflüsse zur Ge‐
staltung der Werke. Durch die nahezu unbegrenzten Möglichkeiten der Komposition war es
nötig, potentiell zu verwertendes Material im Voraus auf seine ästhetische Beschaffenheit zu
überprüfen sowie Methoden und Zielvorstellungen genau zu bestimmen. Tape Music wurde
zum reinen Abspielen und nicht für konzertierende Aufführungen produziert und unterglie‐
derte sich ab 1951 in drei wegbereitende Gruppierungen:
1. Der New Yorker Kreis um John Cage
Cage arbeitete mit Brown, Morton Feldman, David Tudor und Christian Wolff ab 1951 im
Studio des Ehepaares Louis und Bebe Barron in New York am Projekt Music for Magnetic Ta‐
pe. 1952 entstand Cages Williams Mix, ein aus mehr als 600 Aufnahmen aus Bandabfällen
bestehendes Werk, das für ein achtspuriges Tonbandgerät konzipiert war. Solch ein Gerät
gab es zu dieser Zeit jedoch nicht, weshalb zur Aufführung des Stückes acht Tonbänder in
acht Geräten gleichzeitig abgespielt werden mussten. Als Grundlage des Schnittmusters
diente Cage das chinesische Buch der Wandlungen I Ging. Cage strebte die radikale Umset‐
zung des Montageprinzips sowie das Konzept der Unbestimmtheit an. Die Komposition des 4
Min. 15 Sek. Langen Stücks dauerte mehrere Monate. 1953 endete die Zusammenarbeit der
Gruppe. Feldman ging im Anschluss mit Brown nach Newark an die Rangertone Studios.
2. Columbia‐Princeton Electronic Music Center
Das Computer Music Center (CMC) ist das älteste Zentrum für elektronische und computer‐
basierte Musik in den USA. Erste Kompositionen gab es 1951 im Experimental Music Studio –
später Tape Music Studio – der Columbia University in New York. Das CMC machte sich die
45
Techniken der gesteuerten Rückkopplung (Feedback) und der Transposition eines aufge‐
nommenen Klangs zunutze und arbeitete verstärkt mit Geschwindigkeitsvariationen. Die
kompositorischen Anfänge verliefen parallel zur Cage‐Gruppe. Am 9. Mai 1952 fand auf Initi‐
ative Henry Cowells ein universitätsinternes Tonbandkonzert statt, welches am 18. Oktober
1952 im New Yorker Museum of Modern Art öffentlich wiederholt und weitgehend positiv
rezipiert wurde. Aufgeführt wurden Vladimir Ussachevskys Sonic Contour sowie Otto Lue‐
nings Invention in 12 Notes, Low Speed und Fantasy in Space. 1953 folgte eine Einladung der
Radiodiffusion Française zu einem Festival in Paris, bei dem ein eigener Programmschwer‐
punkt für Tape Music vorgesehen war. 1959 kam es zur Fusion des Studios zum Columbia‐
Princeton Electronic Music Center, in deren Folge das Studio gemeinsam von der Columbia
University und der Princeton University in New Jersey betrieben wurde und unter der Lei‐
tung von Luening [→] und Ussachevsky stand. Weitere wichtige Mitarbeiter und Komponis‐
ten waren u.a. Milton Babbitt, Roger Sessions, Bülent Arel, Mario Davidowsky und Alice
Shields. Schon 1958 verfügte das CMC über vier komplette Aufnahmestudios für elektroni‐
sche Kompositionen sowie den RCA Mark II Sound Synthesizer.
3. San Francisco Tape Music Center (SFTMC)
Das SFTMC ging 1960 aus der von Ramon Sender und Pauline Oliveros veranstalteten Kon‐
zertreihe Sonics hervor, bei der die Tape Music ein Forum fand. 1962 entstand offiziell das
von Sender und Morton Subotnick gegründete SFTMC am San Francisco Conservatory of
Music. Die Zielsetzung der Einrichtung war es, eine Black Box – einen neuentwickelten Syn‐
thesizer – für Komponisten zur Verfügung zu stellen, die alle erdenklichen Klänge verfügbar
machen sollte. Das Gerät sollte die elektronische Musikproduktion so vereinfachen, dass Ar‐
beitsschritte gleichzeitig und nicht mehr nacheinander ausgeführt werden konnten. Das
Vorhaben mündete 1962 und 1963 in den Bau eines modular aufgebauten Systems durch
Donald Buchla. Der Buchla‐Synthesizer beinhaltete zwei Keyboards ohne herkömmliche Tas‐
ten. Stattdessen wurde eins mit berührungsempfindlichen Kontakten ausgestattet, die pro‐
grammierte Ereignisse auslösten, während das andere als Wiedergabesteuerung für zehn
angeschlossene Tonbandgeräte diente und somit ähnlich wie ein Mellotron arbeitete. Die
Keyboards dienten als eine Art Sampler. Dieses Gerät wurde später zum 100 Series Mudolar
Electronic Music System weiterentwickelt, dessen Lizenz schließlich von der CBS erworben
wurde. Durch das Gerät war es nun möglich, in Echtzeit zu arbeiten, wobei die Arbeitsschrit‐
te manuell vorgenommen werden mussten. Der Buchla‐Synthesizer wurde vor allem von
Subotnick genutzt, der damit 1967 sein erstes größeres Werk Silver Apples of the Moon
komponierte. Subotnick verfolgte dabei die Idee einer bildhauerischen Auseinandersetzung
mit Klängen, also der Klangerweiterung durch elektronische Hilfsmittel, nicht der Schaffung
neuer musikalischer Strukturen.
Die Zusammenarbeit Buchlas und Subotnicks, vor allem auch mit dem Bildkünstler Anthony
Martin, hatte großen Einfluss auf die Hippie‐Bewegung und Bands wie Grateful Dead, Jeffer‐
son Airplane oder Quicksilver Messenger Service. Pink Floyd, die ihrerseits 1968 mit dem Al‐
bum „A Saucerful of Secrets“ Wegbereiter des Electronic Rock‐Genres wurden, waren eben‐
falls durch das SFTMC beeinflusst.
46
Steve Reich erlernte zwischen 1963 und 1965 im SFTMC die von Terry Riley entwickelte
Technik der Phasenverschiebung, bei der zwei oder mehr Tonbänder mit identischen Band‐
schleifen allmählich gegeneinander verschoben werden. 1966 wurde das SFTMC von San
Fransisco an das Mills College in Oakland verlegt und später in Center for Contemporary Mu‐
sic umbenannt. Die Leitung ging an Martin und Oliveros über, womit sich der Kreis zur
Sonics‐Konzertreihe schloss.
Quellen
Burns, Kristine H., Art. Morton Subotnick, in: NG2 Band 24, London 2001
Castine, Peter, Art. Ussachevsky, Vladimir (Alexis) in: MGG2 Personenteil 16, Kassel 2006
Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001
Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004
Manning, Peter, Electronic and Computer Music, Oxford 1987
Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010
Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005
Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001
Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Bd.5, Elektroakustische Musik,
Laaber 2002
Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al.
1995
Oliver Falkenberg
47
Elektroakustische Musik beim Westdeutschen Rundfunk Köln I. Die elektroakustische Musik beim Rundfunk
Aufgrund technischer Erfordernisse dort entstanden, wurde die Beschäftigung mit elektroa‐
kustischer Musik auch nach der Dezentralisierung von Studiokompositionen infolge von sin‐
kenden Gerätepreisen durch den Rundfunk gefördert. Die öffentlich‐rechtlichen Rundfunk‐
anstalten entsprechen damit ihrem Kulturauftrag zur Förderung von Musikern und zur Ent‐
stehung neuer Werke.
Kulturauftrag
In den Programmgrundsätzen der Rundfunkgesetzgebung ist der Kulturauftrag nicht im De‐
tail definiert, wofür die Unterstützung kultureller Ideale seit der ständigen Programmauf‐
nahme in Deutschland am 29.10.1923 zur Sendungslegitimation herangezogen wird. Ur‐
sprünglich eine Folge musikindustrieller Förderung und politischer Zensurverfahren, wurde
das breite Musikprogramm ab 1925 von der Reichsrundfunkgesellschaft als kultureller Wert
auch staatlich subventioniert. Die „drei Säulen“ des Kulturauftrags sind noch heute Unterhal‐
tung, Bildung und Information. Die Produktion sog. „Minderheitenprogramme“ (Hörspiele,
künstlerische Features, E‐Musik) zählt zu den wesentlichen Merkmalen öffentlich‐rechtlicher
Rundfunkanstalten. Geringe Einschaltquoten werden durch Bildungscharakter und hohe ab‐
solute Zuhörerschaft (ca. ½ Mio. Menschen in Deutschland) gerechtfertigt. In diesem Zu‐
sammenhang fungieren Rundfunkanstalten als Mäzene neuer Musik: die Finanzierung eige‐
ner Klangkörper und Konzertreihen, die Organisation von Festivals (z.B. Donaueschinger Mu‐
siktage, Südwestrundfunk) sowie die Vergabe von Kompositionsaufträgen sind direkte Folge
des Kulturauftrags, ebenso die Einrichtung elektronischer Studios in der zweiten Hälfte des
20. Jahrhunderts.Nachfolgende Beispiele zeigen internationale Herangehensweise zur Ein‐
richtung elektronischer Studios durch den Rundfunk.
Das Elektronische Studio des NWDR (Nordwestdeutscher Rundfunk)
Auf der ersten Tonmeistertagung im September 1949 in Detmold präsentierte der Bonner
Kommunikationswissenschaftler Werner Meyer‐Eppler (M.‐E.) Vocoder‐Experimente und
machte dort die Bekanntschaft von Robert Beyer, Tonmeister des NWDR Köln. Durch elekt‐
ronische Klangforschung erhoffte sich dieser eine Realisierung von Klangfarbenmusik, so
dass er den Verantwortlichen des NWDR in Köln vorgestellt wurde. Erste Ergebnisse kamen
zum Einsatz im Rundfunkhörspiel Der alte Roboter (gesendet am 22. September 1951), die
mit Vocoder erzeugten Roboterstimmen der breiten Öffentlichkeit als „Meisterstück der
Elektroakustik“ präsentiert wurden. Es folgte eine Sendung über elektronische Musik im
Nachtprogramm des NWDR am 18. Oktober 1951 mit Klangbeispielen von M.‐E. zu einem ei‐
nem Gespräch mit Robert Beyer, Herbert Eimert (dem leitenden Redakteur des Nachtpro‐
gramms, →) und Friedrich Trautwein. Am Morgen desselben Tages hatte eine kurze Bespre‐
chung mit den Programmverantwortlichen die Begründung eines elektronischen Studios am
Kölner Funkhaus initiiert: „So wird es beispielsweise möglich, das Problem der ‚rundfunkei‐
genen Musik‘ in Angriff zu nehmen und auch für das Hörspiel akustische Effekte von bisher
noch nicht gehörter Gestalt bereitzustellen.“
48
Erfolgreich setzte Eimert diese Empfehlung beim Intendanten des NWDR durch, erste Klang‐
experimente folgten 1952. Unter der Leitung Karlheinz Stockhausens [→] entfernte sich das
Studio ab Mitte der 1950er Jahre zunehmend von Eimerts ursprünglichen Vorstellungen und
konzentrierte sich auf Konzepte der seriellen Musik. Im Musikalischen Nachtprogramm als
neue Musik etabliert, konnte diese bzgl. des auskomponierten Raumklangaspektes aber nur
bedingt ihre Wirkung entfalten, da der sendefähige Ton zunächst nur monofone, später ste‐
reofone Produktionen berücksichtigen konnte bzw. mehrkanalige Werke nach diesen techni‐
schen Erfordernissen heruntergemischt werden mussten. Die Aufführung mit klar positio‐
nierten Lautsprechern im Konzertsaal und auf Tagungen („Saalfunk“) sollte dieses Problem
lösen.
Das Mailänder Studio di fonologia di Milano della RAI
1955 wurde das Studio im Auftrag des Radiotelevisione Italiana (öff.‐rechtl. Rundf.) zur Her‐
stellung akustischer Kulissen von Hörspielen gegründet. Musikalische Leiter waren Luciano
Berio und Bruno Maderna. Dieser hatte 1952 in Kooperation mit M.‐E. Musica su due dimen‐
sioni komponiert. Im Sinne der eigentlichen Zielsetzung des Studios öffnete man sich dem
Gebrauch außerelektronischer Mittel, was von Stockhausen scharf kritisiert. John Cage kom‐
ponierte hier 1958 Fontana Mix, Luigi Nono bearbeitete jedes seiner elektronischen Werke
auch in Mailand.
Elektronmusikstudion (EMS)
Der schwed. Komponist Karl Birger Blomdahl war 1964 unter der Voraussetzung, ein Studio
zur Produktion elektronischer Musik gründen zu können, zum Musikdirektor von Sveriges
Radio (dem schwedischen öffentlich‐rechtlichen Rundfunk) ernannt worden. Nach dessen
Tod vier Jahre später stellte der Sender die Finanzierung ein und das Studio wurde im Folge‐
jahr 1969 unabhängig mit Unterstützung des Kulturministeriums. Erster Direktor des neuen,
bis heute bestehenden EMS war der norw. Komponist Knut Wiggen, den besonders die psy‐
chologische Wirkung von Klängen interessierte.
NHK (Nippon Hōsō Kyōkai) Studio
1954 durch NHK (den japanischen öffentlich‐rechtlichen Rundfunk) gegründet. Aus Interesse
am musikalischen und radio‐klanglichen Einsatz elektroakustischer Musik bemühte man sich,
zunächst ein Handbuchs des Kölner NWDR‐Studios ins Japanische zu übersetzen, um ein ei‐
genes elektronisches Studio aufzubauen. Dessen Gründungsdirektor wurde Wataru Uenami.
Zur Gewinnung authentischer Eindrücke reiste der Komponist Toshiro Mayuzumi 1955 nach
Köln, so dass erste Kompositionen sich an der Kölner Schule (Studie I: Music for Sine Wave by
Proportion of Prime Number, 1955) orientierten. 1966 komponierte K. Stockhausen hier sei‐
ne Telemusik.
Quellen
Handke, Silvia, Präsenz und Dynamik regionaler Musikkulturen in den Sendekonzepten des WDR‐ Hör‐
funks, Kassel 1997
Holmes, Thom, Electronic and Experimental Music: Technology, Music and Culture, London 2008
49
Krogh Groth, Sanne, The Stockholm Studio EMS during its Early Years, online unter http://www.ems‐
network.org/ems08/papers/sanne_groth.pdf [10. April 2013]
Kurtz, Michael, Stockhausen – Eine Biographie, Kassel 1998
Spangemacher, Friedrich, Luigi Nono: Die elektronische Musik, Regensburg 1983
Ungeheuer, Elena, Wie die elektronische Musik »erfunden« wurde..., Mainz 1992
Dies. (Hg.), Handbuch der Musik im 20.Jahrhundert Bd.5, Elektroakustische Musik, Laaber 2002
Weißbach, Rüdiger, Rundfunk und neue Musik, Dortmund 1986
Gordon Pfaff
50
II. Das elektronische Studio des WDR
1. Allgemeines
Das Studio ist historisch die erste Produktionsstätte rein elektronisch synthetisierter Musik
und wurde am 8. Oktober 1951 im Kölner Funkhaus des Nordwestdeutschen Rundfunks
(NWDR) gegründet. Die im Studio von Komponisten unterschiedlichster Nationalitäten und
Generationen produzierten Werke gaben bis Ende der 1990er Jahre entscheidende Impulse
für die Entwicklung und Verbreitung von elektronischer Musik. Ebenso diente das Studio als
Vorbild für später eingerichtete Studios inner‐ und außerhalb Europas.
2. Vorgeschichte und Gründung unter Herbert Eimert (1950‐1962)
Am 22. und 23. August 1950 hielten Werner Meyer‐Eppler (*1913; †1955; Prof. für Physik,
Phone k und Kommunika onsforschung in Bonn) und Robert Beyer (*1901; †1989; Ton‐
meister und Komponist) bei Wolfgang Steineckes Darmstädter Ferienkursen Vorträge über
„Die Klangwelt der elektronischen Musik“ mit entsprechenden eigenen Musikbeispielen. Der
Leiter des Musikalischen Nachtprogramms Herbert Eimert [→] propagierte darauf die im‐
mense Bedeutung der elektronischen Musik für den Kölner Standort des Nordwestdeut‐
schen Rundfunks bei seinem Intendanten Hans Hartmann. Beyer und Meyer‐Eppler unter‐
stützen Eimert während dieser Besprechung mit Klangbeispielen. Zur Profilierung des Kölner
Funkhauses gegen die Hamburger Sendeleitung bewilligte Hartmann die Einrichtung eines
elektronischen Studios in Köln. Bis zur Fertigstellung des eigentlichen Studios erfolgen erste
Klangexperimente mit obertonreichen Klängen und Sinustönen in einem der Tonträgerräu‐
me des Funkhauses. Der Fokus lag zunächst auf der Verarbeitung des Klangmaterials mit Hil‐
fe von Tonbandaufnahmen und Montagetechniken. Darüber hinaus kamen die elektroni‐
schen Spielinstrumente Monochord und Melochord zum Einsatz.
Ab Mai 1953 unternahm Karlheinz Stockhausen [→] erste Versuche auf Basis der seriellen
Sinustonkomposition mit einer Vorbestimmung sämtlicher Klangparameter. Während dieser
Phase entstanden 1953/54 Stockhausens Studie I und Karel Goeyvaerts Komposition Nr. 5.
Ab 1955 wurden die Kompositionen um die Parameter Rauschen, Impulse und gesungene
Sprache erweitert, etwa in Ernst Kreneks Pfingstoratorium und Stockhausens Gesang der
Jünglinge. Letzteres Werk wies darüber hinaus das Novum mehrkanaliger Realisation auf. In
den frühen sechziger Jahren wurden u.a. auch erstmalig instrumentale Klänge in den Kom‐
positionsprozess einbezogen, prototypisch in Stockhausens Kontakte.
Die Ausstattung beschränkte sich in den fünfziger Jahren auf Geräte der Abteilung Mess‐
technik des WDR. Neben Stockhausen gehörte auch Gottfried Michael Koenig [→] von 1954
bis 1964 zum festen Stab der Mitarbeiter im Studio, der sowohl bei zahlreichen Kompositio‐
nen assistierte, als auch eigene Werke realisierte. Im Musikalischen Nachtprogramm wurden
viele Beiträge zur elektronischen Musik gesendet und in der neu gegründeten Konzertreihe
Musik der Zeit vor Publikum aufgeführt.
51
3. Umorientierung unter Karlheinz Stockhausen (1963‐1986)
Stockhausen übernahm ab April 1963 die künstlerische Leitung des Studios und trieb zu‐
nächst eine Neukonzeption der Räumlichkeiten und Ausstattung des Studios, die drei Jahre
später abgeschlossen war. Bedingt durch die Umstrukturierungsmaßnahmen lag der Kompo‐
sitionsbetrieb brach, so dass man sich der wissenschaftlichen Aufarbeitung der bisherigen
Produktionen widmete (Erstellung eines Bandarchivs zu Studienzwecken und Besuch ande‐
rer Studios). Der reguläre Studiobetrieb in der vierten Etage des Funkhauses wurde 1967
wieder aufgenommen.
Mitte der 1960er Jahre fanden bei Stockhausens neuen Stücken neue Tendenzen Eingang:
instrumentaler (Mixtur; Mikrofonie I) und vokaler Klang (Mikrofonie II) wurden nun während
der Aufführung in Echtzeit transformiert und die aufwändige Schnitttechnik damit überflüs‐
sig. Ab 1967 erfolgen bei Stockhausen erste Synthesen von konkreten Klängen, elektroni‐
scher Musik und Live‐Elektronik im Werk Hymnen. Darüber hinaus lud er junge Komponisten
für eigene Arbeiten ein (u.a. Messias Maiguashca, Johannes Fritsch, Peter Eötvös und David
Johnson), die auch neue, teilweise selbstgebaute Instrumente mitbrachten und bei Stock‐
hausens eigenen Aufführungen mitwirkten. Eine Auseinandersetzung der elektronischen
Musik mit Wirklichkeit und Kunst manifestierte sich gegen Ende der 1960er Jahre dann in
den Werken Modulation IV (Fritsch), Telefun (Johnson), Requiem (Walter Zimmermann), Hör
Zu (Maiguashca) sowie System der Parabeln (Pousseur →). Zunehmend wurde eine Domi‐
nanz zur Verbindung von elektronischen, instrumentalen und vokalen Klangmitteln deutlich.
Auch die live‐elektronischen Kompositionen wurden zu einem festen Bestandteil der Auffüh‐
rungspraxis. Der Einsatz des EMS Synthi 100 ab 1973 ist innerhalb dieser Periode des Studios
besonders hervorzuheben, da es sich bei diesem Gerät um das erste Instrument handelte,
welches primär für elektronische Musik bestimmt war.
4. Neukonzeption und Ende (nach 1987)
Dem Anspruch der Komponisten nach klanglicher Erneuerung konnte aufgrund fehlender
Neuanschaffungen sowie hoher Instandhaltungskosten nicht entsprochen werden, zumal
das Studio seine ästhetische Vorrangstellung seit der Einrichtung des IRCAM [→] längst ver‐
loren hatte. Veraltete und teilweise funktionsunfähige Geräte veranlassten den Toningeni‐
eur Volker Müller gemeinsam mit Stockhausen bereits Anfang der 1980er Jahre, Erneue‐
rungskonzepte für einen erneuten Um‐ und Ausbau des Studios zu entwerfen. Zwischen
1982 und 1987 konnte im Studio durch die bewilligten Umstrukturierungen nicht produziert
werden, so dass die künstlerischen Aktivitäten in der Übergangszeit mittels angemieteter
Fremdtechnik erledigt wurden. Es entstanden dabei Großproduktionen wie Teile des Opern‐
zyklus Licht von Stockhausen, dessen Fertigstellung sich bis in die Mitte der 1990er Jahre er‐
streckte, und Luigi Nonos Prometeo. Mit dem Umzug in die Kölner Annostraße begann
1986/87 die letzte aktive Phase des Studios . Mit dem Komponisten York Höller (*1944), ei‐
nem Schüler von Bernd Alois Zimmermann, fand man 1990 auch einen Nachfolger Stockhau‐
sens als Leiter des Studios, der dank seiner Erfahrungen im IRCAM die Digitalisierung des
Studios endgültig vollziehen konnte.
52
Im 50. Jahr seines Bestehens wurde das Studio 2001 stillgelegt und die Gerätschaften in das
Industriegebiet Köln‐Ossendorf ausgelagert. Dort betreut seitdem der inzwischen pensio‐
nierte Toningenieur Volker Müller die weitere Digitalisierung alter Tonbandbestände. Die
weitere Existenz des Studios ist noch immer ungeklärt. Fortbestand im Programm des WDR
findet die elektronische Musik unter der Rubrik „WDR‐open“, in welcher regelmäßig Beiträge
zum Thema gesendet werden.
Quellen
Chagas, Paulo, Digital Composition: Von der Klangregie Elektronischer Musik zur intermedialen Äthe‐
tik bei Paulo Chagas. Eine Mediologie der Studios als Klangkörper, KlangOrt und Kulturraum, in:
Massenmedien und Kommunikation 190/191, Siegen 2012
Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart
2004
Hilberg, Frank und Harry Vogt (Hg.), Musik der Zeit. 1951‐2001. 50 Jahre Neue Musik im WDR, Köln
2002.
Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für
Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988
Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in:
Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668
[13.November 2012]
WDR‐Online Angebot, http://www.wdr3.de/programm/sendungen/wdr3openstudioelektronische
musik/index.html [13. November 2012]
Andreas Bußmann
53
III. Technische Entwicklung Das Studio experimentierte im Laufe seiner Existenz mit diversen technischen Hilfsmitteln
zur Klangerzeugung, wobei die Apparaturen fortwährend verändert und erneuert wurden.
Zu Beginn arbeitete man mit Geräten aus der Mess‐ und Prüftechnik, die zur Klangerzeugung
beziehungsweise ‐transformation zweckentfremdet wurden. Robert Beyer und Herbert Ei‐
mert [→] ging es zunächst um die differenzierte Gestaltung von Klangfarben. Dazu verarbei‐
teten sie mit Hilfe diverser Schnitt‐ und Kopiertechniken Melochordklänge, die Werner Mey‐
er‐Eppler in Bonn aufgenommen hatte. Auch andere obertonreiche Klänge wurden durch
solche Montagetechniken verändert. Für das fertig eingerichtete Studio wurden 1953 eigens
ein Bode‐Melochord sowie ein Trautwein‐Monochord angefertigt, die zu dieser Zeit die ein‐
zigen elektronischen Instrumente waren und als Frühform des Synthesizers gelten. Von be‐
sonderer Relevanz war zudem ein nach Fritz Enkels Plänen gebautes Mischpult, das die ein‐
zelnen Geräte miteinander koppelte.
Enkel und Heinz Schütz dokumentierten 1954 in einem Artikel für die Technischen Hausmit‐
teilungen des NWDR den damaligen technischen Stand des Studios. Zur Apparatur gehörten
neben den bereits erwähnten Geräten ein Vierspurtonbandgerät, Eintonbandmaschinen, ein
Rauschgenerator und ein Schwebungssummer. Zudem dienten zur Weiterverarbeitung des
Klangmaterials u.a. ein Ringmodulator sowie mehrere Filter. In Abgrenzung zur Hörspielab‐
teilung und den dort benötigten Klangeffekten strebte Eimert nach einer komponierten
elektronischen Musik, weshalb er mehrere Komponisten ins Studio einlud. Darunter war
Karlheinz Stockhausen [→], unter dessen Einfluss die serielle Musik zunehmend realisiert
werden konnte. Um nach eigenen kompositorischen Vorstellungen Sinustöne zusammenset‐
zen zu können, lieh er sich Sinustongeneratoren, die bald Mono‐ und Melochord klangästhe‐
tisch verdrängten.
Sukzessiv wurde das Studio in den nächsten Jahren erweitert. Der WDR erstellte Pläne für
Schaltgestelle, Mischpulte, Bedienungsfelder und Tonbandgeräte, die speziell auf die Be‐
dürfnisse im Studio zugeschnitten waren. Nachträglich kamen noch Transistorgeräte hinzu.
Der Entwurf eines Rotationstisches, der von Lautsprechern umgeben war, ermöglichte es
zudem, Klangbewegungen zu komponieren. Das Studio hatte sich zu diesem Zeitpunk im Be‐
reich der Elektrotechnik zwar enorm entwickelt, jedoch erkannte Stockhausen nach Besu‐
chen amerikanischer Studios die Notwendigkeit einer Modernisierung. Im Zuge eines erneu‐
ten Umbaus in den 1970er wurde die Automatisierung des Studios realisiert. Zwei Philipps‐
generatoren und der kleine Analogsynthesizer Synthi A ergänzten den Gerätepark, wodurch
nun das Prinzip der Spannungssteuerung verfolgt wurde. Demnach konnten die Module des
Synthesizers mittels variabler Gleichspannungen gesteuert werden, wodurch die zuvor ma‐
nuellen Arbeitsprozesse erleichtert wurden. Mit der Anschaffung des großen Synthesizer
Synthi 100 im Jahr 1973 besaß man schließlich das erste Gerät, das speziell für elektronische
Musik eingesetzt wurde. Dieser vereinte alle zuvor separat genutzten Geräte zur Klanger‐
zeugung, Klangverarbeitung und Spannungserzeugung.
54
Anfang der 1980er wurde der Gerätepark des Studios wieder erneuert: Veraltete und funkti‐
onsunfähige Geräte wurden u.a. durch einen Chroma‐Synthesizer, einen EMS‐Vocoder und
zwei Mehrspulanlagen ersetzt. Ferner wurde der Fokus auf Live‐Elektronik gesetzt, was die
Anschaffung eines speziell für Konzertreisen ausgelegten Achtspurlaufwerks beinhaltete so‐
wie den Austauschder manuellen Tonregieanlage aus den 1960er Jahren durch eine compu‐
tergesteuerte Anlage. Das Studioequipment wurde zudem durch spezielle Systeme zur Klan‐
gerzeugung und ‐beeinflussung erweitert, zu denen beispielsweise das FM‐System von Ya‐
maha zählte. Alle Neuanschaffungen waren über MIDI miteinander koppelbar und somit frei
für die Informationskoordination. Signifikant für die Digitalisierung war York Höller, der ab
1990 Beauftragter des Studios wurde und zuvor bereits am IRCAM [→] Erfahrungen im Um‐
gang mit digitalen Systemen gesammelt hatte. Der WDR ordnete in den 1990er Jahren die
Aussonderung vieler Geräte an, was vom langjährigen Tontechniker Volker Müller verhindert
wurde. Seit der Schließung des Studios im Mai 2001 befinden sich sämtliche Geräte unter
der Obhut Müllers in einer Lagerhalle in Köln‐Ossendorf.
Quellen
Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart
2004
Enkel, Fritz und Heinz Schütz, Die Herstellung von Hörspielgeräuschen, in: Technische Hausmitteilun‐
gen des NWDR, Hamburg 1954.
Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für
Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988
Nauck, Giesela: Musik im Raum – Raum in der Musik. Ein Beitrag zur Geschichte der Seriellen Musik.
In: Beihefte zum Archiv für Musikwissenschaft. Band XXXVIII, Stuttgart 1997. S. 189‐192.
Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in:
Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668
[12. Januar 2013]
Stockhausen, Karlheinz, Texte zur Musik Band 8, Kürten 1998
Ungeheuer, Elena (Hg.). Handbuch der Musik im 20.Jahrhundert Band 5, Elektroakustische Musik,
Laaber 2002
Nadine Gehrmann
55
Iannis Xenakis (alternativ Jannis Xenakis, Yannis Xenakis) I. Biografie Komponist und Architekt (*29. Mai 1922 in Brăila, Rumänien; † 4. Februar 2001 in Paris). In
den Wirren des Krieges ging seine Geburtsurkunde verloren, weshalb das genaue Geburtsda‐
tum nicht abgesichert ist. Iannis Xenakis überschritt die Grenzen der traditionellen Musik
und gab mit seinen auf mathematischen Verfahren basierenden Kompositionen der Avant‐
garde nach dem 2. Weltkrieg neue Impulse. In seiner Musik ist die Verknüpfung von Tönen,
Physik, Architektur und vor allem der Mathematik ausschlaggebend. Ein oft beschriebener
Effekt seiner Musik ist die Fähigkeit, eine archaisch rituelle Stimmung zu erzeugen (etwa in
den Stücken Orestie, Medea und Persepolis).
Abb. 1: Iannis Xenakis in seinem Atelier in Paris (circa 1970)
Iannis Xenakis wurde als Sohn des Firmendirektors Clearchos Xenakis und der Pianistin Pho‐
tini Pavlou in Rumänien geboren. Er war das Älteste von drei Geschwistern und verlor seine
Mutter in seinem fünften Lebensjahr. Die Kinder wurden daraufhin von französischen, deut‐
schen und englischen Kindermädchen aufgezogen. In seiner Kindheit hörte Xenakis sehr häu‐
fig Folklore und Zigeunermusik in den Straßen Brăilas. Im Jahr 1932 zog er nach Griechen‐
land, um ein Internat zu besuchen und begann, sich für Mathematik und Musik zu interessie‐
ren. Im Alter von 16 Jahren begab er sich 1938 nach Athen, um sich am dortigen polytechni‐
schen Institut einzuschreiben. Gleichzeitig nahm er Musik‐, Harmonielehre‐ und Kompositi‐
onsunterricht bei Aristote Koundourov. Im zweiten Weltkrieg war Xenakis in der griechi‐
schen Widerstandsbewegung aktiv und verlor bei Kämpfen ein Auge. Im Jahr 1947 beendete
er ein zum Bauingenieur und floh im Zuge des nach dem Ende des Zweiten Weltkriegs in
Griechenland ausgebrochenen Bürgerkriegs nach Frankreich, wo er sich niederließ und 1965
die französische Staatsbürgerschaft annahm. Von 1948 bis 1960 wurde Xenakis Assistent des
Architekten Le Corbusier und entwarf für die Brüsseler Weltausstellung 1958 den Philips Pa‐
villon, für dessen Gestaltung er sich auch auf sein Orchesterwerk Metastaseis von 1954 be‐
zog. Darüber hinaus gestaltete er u.a. die innere Struktur des Klosters La Tourette.
56
Seine musikalische Ausbildung vervollständigte er ab 1949 mit Kompositionsstudien bei
Darius Milhaud, Arthur Honegger und Olivier Messiaen. Daneben wurde Hermann Scherchen
ein wichtiger Förderer von Xenakis Arbeit, der bevorzugt für Orchester komponierte (mehr
als drei Dutzend Werke), aber auch zehn rein elektronische Stücke sowie weitere annähernd
einhundert Kompositionen für Chor, Kammerbesetzungen und solistische Instrumente reali‐
sierte. Im Jahr 1960 gründete er zunächst eine freie Forschungsgruppe für Mathematik und
Musik (MYAM), die er vier Jahre später zu einer eigenen Institution ausbaute [→ CEMAMu].
Von 1967 bis 1972 unterrichtete er an der University of Indiana in Bloomington, anschlie‐
ßend bis 1989 an der Pariser Sorbinne, und hielt viele weltweit Vorträge, u.a. auf Einladung
von Friedrich Hommel 1990 bei den Internationalen Ferienkursen für Neue Musik in Darm‐
stadt. Iannis Xenakis erhielt zahlreiche Auszeichnungen und Preise. So wurde er zum Mit‐
glied der British Computer Arts Society 1972 nominiert und erhielt 1979 den Beethovenpreis
der Stadt Bonn. In seinen letzten Lebensjahren war er von einer schweren Alzheimer‐
Erkrankung gezeichnet und konnte immer weniger komponieren. Vier Jahre vor seinem Tod
wurde sein letztes Werk O‐Mega 1997 uraufgeführt. Um seiner Musik etwas näher zu kom‐
men, muss man seine teils radikalen Ansichten besser verstehen. So sah er die „Musik [als]
keine Sprache. Jedes Musikstück ist eine Art Felsblock in einer komplexen Form mit
Schrammen und Mustern, die darauf oder darein geritzt sind und die Menschen auf tausend
verschiedene Weisen entziffern können.“
Abb. 2: Iannis Xenakis in seinem Atelier in Paris (circa 1987)
57
Quellen
Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von
Architektur und Mathematik, Bern 1996
Di Scipio, Augustino, Compositional Models in Xenakis’s Electroacoustic Music, in: Perspectives of
New Music 36 (1998) Nr. 2
Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001
http://www.iannis‐xenakis.org
Richard, Albert: Iannis Xenakis et la musique stochastique, 1963, Paris
Saxer, Marion: Die Mathematisierbarkeit der (Klang‐)Welt. Überlegungen zur Verwendung der Ma‐
thematik im Schaffen von Iannis Xenakis, in: Musikwissenschaft zwischen Kunst, Ästhetik und Ex‐
periment (= Festschrift für Helga de la Motte), Würzburg 1998
Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007
Varga, Bálint András, Gespräche mit Iannis Xenakis, Zürich 1995
Abb. 1: Foto von Michèle Daniel, veröffentlicht auf www.iannis‐xenakis.org
Abb. 2: Foto veröffentlicht auf www.iannis‐xenakis.org
Christiane Licht
58
II. Stochastische Synthese Iannis Xenakis führte 1956 den Begriff der Stochastischen Musik in Bezug auf seine Komposi‐
tionen ein, um eine neue Art der seriellen Klangsynthese zu beschreiben. Grundlage dieser
Kompositionstechnik ist die Verknüpfung eines mathematisch‐naturwissenschaftlichen An‐
satzes mit der bestehenden elektroakustischen Musik. Ziel war die Kontrolle über Massener‐
eignisse, wie z.B. Tonwolken, mithilfe von mathematisch‐physikalischen Formeln und Funk‐
tionen, um diese Klänge einer bestimmten Grundgedanken unterordnen zu können. Xenakis
bezeichnete die Stochastik in diesem Zusammenhang als „Instrument“, mit welchem man
die Klangwelt auszudrücken vermag. Weiterhin beschrieb er seine neue Methode der Klang‐
synthese als Lösung für die „Sackgasse der seriellen Musik“, in der sich seine Kollegen
(Stockhausen →, Boulez → und andere) verfahren hätten.
Theoretische Grundlage der Stochastischen Musik sind die drei Grundparameter Dauer, Wol‐
ke und Geschwindigkeit.
Die Dauer bezeichnet die bestimmte Länge eines Segments, das wie folgt zustande kommt:
Zeit wird als Gerade aufgefasst bzw. als ein Zeitstrahl vom Nullpunkt ausgehend, auf wel‐
chem in zufälligen Abständen Punkte gesetzt werden, die bestimmte Zwischenstrecken mar‐
kieren und die zuvor genannten Segmente bilden. Hieraus ergibt sich die Frage, wie viele
Segmente mit der Länge x entstehen. Mit dieser Fragestellung lässt sich nun die Wahrschein‐
lichkeit festlegen, mit der ein Segment der Dauer x auftritt, wenn die Dichte der Punkte δ (in
Töne/sec) linear ist: P(x)=δ*e‐δx*de
Wolken sind zufällig verteilte Tonpunkte, die durch die zwei Faktoren bestimmt werden, zum
einen anhand der Dichte der Punkte μ (in Töne/sec), sowie zum anderen durch dieIntervalle
zwischen den Punkten (in Halbtönen). Um dies in einer Formel zusammen zu fassen, benutz‐
te Xenakis die POISSON‐Verteilung, mit der zufällig bestimmten Dichte μ, der Wahrschein‐
lichkeit P(k), k als Anzahl der Ereignisse und μ0 als durchschnittlicher Dichte: P(k)=μ0t/k!*e‐μ0.
Legt man nun μ als 0,5 Ereignisse (Töne)/sec fest, wird es sehr unwahrscheinlich sein, dass in
einer Sekunde 20 oder mehr Ereignisse geschehen. Aufgrund dieser Voraussetzungen wer‐
den dann bestimmte Stellen auffallen, da diese sich aufgrund ihrer höheren Tondichte vom
Rest abheben. Die Tonhöhen der einzelnen Tonpunkte in der Wolke werden durch die Ver‐
kettung ihrer Intervalle bestimmt, wobei die Zufallsvariablen eine Präferenz für Werte ha‐
ben, die gegen 0 laufen.
Als Glissando‐Geschwindigkeit definiert Xenakis die Steigungs‐ bzw. Fallgeschwindigkeit der
Tonhöhe, bezogen auf einen Ausgangspunkt P {f/t} zur Zeit t mit der Frequenz f. Hierfür
werden dann Ober‐ und Untergrenzen festgelegt, innerhalb derer die Geschwindigkeit um
einen Durchschnittswert zufällig bestimmt wird.
Um den Ablauf einer solchen Synthese zu systematisieren, erstellte Xenakis ein formalisier‐
tes Modell des Kompositionsprozesses und unterteilte den Vorgang in acht Phasen, die je‐
doch auch teilweise abweichen können:
59
1. Conceptions initiales – dies ist der grundlegende Gedanke der Komposition
2. Définition d’êtres sonores – beschreibt die klangliche Grundlage und das Ausgangsma‐
terial
3. Défintion des transformations – legt den großen Rahmen fest, in wie fern die klangli‐
chen Elemente transformiert und modifiziert werden sollen (Makrokomposition)
4. Microcomposition – hier werden die genauen mathematischen Vorgänge definiert und
verfeinert (Mikrokomposition)
5. Programmation séquentielle – sequentielle Programmierung des Konstrukts
6. Effectuation des calculs – die Formeln und Funktionen werden berechnet
7. Résultat final symbolique – die kalkulierten Ergebnisse werden in Musiknotation über‐
tragen
8. Incanation sonore – die Musiknotation wird nun klanglich realisiert
Xenakis experimentierte anfangs viel mit dieser Methode und benutzte die Ergebnisse zum
ersten Mal in seinem Multimediawerk Polytope de Cluny (1972), welches er in den römi‐
schen Bädern von Cluny in Paris aufführte. Dort kombinierte er die Musik, die siebenkanalig
über 12 Lautsprecher wiedergegeben wurde, mit 600 Blitzlichtern und drei Lasern. Diese La‐
ser konnten wiederum mit 400 programmierbaren Spiegeln, die er im gesamten antiken Bad
installiert hatte, umgelenkt werden. Von der 2. Bis 6. Minute der Komposition, nach einer
kurzen Einführung, hebt sich die angewendete stochastische Synthese hervor.
Ein anderes wichtiges Werk im Schaffen von Xenakis ist das multimediale Stück La Légende
d’Eer (1977), in dem ebenfalls ein Zusammenspiel von Licht und Musik maßgeblich ist. Er be‐
nutzte hierbei weniger schon vorhandenes Soundmaterial, sondern konzentrierte sich stär‐
ker auf die synthetische Klanggenese. Das Besondere ist, dass der Komponist eine neue Me‐
thode anwendet: die dynamische stochastische Synthese. Bei dieser Art der Synthese variiert
die Wellenform bei jeder einzelnen Wiederholung. Es werden Punkte festgelegt die eine
Phrase in bestimmte Zeitsegmente unterteilt, in denen diese Wellenform wiederholt wird.
Die Richtung und Stärke der Wellenveränderung wird mithilfe einer Wahrscheinlichkeitsver‐
teilung bestimmt, wobei so viele zufällige Formen entstehen, wie Punkte gesetzt wurden.
Quellen
Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von
Architektur und Musik, Bern et al. 1996
Di Scipio, Augustino, Compositional Models in Xenakis’s Electroacoustic Music, in: Perspectives of
New Music 36 (1998) Nr. 2
Luque, Sergio: The Stochastic Synthesis of Iannis Xenakis, in: Leonardo Music Journal (2009) Nr. 19
Phillip Ahlert
60
III. Centre de Mathématique et Automatique Musicales (CEMAMu) Das CEMAMu war ein Institut für angewandte musikalische Informatik und Mathematik mit
Sitz in Paris. Es wurde 1966 als EMAMu (Equipe de Mathématique et Automatique Musica‐
les) von Marc Barbut, François Genuys und Georges Guilbaud unter Direktion von Iannis Xe‐
nakis gegründet und verfolgte seit seiner Gründung das Ziel, Geistes‐und Naturwissenschaf‐
ten in interdisziplinärer Forschung zusammenzuführen und seine Ergebnisse einer breiteren
Öffentlichkeit zugänglich zu machen.
1. Gründungsgeschichte
Für das 1954 komponierte Stück Metastaseis verwendete Xenakis eine graphische Notation,
musste diese jedoch auf gewöhnliches, liniertes Notenpapier übertragen, um das Werk von
einem Orchester spielbar zu machen. Seitdem suchte Xenakis nach neuen Möglichkeiten, die
graphische Notation seiner Kompositionen ohne Transkription in Klang umzusetzen und ei‐
nen universelleren Weg zum Ausdruck und zur Interpretation musikalischer Gedanken zu
finden. 1960 gründete Xenakis zusammen mit Michel Philippot, Abraham Moles and Alain de
Chambure das MYAM, eine freie Forschungsgruppe für Musik und Mathematik. Zwei Jahre
später entstanden neue Kompositionen von Xenakis bei der Firma IBM mithilfe von 7090‐
Computern, für die eine neue Musikproduktionssoftware programmiert wurde. Für Xenakis
war es unabdingbar, die Natur des Klanges mit neuesten Technologien zu erforschen. Daher
gründete er 1966 seine eigene, offiziele Forschungsgruppe, das EMAMu, welches in das
Centre de Mathématiques sociales der EPHE (École pratique des hautes études) eingeglie‐
dert wurde. Dessen Arbeit beinhaltete neben Vermittlung neuester wissenschaftlicher Er‐
kenntnisse und ihrer musikalischen Umsetzungen in Form von theoretischen Seminaren be‐
sonders die Grundlagenforschung im Bereich der musikalischen Komposition unter Berück‐
sichtigung der Akustik, Mathematik und Informatik. Hierbei wurde besonders die Entwick‐
lung eines Gerätes bzw. Musikinstruments für eine natürliche und direkte Übertragung zwi‐
schen Klang und Gedanke in den Vordergrund gestellt. Die Arbeit der Forschungsgruppe er‐
regte in den folgenden Jahren immer mehr Aufmerksamkeit, so wurde das EMAMu z. B.
1969 in das Institut für Kernphysik des Collège de France aufgenommen.
Die Organisation wurde 1972 zu einer eigenständigen Institution und erhielt die Bezeichnung
CEMAMu, als ein Institut für angewandte musikalische Informatik und Mathematik. Gleich‐
zeitig war das Zentrum mit neuen Computern und Zusatzgeräten ausgestattet. Durch diese
neuen Möglichkeiten erweiterte sich der Aufgabenbereich des Instituts: Alte Erkenntnisse
der Forschungen mussten nun mit neuen Methoden und besseren technischen Vorausset‐
zungen gesichert und verifiziert werden. Einzelne Ergebnisse der frühen Forschung des
EMAMu bzw. CEMAMu und die Rezeptionsgeschichte der Einrichtung sind in der aktuellen
Forschung nur äußerst grob und unvollständig erfasst.
2. UPIC (Unité Polyagogique Informatique du CEMAMu)
Neben seinen Lehr‐und Forschungszielen entwickelte das CEMAMu unter Anleitung von Xe‐
nakis jene Geräte und Programme zur Transformation musikalischer Ideen in Klang, die UPIC
getauft wurden, stets weiter. Dabei war Primärziel, ihre Handhabung möglichst einfach und
universell zu gestalten, um den kompositorischen Schaffensprozess nicht zu behindern, son‐
61
dern kreativ auszuweiten. Die musikalische Kreativität eines Menschen wäre somit von tradi‐
tioneller Ausbildung entkoppelt. Diese Zielsetzungen führten zur Produktion des ersten Pro‐
totyps des UPIC bis Mitte der 1970er Jahre. Das System aus vielen Computern und anderen
Geräten sollte schließlich dem Nutzer die Möglichkeit bieten, ohne technisches Fachwissen
musikalische Gedanken direkt umzusetzen. 1977 wurde das UPIC schließlich fertiggestellt:
eine Computermusik‐Workstation, in deren Zentrum ein Zeichentisch als eine Art Touch‐
Tablet steht, auf welchem musikalische Parameter und ganze Partituren innerhalb einer Zeit‐
Tonhöhe‐Achse gezeichnet werden konnten, die durch Computerprogramme und verschie‐
dene Klangwandler unverzüglich hörbar gemacht wurden. Der Zeichentisch maß 60*75cm
und war von Millimeterlinien zur Orientierung durchzogen. Geschrieben wurde mithilfe ei‐
nes Stifts mit elektromagnetischen Kontakten, dazu kamen einige Befehlsfunktionen und ei‐
ne Auswahl an Wellenformen. Die Architektur einer Komposition konnte somit als Ganzes
entworfen werden. Eine weitere Besonderheit des UPIC lag in der Möglichkeit, den kleinsten
Teil eines Klanges, ein elementares Klangquant, direkt zu kontrollieren und somit nicht nur
die Großform einer Komposition, sondern auch den Mikrobereich eines Klanges zu gestalten.
Durch dieses Syntheseverfahren wurde nicht die Wellenform des errechneten Klanges, son‐
dern das Endergebnis besimmt. Alle Informationen der erstellten Graphik konnten per Inter‐
face an 16‐bit Minicomputer und mehrere Klangumwandler gesendet werden. Das UPIC war
nicht nur eines der bahnbrechensten Ergebnisse des CEMAMu, sondern wurde auch für die
Erstellung und Interpretation einiger Kompositionen praktisch verwendet. Erstmals utilisier‐
te Xenakis das UPIC im Jahr 1978 für seine Komposition Mycenes‐Alpha und auch andere
Komponisten, z. B. Jean‐Claude Eloy und Wilfried Jentzsch, arbeiteten mit dem System. Bis
Mitte der 1980er Jahre wurde die damals dritte Generation des UPIC bereits serienmäßig
hergestellt und kommerziell vermarktet.
Abb: Partiturskizze von Mycenes‐Alpha
62
3. Entwicklung der Institution bis zur Gegenwart
Aus dem CEMAMu entsprangen 1985 mit Unterstützung des französischen Ministeriums für
Kultur und Kommunikation UPIC‐Workshops, die sogenannten Les Ateliers UPIC. Der Um‐
gang mit dem namensgebenden System wurde dabei in Sommerferienkursen gelehrt und
dadurch einer interessierten Öffentlichkeit zugänglich, was einer der urprünglichen Intentio‐
nen des EMAMu entsprach. Seit 2000 heißt die Einrichtung CCMIX (Centre de Création Musi‐
cale Iannis Xenakis) und wird seit 2003 von der DRAC, eine Regionaldirektion für Kultur, sub‐
ventioniert. Die Aufgaben und Ziele der Forschungsgruppe blieben seit 1966 weitgehend un‐
verändert, es wird seither jedoch zusätzlich auf internationale Zusammenarbeit innerhalb
der Forschung und Vermittlung gesetzt.
Quellen
Harley, James, The Electroacoustic Music of Iannis Xenakis, in: Computer Music Journal 26 [In Memo‐
riam Iannis Xenakis] 2002
Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001
http://www.iannis‐xenakis.org/fxe/actus/ccmix.html
http://www.iannis‐xenakis.org/fxe/bio/chrono.html
Lohner, Henning: Das UPIC: eine Erfindung von Iannis Xenakis, in: Musikkonzepte 54/55, Iannis Xena‐
kis, München 1987, S. 71–82.
Supper, Martin, Art. Computermusik, in: MGG2 Sachteil 2, Kassel et al. 1995
Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007
Abb. http://www.iannis‐xenakis.org/partitions/mycenes_alphaesquisse(sketch)p.3.jpg [10. April
2013]
Günter Hagen