9FA Abschlussbericht 2010 Abschlussbericht 2010

60
Nachhaltige Forschung in Wachstumsbereichen Band I 2009/ 2010 Ergebnisse des Projektes Forschungsassistenz an der Beuth Hochschule für Technik Berlin

Transcript of 9FA Abschlussbericht 2010 Abschlussbericht 2010

Page 1: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Nachhaltige Forschung in

Wachstumsbereichen Band I

20

09

/2

01

0

Ergebnisse des Projektes Forschungsassistenzan der Beuth Hochschule für Technik Berlin

Page 2: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Impressum

Nachhaltige Forschung in Wachstumsbereichen

Band I

Herausgegeben von

Prof. Dr. Gudrun Görlitz

Beuth Hochschule für Technik Berlin

Luxemburger Str. 10

13353 Berlin

www.beuth-hochschule.de

Redaktionelle Bearbeitung

Nina Gräbner

Satz, Layout und Titelgestaltung

Markus Weiß | www.typogo.de

Druck

© 2011 Logos Verlag Berlin GmbH

Gubener Straße 47, 10243 Berlin

ISBN 978-3-8325-2749-5

Page 3: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Nachhaltige Forschung

in Wachstumsbereichen

Band I

Ergebnisse des Projektes Forschungsassistenz an der Beuth Hochschule für Technik Berlin

Page 4: 9FA Abschlussbericht 2010 Abschlussbericht 2010
Page 5: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Die Beuth Hochschule für Technik Berlin leistet einen aner-

kannten Beitrag zur Reduzierung des Fachkräftemangels an

Ingenieurinnen und Ingenieuren. Eine praxisbezogene Lehre

in akkreditierten Studiengängen sichert gut auf den Arbeits-

markt vorbereitete Absolventinnen und Absolventen. Für

Hochschulabsolventinnen und -absolventen, denen es auf-

grund mangelnder Praxiserfahrung noch nicht gelungen ist,

sich fest im regionalen Arbeitsmarkt zu etablieren, bietet das

Projekt Forschungsassistenz die Möglichkeit zur Qualifika-

tion. Regionale Unternehmen erhalten gleichzeitig die

Chance, innovative F&E-Projekte gemeinsam mit der Beuth

Hochschule zu bearbeiten.

Im vorliegenden Bericht präsentieren die jungen Wissen-

schaftlerinnen und Wissenschaftler ihre Ergebnisse der 18-

monatigen Forschungstätigkeiten an der Beuth Hochschule.

Die Themen kommen aus den Berliner Wachstumsbereichen

und beschäftigen sich zum Beispiel mit der Analyse von Trink-

wasser, der berührungslosen Erfassung von archäologischen

Objekten oder der Weiterentwicklung eines Sprachsynthese-

systems.

Das Qualifizierungsprojekt Forschungsassistenz ist mittler-

weile in die sechste Runde gegangen und kann mühelos an

die Dynamik der vergangenen Jahre anknüpfen. Die Zusam-

menarbeit mit den kooperierenden Unternehmen ist inten -

siviert worden: Jede Forschungsassistentin und jeder

Forschungsassistent absolviert während seiner Arbeit an der

Beuth Hochschule mindestens ein Praktikum im Unterneh-

men. Davon profitieren alle Seiten und sichern eine passge-

naue Qualifikation für eine erfolgreiche Übernahme der

Forschungsassistentin, des Forschungsassistenten. Zum Bei-

spiel ist Josephine Reiss, deren wissenschaftlicher Beitrag in

der vorliegenden Publikation veröffentlicht ist, im Anschluss

an ihr Projekt Managerin beim Kooperationspartner, dem

Institut für Produktqualität, geworden. Die Forschungsassis-

tentinnen und -assistenten aus der Förderrunde Forschungs-

assistenz V haben die Beuth Hochschule nach dem erfolg -

reichen Projektabschluss mittlerweile mehrheitlich verlassen

und arbeiten nun fest bei den Unternehmen.

Die gestaffelte Einstellung und die damit verbundenen ver-

setzten Laufzeiten der Forschungsprojekte haben sich als

sehr gewinnbringend erwiesen, da jüngere von erfahreneren

Forschungsassistentinnen und -assistenten lernen können.

Ihnen allen und natürlich auch den betreuenden Professorin-

nen und Professoren sowie den Mitarbeiterinnen und Mitar-

beitern der Kooperationspartner sei an dieser Stelle für ihr

Engagement gedankt. Ein besonderer Dank geht wiederum an

die Berliner Senatsverwaltung für Wirtschaft, Technologie und

Frauen für die zuverlässige Unterstützung und gute Zusam-

menarbeit. Das Projekt Forschungsassistenz wird bis 2013

von der Berliner Senatsverwaltung für Wirtschaft, Technologie

und Frauen und dem Europäischen Sozialfonds gefördert. Die

Beuth Hochschule erweist sich damit als leistungsstarker

Partner der Wirtschaft und ermöglicht zahlreiche neue Ko -

operationsprojekte.

Vorwort

5

Forschung in Wachstumsbereichen mit Forschungsassistenz

Prof. Dr.-Ing.

Reinhard Thümer

Präsident

Prof. Dr. Gudrun Görlitz

Vizepräsidentin für Forschung

und Entwicklung

Page 6: 9FA Abschlussbericht 2010 Abschlussbericht 2010
Page 7: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Inhaltsverzeichnis

Fachbereich II Mathematik - Physik - Chemie

Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

Dr. Norbert Gorenflo, Prof. Dr. Martin Ochmann

Fachbereich III Bauingenieur- und Geoinformationswesen

Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie

und Denkmalpflege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

Martin Floth, Prof. Dipl.-Ing. Michael Breuer

Fachbereich IV Architektur und Gebäudetechnik

Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien für den Mittelstand“ in Deutschland . . . . . . . . . . 19

Dr. Charlotte Hagner, Prof. Kai Kummert

Fachbereich V Life Sciences and Technology

Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen

Krankheitserregern in Trink- und Brauchwässern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Dipl.-Ing (FH) Josephine Reiss, Prof. Dr. Herbert Weber

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Dipl.-Ing. (FH) Shireen Weise, Prof. Dr.-Ing. Roza Maria Kamp

Fachbereich VI Informatik und Medien

Weiterentwicklung eines Sprachsynthesesystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Dipl.-Ing. Andreas Hilbert, Prof. Dr. Hansjörg Mixdorff

Nutzerdaten und Nutzerprofile in Lernraumsystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

Dipl.-Inf. FH Benjamin Wolf, Prof. Dr. Agathe Merceron

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

Bionical Morphological Computation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

Marcus Siewert M.Eng., Prof. Dr.-Ing. Hans-Dieter Kleinschrodt

Kavitierende Strömung in Diesel-Einspritzsystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Matthias Voß, M.Eng., Prof. Dr.-Ing. Peter Bartsch

Arbeitsgebiete der Forschungsassistent/innen als Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

Inhaltsverzeichnis

7

Page 8: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)

8

1. Einleitung

Zum Zwecke der vorausschauenden Planung und Einrich-

tung lärmoptimierter Arbeitsräume im Rahmen einer Simula-

tion ist es erforderlich, den Raum mitsamt seiner Einrichtung

sowie interessierenden Schallquellen zu modellieren und

das sich ausbildende Schallfeld an vorgegebenen Stellen zu

berechnen. Das Problem der Berechnung ist hierbei noch

immer nicht befriedigend gelöst.

Das gängige Verfahren zur kommerziellen Berechnung von

Schallfeldern ist das Ray-Tracing-Verfahren, welches im Rah-

men der Computergrafik auch zur Berechnung realistischer

Licht- und Schatteneffekte benutzt wird. Dieses Verfahren

beruht auf der Annahme der Ausbreitung der betrachteten

Wellen in Form gerader Strahlen. Zur Berechnung des Wel-

lenfelds in einem vorgegebenen Raumpunkt IP werden von

jeder der vorhandenen Strahlenquellen Strahlen in alle mög-

liche Richtungen betrachtet und deren Verlauf verfolgt,

wobei sämtliche Reflexionen an den vorhandenen Oberflä-

chen berücksichtigt werden. Die interessierende Größe

(z.B. Intensität oder Schalldruckpegel) im Punkt IP ergibt

sich nun einfach aus der Stärke und Anzahl der den Punkt IP

erreichenden Strahlen. Abbildung 1 zeigt die Funktionsweise

des Verfahrens am Beispiel der Berechnung eines Schall-

felds im Freien. Im Immissionspunkt IP wird z.B. der Schall-

druckpegel berechnet.

Ausgefeilte Ray-Tracing-Methoden haben sich für praktische

raumakustische Berechnungen im Rahmen einfacherer Geo-

metrien bewährt, wie sie z.B. in Auditorien oder Konzerthal-

len vorliegen. Bei der Berechnung von Schallfeldern in

Arbeitsräumen liefert Ray-Tracing aber zu ungenaue Ergeb-

nisse, da die zu niedrigeren Frequenzen gehörenden Anteile

des Wellenfelds wegen der in einem solchen Raum auftre-

tenden Beugungseffekte durch Ray-Tracing-Verfahren nicht

adäquat berücksichtigt werden können.

Daher wurden erste Versuche zur Behandlung raumakusti-

scher Probleme mit Hilfe eines direkten BEM-Verfahrens

(BEM – Boundary Element Method) unternommen. Als Grund-

lage diente die schon früher von H. Brick und dem 2. Autor

in der Programmierumgebung MATLAB entwickelte BEM-

Toolbox BEMLAB [Bri 03], welche stückweise konstante An-

satzfunktionen benutzt. Im Rahmen der in der vorliegenden

Arbeit vorgestellten Untersuchungen wurde BEMLAB um ein

ebenfalls in MATLAB programmiertes vorgeschaltetes Fron-

tend erweitert, welches die interaktive Eingabe eines einge-

richteten Raumes sowie die automatische Triangulierung

der Raumflächen und die Definition von (Impedanz-)Randbe-

dingungen ermöglicht.

Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)Dr. Norbert Gorenflo, Prof. Dr. Martin OchmannKooperationspartner: Acouplan GmbH

Es werden akustische Innenraumprobleme mit im Rauminneren vorgegebenen Schallquellen betrachtet. Für komplizier-

tere Räume wie zum Beispiel eingerichtete Arbeitsräume sind die sonst für raumakustische Berechnungen erfolgreich an-

gewandten Ray-Tracing-Methoden aufgrund der mangelhaften Berücksichtigung von Beugungseffekten zu ungenau.

Daher wird ein BEM-Verfahren zur Lösung der Helmholtzgleichung unter geeigneten Impedanzrandbedingungen unter-

sucht. Numerische Resultate werden vorgestellt.

We consider interior acoustic problems with prescribed interior sources. For more complicated geometries, arising e.g.

from furnished working rooms, ray-tracing methods, which are usually employed for practical computations, give no accu-

rate results. This is because these methods cannot model diffraction effects correctly. Therefore we treat the interior prob-

lem by a BEM method. Numerical results for various impedance boundary conditions are presented.

Abb. 1: Veranschaulichung des Ray-Tracing-Verfahrens an Hand von Reflexionen an zwei Häusern.⋅⋅⋅⋅⋅⋅ Direkte Verbindung − − Eine Reflexion− ⋅ − ⋅ Zwei Reflexionen.

Page 9: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Fachbereich II Mathematik - Physik - Chemie

9

Kooperationspartner für das hier vorgestellte Projekt ist das

Akustikbüro „Acouplan GmbH“. Von Seiten Acouplans wur-

den praktische Aspekte der Berechnung von Schallfeldern in

Arbeitsräumen erläutert und insbesondere auch beispielhaft

erklärt, warum sich dieses Problem durch bereits existie-

rende kommerzielle Programme zur Schallfeldberechnung

nicht befriedigend behandeln lässt.

Im folgenden Abschnitt wird der mathematisch-physikali-

sche Rahmen erläutert, in dem die hier betrachteten Innen-

raumprobleme behandelt werden und in Abschnitt 3 werden

exemplarisch numerische Berechnungen zur schalldämpfen-

den Wirkung einer Mauer in einem Modellraum präsentiert.

Abschnitt 4 enthält eine Übersicht über während der Bear-

beitung des hier vorgestellten Projekts gehaltene Fachvor-

träge, an denen die Autoren beteiligt waren.

2. Mathematische und physikalische Grundlagen

Die verwendete BEM-Toolbox BEMLAB gestattet die Lösung

von Innenraumproblemen für die homogene Helmholtzglei-

chung unter inhomogenen Dirichlet-, Neumann- oder Impe-

danzrandbedingungen. Die Behandlung von Schallquellen in

einem Raum Ω wird wie folgt auf die Lösung der homogenen

Helmholtzgleichung zurückgeführt, wobei o.B.d.A. nur eine

Quelle betrachtet wird.

Zu lösen ist das Randwertproblem

(1)

(2)

Hierbei bezeichnet δ die Delta-„Funktion“; q ist die Quell-

stärke im Punkt y ∈ Ω und p ist der gesuchte Schalldruck.

Die sogenannte Wellenzahl k ist proportional zur Frequenz νder vom Punkt y ausgehenden Welle: k=2πν/c; hierbei ist c

die Schallgeschwindigkeit. Da die Singularitätenfunktion

(x,y) ⇀ 1/(4π) e-ik|x-y|/|x-y|, i:= √( −1), Lösung von (1) mit q =

−1 ist, gilt für die Lösung p von (1), (2) nun p(x) = p*(x) −qg(x,y), wobei

und p* Lösung eines Randwertproblems für die homogene

Helmholtzgleichung ist:

Für die Funktion g wurde nicht die komplexwertige Singula-

ritätenfunktion selbst, sondern deren Realteil genommen,

da dies für die Rechnungen ökonomischer ist.

In den durchgeführten Rechnungen wurde die Schallge-

schwindigkeit c mit c=343 m/s und die Dichte ρ der Luft mit

ρ =1.21 kg/m3 berücksichtigt. Die Zeitabhängigkeit ist durch

den Faktor eickt gegeben (nicht durch e–ickt ), d.h. für die Lö-

sung p von (1), (2) ist der zeitliche Druckverlauf gegeben

durch eickt p(x). Schalldruckpegel Lp und Schallleistungspe-

gel LW wurden wie folgt berechnet:

W ist hierbei die von der Quelle abgestrahlte Schallleistung.

Die Raumflächen wurden als lokal reagierend angenommen,

das bedeutet, dass die Wandimpedanzen Z nicht vom Ein-

fallswinkel einer auftreffenden Welle abhängen und so die

Randbedingung (2) überhaupt sinnvoll ist. Um vorgegebene

Absorptionskoeffizienten für die Raumflächen berücksichti-

gen zu können, wurde die Formel von Paris [Kut 09, (2.42)]

benutzt, welche von folgendem Zusammenhang zwischen

spezifischer Impedanz ζ = Z/(ρc) = |ζ|eiµ und mittlerem Ab-

sorptionskoeffizienten α ausgeht:

(3)

Da ζ durch α gemäß (3) nicht eindeutig bestimmt ist (α ist

reell und ζ komplex), müssen im konkreten Anwendungsfall

neben den Absorptionskoeffizienten α noch weitere Eigen-

schaften der Raumflächen bekannt sein, um wohldefinierte

Koeffizientenfunktionen a und b in (2) zu erhalten.

3. BEM-Berechnungen für einen Modellraum

Im Folgenden wird der in Abbildung 2 dargestellte quader-

förmige Modellraum mit einer eingezogenen Mauer betrach-

tet. Der Raum hat die Abmessungen 4m, 3m und 2m und

enthält im Punkt y=(0.925,1.5,1)T eine Punktquelle der Fre-

quenz 500 Hz. Für die Quellstärke q in (1) wurde q=1 ge-

wählt, dies entspricht einem Schallleistungspegel der Quelle

von LW � 79.82 dB. Der Schalldruck wurde jeweils in Feld-

punkten auf der Strecke 0m < x1 < 4m, x2=1.5m, x3=1 m be-

rechnet. Der Abstand der Feldpunkte beträgt 0.1 m, der erste

Feldpunkt liegt bei x1=0.1 m und der letzte bei x1=3.9 m.

Für alle hier präsentierten BEM-Berechnungen wurden drei-

eckige Randelemente verwendet. Als Knotenpunktabstand

wurde 0.1 m gewählt. Damit erhält man etwa 12 000 Rand-

elemente, siehe Abbildung 3.

Page 10: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Zur Validierung der BEM-Berechnung wurde der Modellraum

zunächst ohne die in Abbildung 2 gezeigte Mauer betrach-

tet. Alle Raumwände wurden als schallhart angenommen,

das entspricht in (2) der homogenen Neumann-Randbedin-

gung a≡0 und b≡1. In diesem Fall lässt sich der Schalldruck

im Quader als dreidimensionale Fourierreihe (Entwicklung

nach Eigenschwingungen) analytisch darstellen. Abbildung

4 zeigt den Vergleich dieser exakten Lösung mit der BEM-Lö-

sung.

Abbildung 5 zeigt Schalldruckpegel für die komplette Konfi-

guration in Abbildung 2, d.h. inklusive der eingezogenen

Mauer. Hierbei wurden die spezifischen Impedanzen ζM, ζR,

ζB und ζS für die einzelnen Raumflächen mit den gemäß (3)

zugehörigen Absorptionskoeffizienten αM, αR, αB und αSwie folgt gewählt:

Für die gesamte Mauerfläche:

ζM = 32.5 bzw. ζM = 7.14 (αM = 0.2 bzw. αM = 0.6) ,

für die Raumrückwand x2=3m:

ζR = 71.5 bzw. ζR = 7.14 (αR = 0.1 bzw. αR = 0.6) ,

für den Raumboden x3=0m: ζB = 32.5 (αB = 0.2) ,

für alle sonstigen Flächen: ζS = 71.5 (αS = 0.1) .

Jeder dieser Werte für die spezifischen Impedanzen entspricht

gerade der größten reellen Lösung ζ von (3) für den zugehö-

rigen Absorptionskoeffizienten. Die unterschiedlich starken

Dämpfungen hinter der Mauer sind gut erkennbar.

Zur näherungsweisen Berechnung des Schalldruckpegels in

annähernd kubischen Räumen wie dem hier betrachteten

Modellraum wird in der Praxis folgende einfache Formel be-

nutzt [Fas 03, (4.39)]:

Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)

10

Abb. 2: Grundriss des verwendeten Modellraums der Größe 4m x 3m x2m. Quelle (•) und Feldpunkte (x) liegen auf halber Höhe (x3=1m). Dieeingezogene Mauer reicht vom Boden bis zur Decke, ist 0.3 m breit (1.85 m ≤ x1 ≤ 2.15 m) und 2 m lang.

Abb. 5: Schalldruckpegel des Raums von Abbildung 2 mit Mauer bei 500Hz für unterschiedliche Absorptionskoeffizienten, berechnet mit BEM.- - - - : αM = αB = 0.2, αR = αS = 0.1.⋅⋅⋅⋅⋅⋅ : αM = 0.6, αB = 0.2, αR = αS = 0.1.⎯ : αM = 0.6, αB = 0.2, αR = 0.6, αS = 0.1.

Abb. 3: Modellraum von Abbildung 2 mit dreieckigen Randelementen.Der Knotenpunktabstand beträgt 0.1 m.

Abb. 4: Real- und Imaginärteil des Schalldrucks für den Modellraumohne Mauer für schallharte Wände bei 500 Hz.

Page 11: 9FA Abschlussbericht 2010 Abschlussbericht 2010

(4)

Hierbei steht r für den Abstand von der Quelle in m und A für

die so genannte äquivalente Absorptionsfläche in m2. Die

äquivalente Absorptionsfläche ist die Summe der mit den

Absorptionskoeffizienten gewichteten Raumflächen.

In den Abbildungen 6 und 7 sind zwei der in Abbildung 5

vorgestellten BEM-Lösungen (gestrichelte und gepunktete

Kurve) der jeweils entsprechenden Näherung gemäß Formel

(4) gegenübergestellt. Während die Näherung nach (4) im

Fall von Abbildung 6 eine akzeptable obere Abschätzung für

den Schalldruckpegel hinter der Mauer liefert, ist sie bei der

größeren Dämpfung im Fall von Abbildung 7 etwas zu pessi-

mistisch.

4. Vorträge und Veröffentlichungen

Im September 2009 waren die Autoren auf der „Internatio-

nal Conference on Theoretical and Computational Acous-

tics“ (ICTCA 2009) in Dresden mit den Vorträgen [Gor 09]

und [Pis 09] vertreten. In diesen Vorträgen wurde auf das

Modellproblem der Beugung akustischer Wellen an einem

unendlich langen Spalt in einem unendlich ausgedehnten

und unendlich dünnen schallharten ebenen Schirm einge-

gangen. Äquivalent dazu ist das Problem der Beugung an

einem unendlich langen und unendlich dünnen schallwei-

chen Streifen. Ähnliche Probleme wurden in der Raumakus-

tik bereits früher als Modelle betrachtet, etwa für den

Einfluss absorbierender Streifen in einer Raumwand [Mec

01]. Mit [Gor 09] wurde eine vom ersten Autor bereits früher

entwickelte neue Methode zur Lösung des betrachteten

Spaltproblems vorgestellt. Mit [Pis 09] wurden mit dieser

Methode erzielte neue numerische Ergebnisse präsentiert.

Ebenfalls im September 2009 hatte der erste Autor eine Ein-

ladung zu einem Forschungsaufenthalt am „Center for

Functional Analysis and Applications“ (CEAF) des „Instituto

Superior Técnico“ (IST) in Lissabon wahrgenommen und

dort über früher von ihm erzielte Ergebnisse zur Beugung an

einem unendlich langen Streifen und an einer kreisförmigen

Scheibe vorgetragen.

Im März 2010 wurde der Inhalt der Abschnitte 2 und 3 der

vorliegenden Arbeit auf der DAGA 2010, der 36. Jahresta-

gung der Deutschen Gesellschaft für Akustik (DEGA), vorge-

stellt [Gor 10].

5. Zusammenfassung und Ausblick

Um bei raumakustischen Berechnungen Beugungseffekte

besser berücksichtigen zu können, wurde eine Berechnung

durch ein BEM-Verfahren an Stelle von Ray-Tracing imple-

mentiert. In der vorliegenden Arbeit wurde als anschauliches

Anwendungsbeispiel ein Modellraum mit einer eingezoge-

nen Mauer betrachtet. Für unterschiedlich stark schallabsor-

bierende Raumflächen wurde die sich hinter der Mauer

ergebende Dämpfung untersucht. Die resultierenden BEM-

Lösungen wurden mit den Lösungen aus einer einfachen Nä-

herungsformel verglichen.

Momentan wird die Schallfeldberechnung noch mit einem

relativ einfachen BEM-Verfahren durchgeführt. Für eine

lärmoptimierte Planung von Arbeitsräumen mit entspre-

chend vielen Programmdurchläufen ist die Rechenzeit insbe-

sondere bei höheren Frequenzen noch zu lang. In einem

nächsten Schritt könnte das derzeitig verwendete Berech-

nungsmodul BEMLAB durch ein schnelleres Berechnungs-

Fachbereich II Mathematik - Physik - Chemie

11

Abb. 6: Schalldruckpegel des Raums von Abb. 2 mit Mauer bei 500 Hzfür αM = αB = 0.2, αR = αS = 0.1.- - - - : BEM-Lösung.⎯ : Näherung nach (4).

Abb. 7: Schalldruckpegel des Raums von Abbildung 2 mit Mauer bei 500 Hz für αM = 0.6, αB = 0.2, αR = αS = 0.1.⋅⋅⋅⋅⋅⋅ : BEM-Lösung.⎯ : Näherung nach (4).

Page 12: 9FA Abschlussbericht 2010 Abschlussbericht 2010

modul ersetzt werden, etwa durch eines, welches auf der

neueren schnellen Multipol-Methode (FMM – Fast Multipole

Method) basiert. Es könnte auch der Versuch unternommen

werden, ein hybrides Berechnungsverfahren zu entwickeln,

welches für die hohen Frequenzen das klassische Ray-Tra-

cing-Verfahren verwendet und nur für die problematischen

niedrigeren Frequenzen ein BEM-Verfahren. Im Übergangs-

bereich beider Verfahren lassen sich die beiden Methoden

möglicherweise in geschickter Weise kombinieren.

Es sei noch angemerkt, dass derzeit auch Bemühungen un-

ternommen werden, die bei der Beugung von Schallwellen

auftretenden Effekte alleine durch geeignete Modifizierun-

gen von Ray-Tracing-artigen Verfahren in den Griff zu bekom-

men, ohne auf BEM- oder FEM-Verfahren zurückzugreifen

(siehe etwa [Ste 10] und dortige Literaturangaben). Inwie-

weit solche Untersuchungen tatsächlich zur erfolgreichen

Berechnung von Schallfeldern in Räumen mit komplizierte-

rer Geometrie genutzt werden können, wird die Zukunft zei-

gen.

Literatur

[Bri 03] Brick, Haike; Ochmann, Martin: Eine BEM-Tool-

box zur Berechnung der Schallabstrahlung

schwingender Strukturen vor Hindernissen und

über absorbierendem Boden, Tagungsband

DAGA, S. 542 – 543, Aachen, 2003.

[Fas 03] Fasold, Wolfgang; Veres, Eva: Schallschutz und

Raumakustik in der Praxis, 2. Auflage, HUSS-

Medien GmbH Berlin, 2003.

[Gor 09] Gorenflo, Norbert: Explicit representations of

solutions for the diffraction by a slit, Procee-

dings ICTCA 2009, Dresden.

[Gor 10] Gorenflo, Norbert; Brick, Haike; Ochmann, Mar-

tin: Randelementeverfahren für akustische In-

nenraumprobleme, Tagungsband DAGA 2010,

S. 411 – 412, Berlin, 2010.

[Kut 09] Kuttruff, Heinrich: Room Acoustics, Fifth Edi-

tion, Spon Press, 2009.

[Mec 01] Mechel, Fridolin P.: Panel Absorber, Journal of

Sound and Vibration, Vol. 248 (1), S. 43 – 70,

2001.

[Pis 09] Piscoya, Rafael; Gorenflo, Norbert; Ochmann,

Martin: Benchmarking for the numerical pre-

diction of sound transmission through slits,

plates and shells, Proceedings ICTCA 2009,

Dresden.

[Ste 10] Stephenson, Uwe M.: Some further experi-

ments with the beam diffraction model based

on the uncertainty relation – is it valid also with

double diffraction?, Tagungsband DAGA 2010,

Berlin, S. 217 – 218, Berlin, 2010.

Kontakt

Prof. Dr. Martin Ochmann

Beuth Hochschule für Technik Berlin

Fachbereich II Mathematik - Physik - Chemie

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 29 31

E-Mail: [email protected]

Dr. Norbert Gorenflo

Beuth Hochschule für Technik Berlin

Fachbereich II Mathematik - Physik - Chemie

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 22 67

E-Mail: [email protected]

Kooperationspartner

Acouplan GmbH

Bundesallee 156

10715 Berlin

Tel.: (030) 52 00 57 10

E-Mail: [email protected]

Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)

12

Page 13: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Einleitung

Die in diesem Beitrag beschriebenen Untersuchungen stüt-

zen sich auf die Erfassung historischer Schmuckelemente

von Bauten und archäologischer Fundstücke mit Methoden

der optischen 3D-Messtechnik. Dabei werden zwei Schwer-

punkte gesetzt: Zum einen soll eine geschlossene Prozess-

kette von der Objektvermessung über die Modellierung bis

hin zur virtuellen Visualisierung und realen Reproduktion

von Einzelstücken bzw. Kleinserien entwickelt werden. Der

zweite Schwerpunkt liegt auf der Wirtschaftlichkeitsanalyse

der einzelnen Prozessierungsschritte. Dabei gilt es, die Pro-

zesskette zu optimieren, um Kosten einzusparen. Außerdem

soll gezeigt werden, dass sich die Daten – über die bisheri-

gen Anwendungen hinaus – vielfältig nutzen lassen. So sol-

len neue Produkte (z.B. Kleinserien bestimmter Exponate für

den Museumsshop, realitätsnahe Modelle zur Präsentation

im Internet etc.) aus den digitalisierten Daten entwickelt

werden. Auf diese Weise kann Mehrwert geschaffen und ein

günstigeres Kosten-Nutzenverhältnis erreicht werden.

2. Aufnahmeprinzip

Zur Aufnahme der Objekte wird ein Streifenlichtscanner

der Firma Polygon Technology GmbH (www.polygon-

technology.de) verwendet. Das Aufnahmeprinzip soll im Fol-

genden kurz dargestellt werden. Der Streifenlichtprojektor

projiziert ein definiertes Streifenlichtmuster in drei Frequen-

zen auf das Objekt, welches dann simultan von zwei CCD-

Kameras aus unterschiedlichen Richtungen erfasst wird.

Durch die vorherige Kalibrierung des gesamten Messsystems

können korrespondierende, von beiden Kameras erfasste

Punkte, durch Triangulation im übergeordneten Objektkoor-

dinatensystem sehr genau berechnet werden. Die Messge-

nauigkeit hängt dabei vor allem von der Größe des Messbe-

reichs ab. Ist dieser klein, so lassen sich Genauigkeiten am

Objekt in Größenordnungen von 0,1 mm bis 0,01 mm erzielen.

Bei jeder Aufnahme entsteht so eine Punktewolke. Das Ob-

jekt wird anschließend von weiteren Standpunkten aus er-

fasst. Die daraus entstandenen Punktewolken werden

entweder automatisch, bei der Aufnahme mit Drehtisch oder

interaktiv durch Angabe von Startwerten in Form von identi-

schen Punkten zueinander registriert. Die so entstandene

Gesamtpunktewolke wird in einem automatischen Prozess

trianguliert und liefert ein hochgenaues 3D-Modell. Darüber

hinaus sind auch Texturaufnahmen möglich, die nach der

Dreiecksvermaschung halbautomatisch auf das Objekt auf-

gebracht werden können [Akc 07, S. 35–46], [Güh 02,

S. 14–82].

3. Nutzungsmöglichkeiten und Beispiele

In diesem Abschnitt werden Beispiele zur Nutzung der

optischen 3D-Messtechnik, unterteilt in drei Bereiche,

vorgestellt. Hierbei wird in wissenschaftliche Anwendungs-

bereiche und Einsatz zu Visualisierungszwecken unterschie-

den. Im Besonderen wird auf das Thema Anwendungen für

das Internet eingegangen.

3.1 Wissenschaftliche Anwendungsbereiche

Ein Anwendungsprojekt im wissenschaftlichen Bereich ist

beispielsweise der Aufbau eines virtuellen Archivs, d.h.

einer Datenbank, in der dreidimensionale Objekte erfasst

werden. Dies kann man sich in kleinem Rahmen bei einzel-

nen Sammlungen vorstellen, um dadurch die Archivierung,

Dokumentation und Recherche zu verbessern. Eine andere

Motivation besteht darin, gedruckte Kataloge durch ver-

Fachbereich III Bauingenieur- und Geoinformationswesen

13

Optische 3D Messtechnik für die berührungslose, detaillierte Erfassungvon Objektoberflächen in Archäologie und DenkmalpflegeMartin Floth, Michael BreuerKooperationspartner: Lupos3D GbR

In Archäologie und Denkmalpflege gibt es eine erhöhte Nachfrage zum Einsatz optischer 3D-Messtechnik zur Reproduk-

tion und zur Dokumentation [Sch 09, S. 35]. Doch aufgrund der geometrischen Komplexität und der Einzigartigkeit der Ob-

jekte ist eine Kostenrechnung für die 3D-Erfassung und Weiterverarbeitung mit hohen Risiken behaftet. Einsparpotenziale

können durch eine Prozessoptimierung aufgedeckt werden. Weiteres Ziel ist es, den Einsatz der innovativen Technologie

optische 3D-Messtechnik in diesem Bereich zu fördern.

There is an increased demand for the use of optical 3D measurement technology for reproduction and documentation in

archaeology and the preservation of historical monuments [Sch 09, p. 35]. But due to the geometric complexity as well as

the uniqueness of the objects, the calculation of the cost of 3D-capturing and processing still poses high risks. Savings po-

tential could be determined by process-optimisation. Another goal is to advance the application of optical 3D- measuring

techniques in this field.

Page 14: 9FA Abschlussbericht 2010 Abschlussbericht 2010

gleichbare digitale Medien abzulösen. Ein Grund dafür ist,

dass die Möglichkeiten digitaler Publikationen denen von

Printmedien weit überlegen sind. Belege hierfür liefern aktu-

elle internationale Bestrebungen auf diesem Gebiet, wie z.B.

das europäische Verbundprojekt 3D-Coform oder die ar-

chäologische Sammlung Carnuntum des Landes Nieder-

österreich (www.3d-coform.eu, www.carnuntum-db.at), in

denen ein virtuelles Archiv für Kunstgegenstände und an-

dere archäologische Fundstücke aufgebaut wird. Sie zeigen

den Nutzen der optischen 3D-Messtechnik für dieses An-

wendungsgebiet.

Virtuelle Sammlungen, ob im großen oder kleinen Rahmen,

werden vor allem Forschern die Suche nach Vergleichsobjek-

ten erleichtern. Diese Datenbanken sollten intelligent sein

und gespeicherte Objekte selbstständig finden und ver-

knüpfen können. Abfragen, wie die Angabe von Epoche,

Objektart, Fundort und spezielle Eingrenzungen wie Größe,

Farbe und Form müssen möglich sein. Die Datenbank muss

alle gespeicherten Exponate liefern können, die einer sol-

chen Abfrage entsprechen.

Die Dreidimensionalität bietet große Vorteile gegenüber der

heute noch üblichen Dokumentation mit Fotos und beschrei-

benden Text. Der texturierte, detailgetreue 3D-Datensatz er-

laubt dem Wissenschaftler zu jedem Zeitpunkt, die Objekte

von allen Seiten zu betrachten. Bei fotografischer Dokumen-

tation von Objekten wünscht man sich im Nachhinein oft ein

weiteres Bild aus einer anderen Perspektive [Sch 09, S. 36].

Ferner bieten die 3D-Datensätze die Möglichkeit, mit Hilfe

von anwenderfreundlichen, frei verfügbaren Viewern (z.B.

Adobe Reader 8.1 von Adobe: www.adobe.com, Deep Viewer

von Right Hemisphere: www.righthemisphere.com) interak-

tiv Informationen abzufragen. Abbildung 1 zeigt einen Hori-

zontalschnitt durch eine antike Kleinfigur. Maße können an

beliebigen Positionen leicht abgegriffen werden. Außerdem

ist es möglich, Kommentare direkt am Modell zu platzieren

und die Anzeigemodi per Knopfdruck zu ändern.

Mit umfangreicher kommerzieller 3D-Software (z.B. Lupo -

Scan von Lupos3D: www.lupos3d.de, RapidForm von INUS

Technology: www.rapidform.com) können auch Soll-Ist Verglei-

che, d.h. der Vergleich von Kopie und Original vorgenommen

oder 3D-Daten in Bezug auf eine Ebene, Zylinder oder Kugel

berechnet werden; siehe dazu Abbildung 2. Zur Veranschauli-

chung des Abstandes jedes einzelnen Punktes zum Regelkör-

per, erhält jeder Punkt eine Farbe in Bezug zum Abstand.

3.2 Einsatz zu Visualisierungszwecken

Die Visualisierung von 3D-Objekten bietet besonders Mu-

seen eine neue Möglichkeit der Werbung. Besucher können

schon auf der Internetseite des Museums sehr einfach und

intuitiv Objekte interaktiv in 3D betrachten, drehen und ver-

stehen. Die neue Präsentationstechnik soll Interesse we-

cken, das Museum zu besuchen und nicht, wie vielleicht

befürchtet werden kann, den Museumsbesuch ersetzen. Im

Museum können 3D-Animationen zum Verständnis beitra-

gen und dem Museumsbesucher Zusammenhänge – auch in

Bezug zur vierten Dimension, der Zeit – darstellen. Virtuelle

3D-Objekte lassen sich mit speziellen Verfahren, auch be-

kannt aus 3D-Kinofilmen (Avatar, Ice Age und Alice im Wun-

derland) in 3D darstellen und von allen Perspektiven

betrachten. „Vasen, historische Speere oder gar ganze Tem-

pel können dreidimensional animiert werden. Museumsbe-

sucher werden damit in einigen Jahren römische Amphoren

am Bildschirm drehen oder um Tempel herumfliegen kön-

nen.“ [Frau 09]. Die ersten Ansätze sind schon gemacht. Ein

gutes Beispiel liefert das Virtual Hampson Museum in Ar-

kansas/USA (www.hampsonmuseum.cast.uark.edu). Die

Aufnahme von Objekten in 3D ermöglicht außerdem die

Herstellung von geometrisch exakten Kopien. Diese können

beliebig skaliert werden. Die einfachste Variante, reale 3D-

Objekte herzustellen, bieten 3D-Drucker. Diese sind zur Her-

stellung von sehr kleinen Objekten (Zentimeterbereich) bis

Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege

14

Abb. 1: Anwenderfreundliche Darstellung einer antiken Kleinfigur mitder Software Deep Viewer (Original im archäologischen Landesmuseumim Paulikloster, Brandenburg)

Abb. 2 Berechnung mit LupoScan links: Engelskopf (Abb. 3) in Bezug zueinem Zylinder rechts: Darstellung als Abwicklung (Original im archäolo-gischen Landesmuseum im Paulikloster, Brandenburg)

Page 15: 9FA Abschlussbericht 2010 Abschlussbericht 2010

zu Objekten mittlerer Größe (25cm x 20cm x 35cm) sehr gut

geeignet. Mit den neuesten 3D-Druckern sind auch farbige

3D-Drucke möglich. Somit können auch texturierte Modelle

gedruckt werden [Z Cor 10].

Mit CNC-Fräsmaschinen ist eine Erhöhung der Genauigkeit,

der Qualität des Materials und der Flexibilität in der Größe

möglich. Ein sehr gutes Beispiel ist die Kopie der Statue von

Konstantin dem Großen [Sch 07].

3.3 Anwendungen für das Internet

Die meisten Institute, Firmen und Museen präsentieren sich

mittlerweile im Internet und nutzen die Möglichkeiten der

Werbung, des Austauschens und Präsentierens von Ergeb-

nissen und der Veröffentlichung. Das Internet wird im Be-

reich Archäologie, Denkmalpflege und Bauforschung fast

ausschließlich in 2D, also mit Bildern und Beschreibungen

genutzt. Nur wenige Beispiele z.B. das Hampson Museum

(s.o.) arbeiten mit der dritten und sogar mit der vierten

Dimension – der Zeit.

Alle dreidimensional erfassten Objekte lassen sich, wie im

bereits erwähnten Virtual Hampson Museum zu sehen, mit

Animationen oder Adobe 3D PDF beeindruckend hochaufge-

löst und mit Textur versehen darstellen. Um die Performance

beim Drehen, Bewegen, Zoomen und Messen auf einem

hohen Niveau zu halten, liegt die Auflösung meist nicht bei

100 Prozent, sondern wird deutlich reduziert, um das Daten-

volumen zu begrenzen. Höher aufgelöste Daten sollten zu-

sätzlich als Download im VRML/OBJ/STL-Format angeboten

werden. Frei verfügbare 3D-Viewer sind weit verbreitet. Die

Bekanntesten (VRML-View, GLC-Player, Mesh-Lab, BS Con-

tact, Deep View) bieten erfahrungsgemäß mehr Optionen als

einfaches Betrachten des Objektes.

Als Beispiel für weitere Möglichkeiten der Präsentation im

Internet soll die Internetseite des Forschungsprojektes die-

nen. Sie wird in Kürze veröffentlicht werden und wird über

folgende Adressen erreichbar sein: (www.beuth-hoch-

schule.de/forschungsassistenz > Forschungsassistenz V

> Fachbereich III) und (www.lupos3d.de).

4.0 Prozesskette und Wirtschaftlichkeitsanalyse

4.1 Entwicklung und Test einer Prozesskette

Der Zeitaufwand von der Aufnahme bis zum Endprodukt ist

zwar variabel und muss in Abhängigkeit vom Objekt immer

individuell abgeschätzt werden. Dennoch ist eine gewisse

Standardisierung möglich, indem zur Vereinfachung der ge-

samte Prozess in folgende Arbeitsschritte unterteilt wird:

· Planung (Objektanalyse, Aufnahmeplanung)

· Datenerfassung

3D-Datenerfassung

Vorregistrierung

Texturaufnahme

· Datenbearbeitung

Registrierung

Triangulierung

Optimierung

Texturierung

· Extras

Herstellung von Repliken (3D Druck, Fräsen)

Video oder Interaktive Animation

Internetpräsentation

Die Datenerfassung ist unterteilt in Geometriedatenerfas-

sung (3D-Datenerfassung), Vorregistrierung und Texturauf-

nahme, wobei letzteres schon bei der 3D-Datenerfassung

einen großen Zeitanteil einnimmt. Die Datenbearbeitung ist

in Registrierung, Triangulierung, Optimierung und Texturie-

rung unterteilt. Wobei der größte Zeitanteil der Registrie-

rung schon bei der 3D-Datenerfassung erfolgt, da die

Vorregistrierung fast immer parallel zur Geometriedatener-

fassung entsteht, um Löcher (noch nicht erfasste Bereiche)

in der Punktewolke zu vermeiden. Die Herstellung einer Tex-

tur ist optional. Unter dem Punkt Extras, werden die Zeiten

für Herstellung der verschiedenen Ergebnisse aufgeführt.

Das können sein: Anfertigung von Kopien, Animationen und

Internetpräsentation. Bei der Herstellung von Repliken

durch 3D-Druck oder Fräsen sind die Zeiten abhängig vom

Volumen und der Komplexität der Objekte. Die Vorausset-

zungen an die Daten zum Drucken und Fräsen, werden durch

die verwendete Software meist automatisch erfüllt. Es wer-

den so genannte „wasserdichte“ Modelle erwartet. Die Her-

stellung von Kopien mit CNC-Fräsen wird in der Regel von

Fachleuten durchgeführt, da hierfür Spezialwissen in der

Maschinenprogrammierung erforderlich ist. Der 3D-Druck

dagegen ist vergleichsweise einfach zu realisieren. Man be-

nötigt hierfür allerdings einen speziellen 3D-Drucker.

Die Erstellung von Videos oder interaktiven Animationen

kann so unterschiedlich gestaltet sein, dass auch hier sehr

schwer pauschal Zeiten angegeben werden können. Anima-

tionen reichen von einfachen Videos, in denen sich das Ob-

jekt nur um die eigene Achse dreht, bis hin zu kleinen

minutenlangen Filmen mit Hintergrundbild, Musik, Sprache

und Handlungsabläufen. Der Aufwand lohnt sich aber in den

meisten Fällen, da durch Animationen mit Bewegung, Zoom,

Sound und anderen Hilfsmitteln, Interesse geweckt und die

Aufmerksamkeit auf das Wesentliche gelenkt werden kann.

Das Format Adobe 3D PDF erlaubt ein sehr schnelles und

einfaches Einbinden von 3D-Objekten in das Internet. Dies

ist innerhalb weniger Minuten zu realisieren. Auch das Be-

Fachbereich III Bauingenieur- und Geoinformationswesen

15

Page 16: 9FA Abschlussbericht 2010 Abschlussbericht 2010

reitstellen von hochaufgelösten Objekten zum Download

stellt kein Problem dar.

4.2 Zeitaufwand für die einzelnen Arbeitsschritte

Der benötigte Zeitaufwand wurde anhand von drei konkre-

ten Beispielen untersucht. Die Ergebnisse sind in Tabelle 1

dargestellt. Die drei Objekte stehen exemplarisch für jeweils

eine bestimmte Objektklasse, die sich in Größe, Material,

Auflösung und Komplexität unterscheiden. Diese Klassifizie-

rung ist entscheidend für die Berechnung des Zeitaufwan-

des. Durch Objektgröße und Auflösung kann grob eine

Aussage zum Zeitaufwand gemacht werden. Es bleibt den-

noch festzuhalten, dass auch Material, Oberflächeneigen-

schaften und Komplexität wichtige Faktoren sind, die den

Aufwand erheblich beeinflussen können. Bei der Berech-

nung des Zeitaufwandes ist auch die Vorbereitung des

Messsystems, also der Aufbau und die Kalibrierung hinzu -

zurechnen. Der Aufbau und die Kalibrierung des Streifen -

licht scanners der Firma Polygon Technology GmbH

(www.polygon-technology.de) ist mit circa einer Stunde zu

veranschlagen. Bei der Aufnahme mehrerer Objekte mit der

gleichen Auflösung ist eine Wiederholung der Kalibrierung

nicht notwendig. In diesem Fall relativiert sich der Zeitauf-

wand mit der Anzahl der aufzunehmenden Objekte. Im Fol-

genden werden die Zeiten ohne diese Vorbereitungszeit

angegeben.

Als erstes und einfachstes Beispiel ist ein etwa faustgroßer

Engelskopf aus Stein aus dem 10. bis 11. Jahrhundert im Ar-

chäologischen Landesmuseum im Paulikloster in Branden-

burg aufgenommen worden; siehe Abbildung 3. Die schnelle

Aufnahme und Bearbeitungszeit, wie Tabelle 1 zu entneh-

men ist, resultieren aus der Objektbeschaffenheit und der

Anforderung an die Auflösung. Bei diesem Objekt gibt es

keine Hinterschneidungen oder filigranen Objektteile; au-

ßerdem war nur eine Genauigkeit im Bereich eines Zehntel-

millimeter gefordert.

Das zweite Beispiel, die Büste des Namensgebers der Beuth

Hochschule für Technik Berlin, Peter Christian Wilhelm Beuth

(1781 – 1853) ist lebensgroß (Abb. 4). Schon wegen der Größe

kam es hier zu einem deutlich erhöhten Zeitaufwand bei der

Aufnahme und der Nachbearbeitung. Am Haaransatz und an

den Ohren kam es zu Hinterschneidungen, welche die Auf-

nahme und Nachbearbeitung darüber hinaus erschwerten.

Die Zeiten der Triangulierung und Optimierung lassen sich

etwas relativieren, da hier oft automatische Prozesse ge-

nutzt werden konnten. Jedoch mussten die Ergebnisse über-

prüft und die Parameter mehrfach angepasst werden.

Der betende Knabe (Abb. 5) ist das komplexeste und größte

Objekt in dieser Reihe (1,40 m hoch). Der Aufnahmeprozess

gestaltete sich kompliziert, nicht nur wegen der Größe son-

dern auch aufgrund der vielen Hinterschnitte und filigranen

Objektteile (Finger, Füße). Deren Modellierung machte einen

erheblichen Teil an Mehrarbeit besonders in der Nachbe -

arbeitung aus. Hinzu kam die schwierige Texturierung, die

selbst mit dem leistungsfähigen Texturwerkzeug von

QTSculpture-Software (Polygon Technology GmbH s.o.)

sehr viel Mühe, Zeit und Erfahrung erforderte.

Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege

16

Abb. 3: Engelskopf, 10. – 11. Jahrhundert (Original im archäologischenLandesmuseum im Paulikloster, Brandenburg)

Abb. 4: Lebensgroße Büste von P.C.W. Beuth (Original in der BeuthHochschule für Technik Berlin)

Page 17: 9FA Abschlussbericht 2010 Abschlussbericht 2010

5.0 Fazit und Ausblick

Die in der Industrie bereits seit langem etablierte optische

3D-Messtechnik bietet auch dem Bereich Museen, Archäolo-

gie, Denkmalpflege und Bauforschung neue Möglichkeiten.

Einige davon wurden in dem hier vorgestellten Forschungs-

projekt über eine Zeit von vierzehn Monaten untersucht,

indem geeignete Objekte der Archäologie und Denkmal-

pflege exemplarisch erfasst wurden. Anhand der Beispiele

wurden Prozessketten entwickelt und optimiert, um qualifi-

zierte und besser quantifizierbare Aussagen zum Zeitauf-

wand und später auch zu den Kosten ableiten zu können. In

Zukunft sollte untersucht werden, wie sich die dargestellten

Prozessketten weiter optimieren lassen. Dazu ist es notwen-

dig, die einzelnen prozessbestimmten Faktoren noch detail-

lierter zu beschreiben und ihren Einfluss auf den Gesamt-

prozess zu bewerten. Im Rahmen des hier dargestellten

Forschungsprojektes war dies nur grob möglich, sodass eine

Verfeinerung der Analyse wünschenswert wäre. Darüber hi-

naus sollte ein Vergleich mit anderen 3D-Messsystemen an-

gestellt werden.

6. Dank

Besonderer Dank gilt dem archäologischen Landesmuseum

im Paulikloster, Brandenburg, für die Möglichkeit der Erfas-

sung exemplarischer Objekte, dem Europäischen Sozialfonds

für die Förderung des Projektes und der Firma LUPOS3D für

die engagierte Zusammenarbeit.

Literatur

[Akc 07] Akca, D. u.a.: Performance evaluation of a

coded structured light system for cultural heri-

tage applications, In: Beraldin, Remondino,

Shortis (Hrsg.): Videometrics IX, Proc. of SPIE-

IS&T Electronic Imaging , 2007.

Online:

www.photogrammetry.ethz.ch/general/

persons/devrim/2007US_Akca_etal_

Videometrics.pdf [31.3.2010].

[Fra 09] Fraunhofer-Gesellschaft: Der dreidimensionale

Museumskatalog, Archäologie, 2009. Online:

www.archaeologie-online.de/magazin/nach-

richten/view/der-dreidimensionale-museums-

katalog [31.3.2010].

[Güh 02] Gühring, J.: 3D-Erfassung und Objektrekon-

struktion mittels Streifenprojektion, Disserta-

tion eingereicht bei der Fakultät für Bau

ingenieur- und Vermessungswesen der

Universität Stuttgart, 2002.

Online:

elib.uni-stuttgart.de/opus/volltexte/2006/

2715/pdf/Guehring_diss.pdf [31.3.2010].

[Sch 09] Schaich, M.: 3D-Scanning-Technologien in der

Bau- und Kunstdenkmalpflege und der Archäo-

Fachbereich III Bauingenieur- und Geoinformationswesen

17

Tab. 1: Zeitaufwand

Abb. 5: Kopie des betenden Knaben vom Südwestkirchhof Stahnsdorf

Zeitaufwand mit Vertretern

verschiedener Objektklassen

Engelskopf Beuth Büste Betender Knabe

3D Datenerfassung/

Vorregistrierung

1 h 2 h 4,5 h

Texturaufnahme 0,5 h - 3,5 h

Registrierung/Triangulierung 5 min 2 h 4 h

Optimierung 0 h 4 h 4 h

Texturierung 1 h - 9 h

Gesamtzeit 2,5 h 8 h 25 h

Page 18: 9FA Abschlussbericht 2010 Abschlussbericht 2010

logischen Feld- und Objektdokumentation, In:

Faulstich, Hahn-Weishaupt (Hrsg.): Dokumen-

tation und Innovation bei der Erfassung von

Kulturgütern. Schriften des Bundesverbands

freiberuflicher Kulturwissenschaftler Band 2,

S. 35 – 46, 2009.

[Sch 07] Schaich, M.: Case Study Das „Konstantin-Pro-

jekt“. 3D-HighTech-Verfahren in der Archäolo-

gie. 3D-Scanning, 3D-Modellierung,

3D-Rekonstruktion, 3DReproduktion, 2007.

Online: www.arctron.de/3D-Vermessung/ 3D-

Laserscanning/Beispiele/Konstantin/Presse-

ArcTron3D.pdf [31.3.2010].

[Z Cor 10] Z Corporation: Funktionsweise des 3D-Drucks.

Die Vision, die Innovation und die Technologien

hinter dem Tintenstrahl-3D-Druckverfahren,

2010.

Online: www.zprinter.de [31.3.2010].

Abbildungsnachweis

Abb. 1 – 5: Verfasser.

Kontakt

Prof. Dipl.-Ing. Michael Breuer

Beuth Hochschule für Technik Berlin

Fachbereich III Bauingenieur- und Geoinformationswesen

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 51 44

E-Mail: [email protected]

M.Sc. Dipl.-Ing Martin Floth

TU Bergakademie Freiberg

Institut für Markscheidewesen und Geodäsie

Akademiestraße 6

09599 Freiberg

Tel.: (0 37 31) 39 - 28 02/36 01

E-Mail: [email protected]

Kooperationspartner

Firma Lupos3D GbR

Geschäftsführung Olaf Prümm, Mustapha Doghaili,

Michael Pospis̆

Tel.: (030) 46 307 - 320

E-Mail: [email protected]

Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege

18

Page 19: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Ausgangssituation und Zielsetzung

Im Jahr 2009 wurde vom Deutschen Rat für Nachhaltigkeit,

im Auftrag der Bundesregierung, ein Peer Review über die

nationalen Nachhaltigkeitsstrategien veröffentlicht. Darin be-

scheinigen die Experten der Regierung, Deutschland sei im

20. Jhrd. einer der Pioniere für eine ökologische Entwicklung

der Gesellschaft, z.B. im Bereich Recycling oder Luftqualität,

gewesen. Heute bestimmen vor allem der Klimawandel und

globale Umweltprobleme die politischen Diskussionen. Ins-

gesamt zeichne sich Deutschland durch eine hohe institutio-

nelle Kompetenz im Bereich Nachhaltigkeit aus (Stigson,

Babu, Bordewijk, O‘Donnell, Haavisto, Morgan, Osborn 2009).

Seit einigen Jahren werden Nachhaltigkeitsstrategien in

immer zahlreicheren Wirtschaftssektoren entwickelt. Auch in

der Immobilienwirtschaft gewinnt dieses Thema zunehmend

an Bedeutung. Die steigende Anzahl von Gebäuden, die mit

Gütesiegeln der Deutschen Gesellschaft für nachhaltiges

Bauen (DGNB), LEED (USA) oder BREEAM (Großbritannien)

ausgestattet sind, belegt diese Entwicklung. Eine Analyse

nachhaltiger Immobilien und Akteure zeigt, dass überwie-

gend große Konzerne und Organisationen Projekte im Sinne

von Leuchtturmprojekten durchgeführt haben. Nachhaltige

Vorhaben des Mittelstandes sind die Ausnahme. Nachhaltig-

keit jedoch kann nur dann gesamtwirtschaftliche Wirkung

erzielen, wenn es nicht wie Herrschaftswissen behandelt

wird. Zudem verträgt sie nach Auffassung der Forscher keine

Monopolstrukturen. Es ist erforderlich, wie das Bundesmi-

nisterium für Verkehr, Bau und Stadtentwicklung am

15.04.2010 bekannt gegeben hat, dass nachhaltige Bewer-

tungssysteme im Wettbewerb stehen.

2. Aufgabenstellung

Nachdem sich auf dem internationalen Immobilienmarkt,

neben unbedeutenderen Labeln, vor allem die Zertifizie-

rungssysteme LEED und BREEAM durchgesetzt haben,

wurde in den letzten Jahren auch in Deutschland die Ent-

wicklung eines Standards für nachhaltige Immobilien for-

ciert. Dabei federführend war die Deutsche Gesellschaft für

Nachhaltiges Bauen (DGNB), die einen sehr detaillierten An-

forderungskatalog für nachhaltige Gebäude definierte, der

jedoch für kleinere und mittlere Bauvorhaben zu umfang-

reich und kostenaufwendig ist.

Ziel dieses Forschungsvorhabens ist es, ein neues, verein-

fachtes Zertifizierungssystem für die deutsche, mittelständi-

sche Bauwirtschaft zu entwickeln. Als Kooperationspartner

aus der Wirtschaft wurde dazu die Zertifizierung Bau e.V.

gewonnen, die als Tochter des Zentralverbandes des Deut-

schen Baugewerbes, vor allem die Interessen des mittel-

ständischen Bauwesens vertritt.

Grundlage des neu zu entwickelnden Zertifizierungsverfah-

rens ist das klassische „Drei-Säulen-Modell“ der Nachhaltig-

keit das auf der internationalen Konferenz „Erdgipfel“ in Rio

de Janeiro 1992 erstmalig in dieser Form formuliert wurde.

Im Rahmen der Ökologischen Nachhaltigkeit sollen die na-

türlichen Ressourcen geschützt und die natürliche Umwelt

für nachfolgende Generationen erhalten werden. Ökono-

misch nachhaltig ist ein Wirtschaftssystem, das eine dauer-

haft tragfähige Grundlage für Erwerb und Wohlstand

darstellt. Soziale Nachhaltigkeit beinhaltet eine gesell-

schaftliche Entwicklung, die die Partizipation aller Mitglieder

der Gemeinschaft ermöglicht (Bundesregierung 2008).

Fachbereich IV Architektur und Gebäudetechnik

19

Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien fürden Mittelstand“ in DeutschlandDr. Charlotte Hagner, Prof. Kai KummertKooperationspartner: Zertifizierung Bau e.V., Dr.-Ing. Martin Ponick

Neben immer zahlreicheren Wirtschaftssektoren, gewinnen Nachhaltigkeitsstrategien in den letzten Jahren auch in der Im-

mobilienwirtschaft zunehmend an Bedeutung. So wurde auch in Deutschland die Entwicklung eines Standards für nach-

haltige Immobilien forciert. Ziel dieses Forschungsvorhabens ist es, ein neues, vereinfachtes Zertifizierungssystem für die

deutsche, mittelständische Bauwirtschaft zu entwickeln. Dabei werden ökologische, ökonomische und soziokulturelle

sowie funktionale bzw. technische Aspekte und Standortmerkmale berücksichtigt. Neben dem Schutz der Umwelt, stehen

die Senkung der Lebenshaltungskosten einer Immobilie, der Gesundheitsschutz der Gebäudenutzer, die Behaglichkeit,

Nutzerzufriedenheit und ein menschengerechtes Umfeld im Zentrum der Gebäudebewertung.

Sustainable Development is an important topic in the economic development of the world. Since some years the real es-

tate sector develops standards for sustainable buildings too. In this project the scientists worked on the development of a

german certificate for sustainable buildings set up by small firms and businesses. The qualitiy criteria contain the ecology,

the economy, user’s health and contentment as well as a „green“ environment of the location.

Page 20: 9FA Abschlussbericht 2010 Abschlussbericht 2010

3. Ergebnisse

Zur Entwicklung eines Zertifizierungssystems für Nachhal-

tige Immobilien der mittelständischen Bauwirtschaft wurde

die Struktur des Bewertungsverfahrens des Bundesministe-

riums für Verkehr, Bau und Stadtentwicklung (BMVBS) über-

nommen. Dabei werden bei der Realisierung einer Immobilie

ökologische, ökonomische, soziale, funktionale und techni-

sche Aspekte sowie Standortmerkmale berücksichtigt (Gra-

fik 1).

Neben dem Schutz der Umwelt, stehen die Senkung der Le-

benshaltungskosten einer Immobilie, bei hoher ökonomi-

scher Effizienz, der Gesundheitsschutz der Gebäudenutzer,

die Behaglichkeit, Nutzerzufriedenheit und ein menschenge-

rechtes Umfeld im Zentrum der Gebäudebewertung.

Die Qualitätskategorien werden durch 33 Kriteriensteck-

briefe beschrieben, die sowohl quantifizierbare Messgrößen

als auch qualitative Kennzahlen beinhalten. In Tabelle 1 sind

beispielhaft die in der ökologischen Qualität berücksichtig-

ten Kriterien dargestellt. Darüberhinaus werden die Berech-

nungsverfahren zur Erfassung der CO2-Äquivalentemissio-

nen einer Immobilie abgebildet (Tabelle 2). Wichtig ist die

Unterscheidung zwischen obligatorischen und freiwilligen

Kriterien. Obligatorische Kriterien müssen in dem Vorhaben

berücksichtigt werden, sonst wird ein Projekt vorerst nicht

anerkannt. Gleiches gilt, falls ein obligatorisches Kriterium

null Punkte erzielt.

Innerhalb der quantitativen bzw. qualitativen Kriterien kön-

nen je nach Erfüllungsgrad unterschiedlich hohe Punktzah-

len erreicht werden. Die CO2-Äquivalentemissionen werden

z.B. gemäß folgender Berechnungsmethode erfasst.

Insgesamt gilt der Zertifizierungsprozess bei Erreichen von

65% der maximalen Punktzahl als bestanden. Eine Quali-

tätskategorie fließt je nach Gewichtung in das Gesamtergeb-

nis ein. Dabei haben die ökologische Qualität (30%), die

ökonomische (20%) und soziokulturelle Qualität (20%) die

höchsten Prioritäten.

In Grafik 2 wird beispielhaft das Ergebnis eines Zertifizie-

rungsprozesses visualisiert dargestellt. Das „Spinnennetz“

symbolisiert die 33, im Zertifizierungsprozess überprüften,

Qualitätskriterien. Dabei entspricht der grüne Bereich dem

Erfüllungsgrad des einzelnen Kriteriums. Diese Art der Dar-

stellung könnte auch ein Teil der Zertifizierungsurkunde

werden.

4. Nutzen

Marktfähige Zertifizierungssysteme für nachhaltige Immobi-

lien lassen sich auf einem wachsenden Zukunftsmarkt gut

verkaufen. Im Marktsegment nachhaltiger Schulbau bei-

spielsweise ist in den nächsten Jahren eine große Nachfrage

zu erwarten, da gemäß des Koalitionsvertrages der CDU,

Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien für den Mittelstand“ in Deutschland

20

Grafik 1: Qualitätskategorien für Nachhaltiges BauenQuelle: www.nachhaltigesbauen.de, 2010.

Kriterium für nachhaltige Immobilien Obliga-torisches Kriterium

Maximal erreich-

bare Punktzahl

Ökologische QualitätCO2 - Äquivalentemissionen ja 40

Schädigung der Ozonschicht 20

Beitrag zu troposphärischer Ozonbildung 20

Eutrophierung von Ökosystemen 20

Vermeidung kleinräumiger Umwelt-verschmutzung

ja 40

Holz aus nachhaltiger Waldbewirtschaftung 20

Nicht erneuerbarer Primärenergieverbrauch ja 50

Gesamtprimärenergieverbrauch und Nutzung erneuerbarer Energien

ja 40

Nutzung der Ressource Wasser ja 30

Flächennutzung 30

Tabelle 1: Ökologische Qualität – aus dem Kriterienkatalog für Nachhal-tige Immobilien-Neubau Bürogebäude – Auszug aus dem gesamten Kriterienkatalog. Quelle: eigene Darstellung.

Kriterium Treibhauspotenzial

Beitrag eines Stoffes an der Klimaerwärmung als GWP-Wert (Global Warming Potential) relativ zum Treibhauspotenzial von Kohlendioxid (CO2 – Äquivalent)

Kennzahlerziel-

bare Punkte

er-reichte Punkt

e

a.Treibhauspotenzial verbauter Materialien in der Herstellung, gemäß DIN EN ISO 14040 und 14044:

-Bauteile gemäß DIN 276 gliedern

-Mengenermittlung der in den Kostengruppen 300 und 400 aufge-führten Bauteile

-Verknüpfung mit den entsprechenden Daten über ökologische Auswirkungen von Baumaterialien in der Software „LEGEP – Kosten-planung“

b.Treibhauspotenzial verbauter Materialien in der Instandsetzung, gemäß DIN EN ISO 14040 und 14044:

-Berechnen für Bauteile mit einer Nutzungsdauer von 50 Jahre (Nutzungsdauern sind in dem Leitfaden für Nachhaltiges Bauen des BMVBS definiert)

c. Treibhauspotenzial verbauter Materialien im Rückbau, gemäß DIN EN ISO 14040 und 14044:

-Entsprechende Daten können mit der Software „LEGEP – Lebens-zykluskosten“ berechnet werden

CO2 – Äquivalente/m2

Nettogrundfläche

x Jahr =

a + b + c

36

52

10

5

10

Bewertungsmaßstab: 10 Checklistenpunkte = 30 Punkte für das Kriterium

Tabelle 2: Berechnung der CO2 – Äquivalentemissionen einer Immobilie.Quelle: eigene Darstellung

Page 21: 9FA Abschlussbericht 2010 Abschlussbericht 2010

CSU und FDP im Jahr 2009 die Ausgaben des Bundes für Bil-

dung und Forschung bis 2013 um insgesamt 12 Mrd. Euro

steigen werden. Durch die Entwicklung von marktfähigen

Zertifikaten für den nachhaltigen Bau und die Bewirtschaf-

tung von Gebäuden trägt das Projekt wesentlich dazu bei,

nachhaltiges Wirtschaften in der Bau- und Immobilienbran-

che zu stärken und leistet damit auch ein wichtigen Beitrag

zum Klimaschutz und den Zielen der Bundesregierung zur

Reduktion von CO2-Äquivalentemissionen.

5. Zusammenarbeit mit dem Kooperationspartner

Die Zusammenarbeit mit dem Kooperationspartner Zertifi-

zierung Bau e.V. war sehr konstruktiv. In direkter Zusam-

menarbeit mit der Geschäftsführung fand ein regelmäßiger

Informationsaustausch statt. Gemeinsame Meetings wurden

einmal monatlich veranstaltet.

Quellen

Bundesregierung:

Fortschrittsbericht 2008 zur nationalen Nachhaltigkeitsstra-

tegie. Für ein nachhaltiges Deutschland, Berlin 2008.

B. Stigson, S.P. Babu, J. Bordewijk, P. O‘Donnell, P. Haavisto,

J. Morgan, D.Osborn:

Peer Review der deutschen Nachhaltigkeitspolitik, Berlin

2009.

www.nachhaltigesbauen.de, Oktober 2010

Konferenzteilnahme

Consense, Internationaler Kongress und Fachausstellung für

Nachhaltiges Bauen, Stuttgart 22/23.06.2010.

Veröffentlichungen

Hagner, C.; Kummert, K.:

„Nachhaltigkeit im Bau- und Immobilienmanagement – geht

das?“, Immobilienzeitung, Ausgabe 9/2010, IZ Immobilien

Zeitung Verlagsgesellschaft, Wiesbaden, 3.03.2010.

Kummert, K.; Hagner, C.; Dittmar, A.:

„Nachhaltigkeit im Immobilien- und Facility Management –

ein Bewertungsmodell“, Tagungsband Facility Management

Kongress 2010, Mesago Messe Frankfurt GmbH, Stuttgart

2010, eingereicht Dez. 2009.

Kontakt

Prof. Kai Kummert

Beuth Hochschule für Technik Berlin

Fachbereich IV Architektur und Gebäudetechnik

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 52 08

E-Mail: [email protected]

Kooperationspartner

Firma Zertifizierung Bau e.V.

Geschäftsführung: Dipl.-Ing. Gerhard Winkler

Kooperationspartner: Dr.-Ing. Martin Ponick

Tel.: (030) 20 31 41 22

E-Mail: [email protected]

Fachbereich IV Architektur und Gebäudetechnik

21

Grafik 2: Visualisiertes Ergebnis eines Zertifizierungsprozesses – beispielhaft. Quelle: eigene Darstellung.

Page 22: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Einleitung

Im Rahmen des Forschungsvorhabens wurden zunächst

Kenntnisse über die Trink- und Brauchwasseranalysen ge-

wonnen. Für unzählige Mikroorganismen bietet Trink- und

Brauchwasser optimale Umweltbedingungen, können sich

entsprechend optimal vermehren und dies kann zu Infekti-

onskrankheiten führen. In Trinkwasserlaboren werden routi-

nemäßig bestimmte Analyseverfahren laut Trinkwasser-

verordnung 2001 angewendet. Die Routineverfahren sind

ausnahmslos kulturelle Nachweismethoden, deren Durch-

führung eine Bebrütung über 24 – 48 Stunden erfordert, so

dass Ergebnisse erst nach mehreren Tagen vorliegen. In der

Fachliteratur existieren Publikationen von Schnelltests für

den Nachweis einzelner relevanter Parameter für die Trink-

wasseranalyse. Es fehlen jedoch ganzheitliche Ansätze, die

das Gesamtspektrum in Form von Schnelltests erfassen. Ziel

dieser Forschungsarbeit ist somit die Entwicklung eines

Schnellnachweissystems auf der Grundlage der PCR.

Diese Forschungsarbeit beschränkt sich vorerst auf eine

Auswahl von vier der relevantesten Trinkwasserparametern

(E. coli, Legionella spp., Legionella pneumophila, Clostri-

dium perfringens). Im ersten Teil der Forschungsarbeit

wurde ein einheitliches DNA-Extraktionsverfahren erarbei-

tet. In den darauffolgenden Projektphasen wurden beste-

hende PCR-Systeme aus der Literatur adaptiert, optimiert

und sollen anschließend in einem „ready-to-use“ Format zu-

sammen gefügt werden. Parallel erfolgte zudem die Validie-

rung der einzelnen PCR-Systeme.

2. PCR Grundlagen

Die Idee einer schnellen Nachweismethode für die Reinheit

von Wasser kann mit Hilfe der DNA-Analytik umgesetzt wer-

den. Das Verfahren PCR (Polymerase Kettenreaktion) erklärt

sich anhand der Namensgebung:

· Die DNA-Polymerase ist ein Enzym und ermöglicht die

chemische Verknüpfung von einzelnen DNA-Bausteinen

(Nukleotiden) zu Desoxyribonukleinsäure (DNA).

· CHAIN = Kette

Demnach ist die Polymerasekettenreaktion eine gezielte

DNA – Vervielfältigung in vitro.

DNA ist die Grundlage vieler molekularbiologischer Metho-

den. Desoxyribonukleinsäure besteht zu gleichen Teilen aus

Desoxyribose, einem Kohlenstoffring mit fünf C-Atomen (C5

Zucker), Phosphorsäure und vier verschiedenen organischen

Basen. Diese vier organischen Basen sind die beiden Purin-

basen Adenin und Guanin sowie die beiden Pyrimidinbasen

Cytosin und Thymin. Aus diesen insgesamt 4 Molekülen

(„Nukleotide“) ist die DNA aufgebaut, so dass der DNA-

Strang ein Polynukleotid darstellt. Jeweils 2 Nukleotide sind

über die Phosphatgruppe des einen Nukleotids mit dem

dritten C-Atom der Riboseeinheit des nächsten Desoxyribo-

Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen Krankheitserregern in Trink- und Brauchwässern

22

Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweisvon Parasiten und anderen Krankheitserregern in Trink- und Brauch-wässernDipl.-Ing(FH) Josephine Reiss, Prof. Dr. Herbert WeberKooperationspartner: ifp, Institut für Produktqualität

Die Trinkwasserversorgung der Weltbevölkerung ist außerordentlich wichtig. Hierbei spielt u.a. die Gefährdung einer Ver-

unreinigung mit Mikroorganismen eine wesentliche Rolle, da Bakterien und Parasiten Infektionskrankheiten verursachen

können und somit für die Gesundheit des Menschen von großer Bedeutung sind. Die etablierten traditionellen Nachweis-

methoden sind langwierig und Ergebnisse liegen oftmals erst nach mehreren Tagen vor. Die Entwicklung von innovativen,

molekularbiologischen Nachweissystemen nach dem Prinzip der Polymerase Kettenreaktion (PCR) sollen Trinkwasserana-

lysen deutlich verkürzen und vereinfachen. Mittels der real-time PCR-Analyse wird die DNA von Bakterien und Parasiten

schnell und spezifisch detektiert. Zudem können die Analyten einzeln oder in einer multiplex real-time PCR nachgewiesen

werden.

World population’s supply with drinking water is extremely important as the microbiological conditions play a crucial role.

Infectional deseases caused by bacteria and parasites play a crucial role for the human health nowadays. The established,

traditional detection methods are time-intensive as results are only available after several days. The development of inno-

vative, molecular biological detection systems based on the technology of the Polymerase-Chain-Reaction (PCR) is to

shorten and simplify drinking water analysis significantly. By using the PCR-analysis, the DNA of bacteria and parasites

can be detected rapidly and specifically, and parameters can be analysed in a single-plex as well as multiplex PCR.

Page 23: 9FA Abschlussbericht 2010 Abschlussbericht 2010

semoleküls verknüpft. Die Enden der jDNA-Stränge werden

nach den jeweiligen freien Gruppen der Desoxyribose be-

nannt: das Ende, an dem das dritte C-Atom freiliegt, wird

3´Ende genannt und die Kette wird mit einer freien Hydroxyl-

gruppe abgeschlossen. Am sogenannten 5´Ende, an wel-

chem das fünfte C-Atom des Desoxyribose-Moleküls

freiliegt, liegt eine freie Phosphatgruppe vor (siehe Abbil-

dung. 1) (Knippers, 2001 S. 9 ff ).

2.1 Prinzip der PCR

Die Polymerase Kettenreaktion, kurz PCR (polymerase chain

reaktion) ist eine Methode, welche die DNA-Vervielfältigung

(Amplifikation) in vitro ermöglicht. Das Grundprinzip beruht

auf der natürlichen DNA-Synthese, die in jeder lebenden

Zelle stattfindet. Die entscheidende Substanz hierbei ist das

Enzym Polymerase, sie ermöglicht die Synthese neuer DNA-

Stränge. Ein klassischer PCR-Zyklus ist in drei Teilschritte

untergliedert:

Denaturierung: Auftrennung der DNA-Doppelstränge in

zwei Einzelstränge

Annealing: Anlagerung der sogenannten Primer, Detek-

tion der Zielsequenz

Elongation: Aufbau von neuen komplementären DNA-

Strängen, jeweils zu den Einzelsträngen aus Denaturie-

rung (Verdopplung)

Diese drei Schritte finden bei unterschiedlichen Temperatu-

ren statt und bilden zusammen einen PCR Zyklus, in jedem

Zyklus findet eine theoretische Verdopplung der Ausgangs

DNA statt. Die Zyklen werden parameterabhängig ca. 30 bis

45 mal wiederholt, um genügend DNA Kopien für eine ein-

deutige Detektion zu amplifizieren. (Richter, 2003 S. 150 ff )

3. DNA Extraktion

Für die Durchführung einer Wasseranalyse mittels PCR ist es

notwendig, die gesamte DNA aus einer Wasserprobe zu ge-

winnen. Somit wird für die Analyse eines Probenvolumens

von 100 ml Wasser eine Filtration durchgeführt.

Die Gesamtheit der in der Wasserproben enthaltenen Mikro-

organismen wird auf dem Filter aufgefangen (siehe Abbil-

dung 2).

Als nächster Schritt muss die Zellwand aufgespalten wer-

den. Dies erfolgt enzymatisch, wobei abhängig von den Zell-

eigenschaften der Mikroorganismen unterschiedliche

Enzyme zum Einsatz kommen. Anschließend werden die auf-

geschlossenen Zellen bzw. die freie DNA gewaschen, d.h.

mit einem speziellen Waschpuffer gespült, um mögliche In-

hibitoren zu entfernen. Die freigesetzte DNA wird anschlie-

ßend in ein PCR-Reaktionsgefäß überführt. Für die PCR

Fachbereich V Life Sciences and Technology

23

Abb. 1: Schematische Darstellung der PCR

Abb. 2: Filtration

Page 24: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Analyse werden 12,5 μl von dem DNA-Extrakt mit 12,5 μl

MasterMix zusammengefügt und die DNA - Fragmente in

einem PCR Cycler amplifiziert.

Die Auswertung erfolgt nach ca. 2 Stunden in real-time

(siehe Abbildung 3)

Die real-time PCR mit Sonden ermöglicht sowohl eine online

Verfolgung der Amplifikation als auch eine genaue, quanti-

tative Aussage über die Templatemenge in Anwesenheit

eines Standards. Als Sonden werden Oligonukleotide mit

Fluorophor markierten Enden bezeichnet. Die markierten

Oligonukleotide sind komplementär zu einer Basensequenz

auf dem Amplikon, und geben dadurch bei Anwesenheit des

gewünschten Amplikons ein Signal. Es existieren unter-

schiedliche real-time PCR Systeme, die u.a. auf der Grund-

lage des Fluorescence Resonance Energy Transfer (FRET)

basieren. FRET funktioniert unter der Anwesenheit zweier

Fluorophor Moleküle: einem Reporter und einem Quencher.

Bei einer Anregung mit kurzwelligem Licht emittiert das Re-

porterfluorophor höherwelliges Licht mit einer bestimmten

Wellenlänge. In Anwesenheit eines Quenchers wird die

Emission auf diesen übertragen, was zu einer Emission bei

einer anderen Wellenlänge führt. Dieses Signal wird aufge-

zeichnet und graphisch dargestellt (siehe Abbildung 3). Der

Anstieg der Fluoreszenzkurve beschreibt die Amplifikation

der Ziel - DNA, was einem positiven Befund entspricht.

Für die unterschiedlichen Parameter werden verschiedene

Fluorophore eingesetzt, die Ergebnisse können dann an-

hand der unterschiedlichen Wellenlängen von einander ge-

trennt beurteilt werden.

4. Weiterentwicklung

Die bis hierhin erzielten Ergebnisse ermöglichen eine Verein-

fachung der Trinkwasseranalyse. Allerdings sind für die Ana-

lyse eines ganzheitlichen Spektrums für die Wasserunter-

suchung und eine letztendlich Vereinigung aller Parameter

in einem Testsystem noch Weiterentwicklungen erforderlich.

Ein weiterer wichtiger Forschungsgegenstand ist die Unter-

scheidung von lebenden und toten Zellen. Handelt es sich

bei den in der Probe enthaltenen Keimen um tote Mikroor-

gansimen, so sind diese nicht pathogen. Trotzdem wird die

DNA toter Zellen amplifiziert werden und liefert ein positives

Signal in der PCR. Auf der Grundlage einer bereits veröffent-

lichten Arbeit soll das bestehende System um diese Mög-

lichkeit ergänzt werden. Erste Testreihen hierzu sind bereits

analysiert worden.

5. Zusammenfassung

Die Entwicklung einer einheitlichen Probenextraktion sowie

die Zusammenfassung von mehreren Analysen ermöglicht

eine schnelle und einfache Wasseruntersuchung. Die Vali-

dierung der Einzelsysteme ist noch nicht endgültig abge-

schlossen und ausgewertet. Um die Spezifität zu ermitteln,

wurden die einzelnen Systeme auf Kreuzreaktionen gegen

diverse Fremdparameter getestet. Die diagnostische Spezifi-

tät und Sensitivität werden derzeit ebenfalls anhand von

einem ausführlichen Validierungsplan ermittelt. Dies erfolgt

über einen ausführlichen Vergleich mit den traditionellen

Nachweismethoden.

Aufgrund der guten Zusammenarbeit mit dem Kooperations-

unternehmen ist einem erfolgreichen Projektabschluss posi-

tiv entgegen zu blicken.

Literatur

Richter, G.: Praktische Biochemie, Grundlagen und Techniken

[Buch], Georg Thieme Verlag, Stuttgart, 2003.

Knippers, Rolf: Molekulare Genetik, Georg Thieme Verlag,

S. 9ff, 23–24, Stuttgart, 2001.

Kontakt

Prof. Dr. Herbert Weber

Beuth Hochschule für Technik Berlin

Fachbereich IV Fachbereich III Bauingenieur- und

Geoinformationswesen

Luxemburger Straße 10

Tel.: (030) 45 04 - 28 35

E-Mail: [email protected]

Kooperationspartner

ifp, Institut für Produktqualität

Teltowkanalstr. 2

12247 Berlin

Tel.: (030) 76 68 0

E-Mail: info@produktqualität.com

Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen Krankheitserregern in Trink- und Brauchwässern

24

Abb. 3: Amplifikation plot

Page 25: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Einleitung

1.1 Proteine und Proteomik

Proteine gehören zu den Grundbausteinen aller Zellen. Sie

spielen bei nahezu allen biologischen Prozessen eine wich-

tige Rolle und vermitteln lebensnotwendige Funktionen

einer Zelle. Die Gesamtheit aller Proteine einer Zelle, einer

Organelle oder eines Gewebes zu einem bestimmten Zeit-

punkt, bilden das Proteom. Im Gegensatz zum Genom ist

das Proteom dynamisch und verändert sich ständig. Diese

Änderungen werden über komplexe Regulationsprozesse

gesteuert und können durch äußere Umwelteinflüsse wie

z.B. Krankheiten, Stress oder Medikamente erheblich beein-

flusst werden. Mittels Proteomik können Veränderungen im

Proteom festgestellt werden und zur Aufklärung von Krank-

heiten beitragen [Lot 06; Sch 01].

Zusammensetzung und Aufbau eines Proteoms sind im ge-

netischen Code verschlüsselt. In den ca. 25.000 menschli-

chen Genen ist die Basis für wahrscheinlich über eine

Million unterschiedlicher Proteinmoleküle angelegt, wobei

aus einem Gen oft mehrere Proteine entstehen können. Dies

geht auf unterschiedliche Prozessierung der mRNA, enzyma-

tische Spaltung der nativen Polypeptidkette in mehrere Un-

tereinheiten oder posttranslationale Modifikationen zurück.

Letzteres bedeutet, dass Proteine nach der Proteinbiosyn-

these (Translation) durch Anhängen von funktionellen Grup-

pen weiter in ihrer Struktur und Funktion verändert werden.

Zu der wichtigsten und bekanntesten posttranslationalen

Modifikation gehört neben der Glykosylierung und der

Acetylierung auch die Phosphorylierung [Dun 00; Blo 04].

1.2 Phosphoproteomik

Die reversible Phosphorylierung ist eine der wichtigsten und

am besten untersuchten posttranslationalen Modifikatio-

nen. Phosphorylierung bedeutet, dass eine oder mehrere

Phosphatgruppen mittels Enzymen (Kinasen) auf ein Protein

übertragen werden. Die Bindung der Phosphatgruppe an

eine Aminosäure ist reversibel. Es wird angenommen, dass

etwa ein Drittel der zellulären Proteine phosphoryliert vor-

liegt [Blo 04]. Die Phosphorylierung von Proteinen ermög-

licht den Zellen individuelle Reaktionen und Adaptionen auf

eine Vielzahl sich verändernder Umweltbedingungen, wie z.

B. osmotischen und oxidativen Stress [Kis 01], UV-Strahlung

[Luo 01], Nährstoffmangel [Dea 00] und Wachstumsfaktoren

[Dou 97].

Werden diese Phosphorylierungsprozesse gestört, kann es

zu schweren Krankheiten, wie Alzheimer [Ran 02], Krebs

[Whi 98] oder Diabetes [Ori 09] kommen. In der Phosphopro-

teomforschung werden daher Methoden entwickelt, mit

deren Hilfe Phosphorylierungsstellen an Proteinen bei ver-

schiedenen Krankheiten lokalisiert werden können. Aller-

dings werden Proteine oft nur in sehr geringem Anteil

modifiziert, so dass zunächst die Komplexität der Proteine

einer Probe reduziert werden muss. Voraussetzung hierfür

ist, einen Weg zu finden, mit dem Phosphoproteine schnell

und spezifisch aus dem Proteom angereichert und analy-

siert werden können.

1.3 Zielsetzung

Während des Forschungsprojektes wurden die Grundsteine

für eine neue Methode gelegt, mit deren Hilfe phosphory-

lierte Proteine identifiziert und angereichert werden können.

Die Anreicherung erfolgte mittels chemischer Kopplung.

Hierbei wurden neue Ansätze zu den bereits publizierten ge-

testet und optimiert. Ziel war es, Phosphoproteine zu akti-

Fachbereich V Life Sciences and Technology

25

Methoden zur Identifizierung von posttranslationalen Modifikationen inProteinenDipl.-Ing. (FH) Shireen Weise, Prof. Dr.-Ing. Roza Maria KampKooperationspartner: Proteome Factory AG

Es wurde eine neue Methode zur Identifizierung und Anreicherung von posttranslational phosphorylierten Proteinen ent-

wickelt, die als Biomarker für klinische und diagnostische Zwecke anwendbar sind. Im ersten Schritt erfolgte die Abspal-

tung der Phosphatgruppen über β-Eliminierung und die Anlagerung von DTT. Nach anschließender Modifizierung mit

Biotin können Proteine über Avidin-Affinitätschromatografie angereichert werden. Alle Reaktionsschritte wurden optimiert

und mittels Massenspektrometrie analysiert.

A new method has been developed for the identification and enrichment of posttranslationally phosphorylated proteins,

which are important biomarkers for clinical and diagnostic applications. In a first step the phosphate groups were re-

moved using β-elimination followed by coupling with DTT. Subsequent reaction with biotin enables enrichment by affinity

chromatography using avidin. All steps have been optimised and analysed by mass spectrometry.

Page 26: 9FA Abschlussbericht 2010 Abschlussbericht 2010

vieren und anschließend über eine Säule spezifisch von

unphosphorylierten Proteinen durch Wechselwirkungen mit

der Säule zu trennen. Alle Reaktionsschritte wurden mittels

Massenspektrometrie überprüft und optimiert. Die chemi-

sche Modifizierung phosphorylierter Proteine hat außerdem

den Vorteil, dass sich die Phosphoproteine besser mittels

Massenspektrometrie analysieren lassen. Da die Phosphat-

gruppe labil ist und es während des Messvorgangs sehr oft

zum Verlust der Phosphatgruppen kommt, gewährleistet die

chemische Modifizierung einen zuverlässigen Nachweis.

1.4 Anreicherung von Phosphoproteinen mittels chemi-

scher Kopplung

Um Phosphoproteine anzureichern wurden die phosphory-

lierten Aminosäuren Phosphoserin, Phosphotyrosin und

Phosphothreonin chemisch modifiziert (Abbildung 1). Da die

Phosphatgruppe unter alkalischen Bedingungen labil ist,

wird diese mittels β-Eliminierung abgespalten und durch ein

neues Molekül, wie Biotin, ersetzt. Die Phosphoproteine mit

Biotin zu modifizieren hat den Vorteil, dass sie sich mit Hilfe

von Avidin-Affinitätschromatografie aus komplexen Proben

anreichern lassen. Die angereicherten Proteine werden dann

mittels Gelelektrophorese aufgetrennt, danach aus dem Gel

ausgestochen und nach einem enzymatischen Verdau mittels

Massenspektrometrie analysiert [Oda 01, Gos 01, Ada 01].

Eine detaillierte chemische Reaktion kann der Abbildung 2

entnommen werden. Sie zeigt, wie es im alkalischen Barium-

hydroxid-Milieu (Ba(OH)2) zur β-Eliminierung des Phosphat -

restes an Phosphoserin, Phosphotyrosin oder Phospho -

threonin kommt. Die neugeformte Doppelbindung zwischen

den α und β C-Atomen wird auch Michael-Akzeptor genannt

und reagiert mit dem Nukleophil 1,4-Dithiothreitol (DTT),

Diese Reaktion wird auch Michael-Addition genannt und

führt dazu, dass in einem weiteren Schritt Biotin als Anrei-

cherungsreagenz an das Protein gekoppelt wird. Für die Ver-

suche wurde ein Biotinmaleimid-Reagenz verwendet, da die

Maleimidgruppe an die eingeführte reaktive Thiolgruppe

des DTT binden kann. Die hohe Affinität von Biotin zu Avidin

wird am Ende für die selektive Anreicherung der Phospho-

proteine ausgenutzt. Monomeres Avidin, ein Glykoprotein

aus Hühnereiweiß, ist dabei an eine Säule immobilisiert,

bindet biotinylierte Proteine und trennt diese durch mehr-

maliges Waschen von unbiotinylierten Proteinen.

Die Messungen zur Kontrolle der einzelnen Reaktions-

schritte wurden mit Hilfe der Kooperationsfirma Proteome

Factory AG durchgeführt. Da sich während der chemischen

Reaktionen die Masse der Phosphoproteine um definierte

Werte ändert, wurde durch Aufnahme von Massenspektren

mit dem nanoHPLC gekoppelten Finnigan LTQ-FT Massen-

spektrometer der Firma ThermoFisher (Bremen) die erfolg-

reiche Modifizierung nachgewiesen. Die theoretischen

Massenänderungen sind in Tabelle 1 dargestellt.

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen

26

Abb. 1: Schematische Darstellung der Anreicherung von phosphorylier-ten Proteinen. Bei der β-Eliminierung werden Phosphatgruppen abge-spalten wodurch die Modifizierung der Phosphoproteine mit Biotinermöglicht wird. Das Biotin bindet dann an eine Avidin-Säule, so dassnur die phosphorylierten Proteine aus dem Proteom angereichert werden.

Reaktionsschritt Massenänderung [Da]

ß-Eliminierung -79,97

DTT-Addition + 154,01

Biotin-Addition + 451,19

Tab. 1: Massenänderung während der chemischen Modifizierung

Abb. 2: β-Eliminierung: in Ba(OH)2-Milieu werden die Phosphatgruppen von phosphorylierten Aminosäuren abgespalten. Michael-Addition: die Dop-pelbindung zwischen den α- und β-C-Atomen reagiert mit dem Nukleophil DTT, wodurch eine Thiolgruppe eingeführt wird. Modifizierung: an dieThiolgruppe wird Biotin gebunden und das Protein kann darüber angereichert werden.

Page 27: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Zur Etablierung der Methode wurde zunächst mit dem syn-

thetisch hergestellten Standardphosphopeptid „DIG-

SpESpTEDQAMEDIK“ gearbeitet. Dieses Peptid weist zwei

Phosphorylierungsstellen auf, die in der Sequenz mit einem

kleinen „p“ gekennzeichnet sind. Später wurden zusätzlich

Versuche mit den Phosphoproteinen α- und β-Casein durch-

geführt.

2. Ergebnisse mit dem Standardphosphopeptid

Die Optimierung grundlegender Reaktionsbedingungen

wurde mit dem Standardphosphopeptid „DIGSpESpTEDQA-

MEDIK“ durchgeführt, welches man auch bei einem trypti-

schen Verdau von α-Casein erhält. Das Peptid hat eine

monoisotopische Masse von 1926,68 Da, wobei in der ESI-

Massenspektrometrie die 2-fach protonierte Masse von

964,34 Da gemessen wird. Optimierunsversuche wurden mit

dem Peptid hinsichtlich Reaktionszeit, Reaktionstemperatur

und DTT-Konzentration durchgeführt. Danach erfolgte die

Biotinylierung des Peptids und anschließend die Anreiche-

rung über Avidin-Affinitätschromatografie.

2.1 Optimierung der Reaktionszeit

Das Standardphosphopeptid wurde für die β-Eliminierung

zunächst in MilliQ-Wasser gelöst und mit gesättigter

Ba(OH)2-Lösung versetzt, so dass die Lösung einen pH von

14 aufwies. Danach erfolgte eine Inkubation bei 37 °C und

anschließend, als zweiter Reaktionsschritt, die Zugabe von

DTT, welches ebenfalls bei 37 °C inkubierte. Rückstellproben

wurden zum Stoppen der Reaktion mit Trifluoressigsäure

(TFA) auf einen pH von 2 eingestellt und massenspektrome-

trisch analysiert.

Im ersten Versuch wurde untersucht, wie lan ge die Reaktio-

nen der β-Eliminierung und DTT-Addition durchgeführt wer-

den müssen, um ein zufriedenstellendes Ergebnis zu

erzielen. Es wurde getestet, ob je Reaktionsschritt 30 Minu-

ten bzw. 60 Minuten Reaktionszeit optimal sind. In Tabelle 2

ist der Einfluss der Reaktionszeit gezeigt. Dargestellt sind

hier die extrahierten Ionen-Chromatogramme und Massen-

peaks des Phosphopeptides nach der β-Eliminierung und

nach der DTT-Addition mit dazugehörigen Intensitäten der

Massenpeaks. Die Ionenchromatogramme zeigen die zeitab-

hängige Elution der Peptide während der HPLC, die dem

Massenspektrometer vorgeschaltet ist. Die selektive Mas-

sentrennung des Massenspektrometers wird im Massen-

spektrum dargestellt. Die Intensität der Massenspektren ist

ein Maß für die vorhandene Menge an Peptid in der Probe.

Die Intensitäten zeigen, dass eine Reaktionszeit von 30 Mi-

Fachbereich V Life Sciences and Technology

27

2-fach protonierte

Masse [Da] und Schema des

Peptids

30 Minuten 60 Minuten

Extrahierte Ionenchromato-

grammeMassenspektrum Intensität

Extrahierte Ionenchromato-

grammeMassenspektrum Intensität

-Eli

min

ati

on

964,34

1,45*104 - - -

866,37- - - 8,69*105

na

ch

DT

T-A

dd

itio

n

964,34

4,45*103 - - -

866,37- - - 6,99*104

1020,38

- - - 1,84*105

0 50Time (min)

0

50

10028.2

865 870m/z

0

50

100866.37

866.87

867.37

867.87

0 50Time (min)

0

50

10028.2

866m/z

0

50

100866.37

867.37

Tab. 2: Vergleich der Reaktionszeiten 30 und 60 Minuten während der β-Eliminierung und DTT-Addition

Page 28: 9FA Abschlussbericht 2010 Abschlussbericht 2010

nuten nicht ausreichend ist, um die jeweiligen Reaktions-

schritte durchzuführen. Nach 30 Minuten konnte das phos-

phorylierte Peptid mit einer Intensität von 1,45*104 wieder -

gefunden werden, während das gewünschte unphosphory-

lierte Peptid nicht gefunden wurde. Auch nach weiteren 30

Minuten Reaktionszeit mit DTT, konnten keine Massen des

dephosphorylierten Peptides bzw. des DTT-modifizierten

Peptides gefunden werden. Lediglich die phosphorylierte

Variante fand sich mit einer schwachen Intensität von

4,45*103 wieder. Dies spricht für eine unzureichende Reakti-

onszeit, um die Phosphatgruppen abzuspalten und DTT an

das Peptid zu koppeln.

Ein besseres Ergebnis konnte bei einer Reaktionszeit von 60

Minuten erzielt werden. Nach der ersten 60-minütigen Reak-

tionszeit in Bariumhydroxydlösung wurde die Masse für das

phosphorylierte Peptid nicht mehr gefunden, dafür jedoch

mit einer hohen Intensität von 8,69*105 das gewünschte

β-eliminierte Peptid ohne Phosphatgruppen. Die Versuche

zeigen, dass 60 Minuten Reaktionszeit für die Phosphat-

gruppenabspaltung während der β-Eliminierung optimal

sind. Auch der zweite Reaktionsschritt, die Addition von DTT,

verlief bei einer Reaktionszeit von 60 Minuten günstiger als

bei 30 Minuten. Die Intensität des β-eliminierten Phospho-

peptids ist um ein Zehntel gesunken, dafür konnte eine

hohe Intensität von über 105 für das DTT-modifizierte Peptid

ermittelt werden. Dies zeigt, dass die DTT-Addition mit 60

Minuten bei 37 °C erfolgreich war und der größte Teil von

β-eliminierten Peptiden mit DTT modifiziert wurde.

2.2 Optimierung der Reaktionstemperatur

Die Versuche zur Optimierung der Reaktionszeit wurden

nach Oda [Oda 01] bei 37 °C durchgeführt. Da laut Goshe

[Gos 01] eine Reaktionstemperatur von 55 °C einen positiven

Einfluss auf die Reaktion haben soll, wurde ein vergleichen-

der Versuch durchgeführt. Als Reaktionszeit wurden für die-

sen Versuch 60 Minuten gewählt. Die Ergebnisse sind in

Tabelle 3 aufgelistet.

Die Intensitäten der Massenpeaks zeigen, dass eine Reakti-

onstemperatur von 37 °C günstiger ist, als eine Temperatur

von 55 °C. Das bei 37 °C inkubierte Peptid zeigte eine hö-

here Massenintensität für das β-eliminierte Peptid, sowie

für das DTT-modifizierten Peptid. Das DTT-modifizierten

Peptid konnte bei einer Reaktionstemperatur von 55 °C nicht

gefunden werden. Die Ergebnisse zeigen, dass eine Durch-

führung des Versuches bei 37 °C die Reaktion positiv beein-

flusst.

2.3 Optimierung der DTT-Konzentration

Ein wesentlicher Faktor, der vor der Biotinylierung optimiert

werden musste, war die einzusetzende Menge an DTT. Es

wurde getestet wie hoch der Überschuss an DTT gegenüber

den phosphorylierten Aminosäuren im Standardphospho-

peptid sein muss, um ein optimales Resultat zu erhalten.

Die Durchführung erfolgte bei einer Reaktionstemperatur

von 37 °C und einer Reaktionszeit von je 60 Minuten wäh-

rend der β-Eliminierung sowie der DTT-Addition. Die Daten

der massenspektrometrischen Analyse kann man der Tabelle

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen

28

2-fach protonierte Masse [Da] und

Schema des Peptids

37 °C 55 °C

Extrahierte Ionenchromato-

grammeMassenspektrum Intensität

Extrahierte Ionenchromato-

grammeMassenspektrum Intensität

na

ch

-Elim

ina

tio

n

964,34

- - - - - -

866,378,46*103 4,98*104

na

ch

DT

T-A

dd

itio

n

964,34

- - - - - -

866,378,26*102 4,80*104

1020,38

1,65*105 - - -

0 50Time (min)

0

50

10027.6

866 868m/z

0

50

100866.37

866.87

867.38

867.88

0 50Time (min)

0

50

10027.7

866 868m/z

0

50

100866.37

867.37

0 50Time (min)

0

50

10027.6

866 868m/z

0

50

100866.37

867.37

0 50Time (min)

0

50

10027.6

865m/z

0

50

100866.37

867.37

Tab. 3: Vergleich der Reaktionstemperaturen von 37 °C und 55 °C während der β-Eliminierung und DTT-Addition

Page 29: 9FA Abschlussbericht 2010 Abschlussbericht 2010

4 entnehmen. Es wurde sowohl nach der Masse mit der 2-fa-

chen DTT-Anlagerung, als auch nach der Masse von nur

einer DTT-Anlagerung an das Peptid gesucht.

Die Ergebnisse der Messungen zeigen, dass ein sehr hoher

Überschuss an DTT notwendig war, um zu gewährleisten,

dass sich 2 DTT-Moleküle an die beiden freien Bindungsstel-

len nach der Dephosphorylierung anlagern. Die Tabelle 4

zeigt weiterhin, dass bei geringen DTT-Überschüssen (20-

bzw. 200-fach) kein Peptid mit 2 DTT-Molekülen gefunden

wurde, sondern nur das Peptid mit einer DTT-Anlagerung.

Erst ab einem 500-fachen DTT-Überschuss konnte eine

schwache Intensität von 3,91*103 für die Anlagerung von 2

DTT-Molekülen an das Peptid ermittelt werden. Die gemes-

sene Intensität für die Addition von nur einem DTT-Molekül

lag jedoch um den Faktor 102 höher, weshalb in einem weite-

ren Versuch ein 15.000-facher Überschuss gewählt wurde.

Mit diesem hohen Überschuss an DTT konnte das beste Er-

gebnis erzielt werden. Es wurden in etwa dieselben Intensi-

täten für das Peptid mit der einfachen und zweifachen

Anlagerung von DTT gefunden.

Der Versuch zeigt, dass DTT in sehr hohem Überschuss vor-

liegen muss, damit es zur Anlagerung von zwei DTT-Molekü-

len an die beiden freien Bindungsstellen des Phospho-

peptides kommt. Ein Problem, was sich daraus ergibt, ist

der notwendige Überschuss an Biotin, welches im weiteren

Versuchsablauf dazugegeben werden muss. Da das Biotin

sowohl an freies, wie gebundenes DTT bindet, muss über-

schüssiges DTT vor diesem Reaktionsschritt aus dem Probe-

ansatz entfernt werden.

2.4 Biotinylierung

Die Biotinylierung des Standardphosphopeptids erfolgte

nach der Modifizierung mit DTT. Um störendes, frei vorlie-

gendes DTT aus der Probe zu entfernen, wurde vor der Bioti-

nylierung ein Entsalzungsschritt über eine C18-Säule

vorgenommen. Peptide banden dabei an das unpolare C18-

Säulenmaterial, wurden mit polarem Lösungsmittel (0,1 %

TFA) mehrmals gewaschen, um DTT zu entfernen und da-

nach mit einem unpolarem Lösungsmittel (0,1 % TFA in Ace-

tonitril) von der Säule eluiert. Das Eluat wurde lyophilisiert

und das Peptid in 10 mM HEPES-Puffer resuspendiert. Biotin

wurde in DMSO gelöst, anschließend zu dem Peptid gege-

ben und 2 Stunden bei 37 °C geschüttelt. Die erfolgreiche

Biotinanlagerung wurde massenspektrometrisch analysiert

und ist in Tabelle 5 dargestellt.

Dass die Biotinylierung erfolgreich war, kann man in erster

Linie daran erkennen, dass die Massen des einfach und 2-

fach biotinylierten Peptides mit hohen Intensitäten von über

105 detektiert wurden. Für das 2-fach mit DTT modifizierte

Peptid wurde keine Masse mehr gefunden. Dies zeigt, dass

an alle 2-fach DTT-modifizierten Peptide Biotin binden

konnte. Weiterhin kann Tabelle 5 entnommen werden, dass

auch das Peptid mit der einfachen DTT-Modifizierung in der

Probe vorhanden war. Daraus lässt sich schließen, dass die

Biotinylierung von mehrfach DTT-modifizierten Peptiden

schneller verläuft, als die Biotin-Addition an nur einfach DTT-

modifizierte Peptide.

2.5 Anreicherung biotinylierter Peptide

Das biotinylierte Standardphosphopeptid wurde in einem

weiteren Versuch über eine Avidin-Säule angereichert. Das

Pepid wurde in Avidin-Puffer (200 mM Natriumphosphatpuf-

fer pH 7,2 % CHAPS, 150 mM NaCl) aufgenommen und auf

die äquilibrierte Avidin-Säule aufgetragen. Zur Bindung bio-

tinylierter Peptide an die Säule, wurde diese bei 4 °C für 45

Minuten geschüttelt. Danach wurden überschüssige und un-

gebundene, nicht phosphorylierte Peptide durch mehrmali-

ges Waschen mit Avidin-Puffer und Wasser entfernt. Die

Elution gebundener Peptide von der Säule erfolgte mit 0,1 %

TFA in Acetonitril.

Die Intensitäten der Massenpeaks nach massenspektrome-

trischer Analyse sind in Tabelle 6 zusammengefasst. Gezeigt

sind hier die Intensitäten vor und nach der Anreicherung

biotinylierter Peptide. Die Daten sind sowohl für das 2-fach

biotinylierte Peptid, als auch für das einfach biotinylierte

Peptid dargestellt. Beide Varianten ließen sich nach der An-

reicherung im Eluat nachweisen, was beweist, dass die An-

reicherung erfolgreich war.

Fachbereich V Life Sciences and Technology

29

Intensität der 2-fach protonierten Masse

943,37 Da 1020,38 Da

DTT -Über-

schuss

20-fach 3,11*105 -

200-fach 2,46*106 -

500-fach 5,06*105 3,91*103

15000-fach 4,10*106 1,99*106

Tab. 4: Vergleich des Einflusses von verschiedenen DTT-Konzentrationen.

analysierte Moleküle und Molekülmasse

943,37 Da 1020,38 Da 779,65 Da 981,38 Da

Intensität 4,04*106 - 7,18*105 2,14*105

Extrahierte Ionenchromato-

gramme-

Massenspektrum -

Tab. 5: Ergebnisse nach der Biotinylierung, DTT-modifizierte Peptide wur-den über ihre 2-fach protonierte Massen detektiert, biotinylierte Peptideüber ihre 3-fach protonierte Masse.

Page 30: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Aus den Massenintensitäten ist jedoch auch erkennbar, dass

man während des Anreicherungsprozesses einen Verlust an

biotinylierten Peptiden zu verzeichnen hatte. Dabei fällt auf,

dass der Verlust an einfach biotinylierten Peptiden höher

war als der Verlust an 2-fach biotinylierten Peptiden. Die In-

tensität der Massenpeaks war nach der Anreicherung beim

einfach biotinylierten Peptid um circa das 40-fache geringer

als vor der Anreicherung. Die Intensität des 2-fach biotiny-

lierten war nach Anreicherung nur um das 7-fache geringer.

Dies weist darauf hin, dass Peptide mit mehreren Biotin-

gruppen besser an die Säule binden, da sie eine höhere Affi-

nität zum Avidin besitzen.

Dass es zu einem Verlust an biotinylierten Peptiden während

der Anreicherung kam, könnte an ungebundenem Biotin ge-

legen haben. Frei vorliegendes Biotin konkurriert mit bioti-

nylierten Peptiden um freie Bindungsplätze der Avidin-

Säule. Liegt Biotin in hohem Überschuss vor, belegt es zu

viele Bindungsstellen auf der Säule und verhindert dadurch

die Bindung der Peptide.

Um zu überprüfen, ob zu viel überschüssiges Biotin wäh-

rend der Anreicherung vorlag, wurden die Massenintensitä-

ten von Biotin und dem Biotin-DTT-Komplex vor und nach

der Anreicherung bestimmt. Die Ergebnisse dazu sind in Ta-

belle 7 dargestellt.

Die Tabelle 7 zeigt, dass vor der Avidin-Anreicherung Biotin

frei in der Probe vorlag, denn es ließ sich mit einer Massen-

intensität von über 105 detektieren. Auch überschüssiges

DTT lag vor der Anreicherung in der Probe vor, da Massen

des Biotin-DTT-Komplexes gemessen wurden. Freies DTT

verfügt über zwei reaktive Thiolgruppen, mit denen das Bio-

tinmaleimid reagiert. Wird freies DTT nicht aus dem Ver-

suchsansatz entfernt, muss dementsprechend mehr Biotin

zur Probe zugegeben werden, damit gewährleitet wird, dass

sich Biotin nicht nur an das freie DTT anlagert, sondern auch

an DTT-modifizierte Peptide. Der Biotin-DTT-Komplex hatte

vor der Avidin-Anreicherung eine Massenintensität von über

107 und liegt damit sogar über der Intensität der biotinylier-

ten Peptide (Vergleich Tabelle 6).

Auch nach dem Anreicherungsversuch ließen sich die bei-

den Biotin-Moleküle mit Intensitäten nachweisen, die im

Vergleich zu den gemessenen biotinylierten Peptiden (Ver-

gleich Tabelle 6) höher waren und dafür sprechen, dass auch

sie angereichert wurden.

Die Messergebnisse weisen schließlich darauf hin, dass vor

dem Anreicherungsschritt zu viel an DTT und Biotin in der

Probe vorlag, und dass die beiden Substanzen in ihrer

hohen Konzentration die Anreicherung der biotinylierten

Peptide wahrscheinlich beeinträchtigt haben. Da hohe Mas-

senintensitäten des Biotin-DTT-Komplexes gemessen wur-

den, kann man davon ausgehen, dass überschüssiges DTT

mittels C18-Entsalzung nicht ausreichend aus der Probe ent-

fernt wurden.

In weiteren Versuchen sollte daher ein Weg gefunden wer-

den, zunächst DTT vollständig vor der Biotinylierung aus der

Probe zu entfernen. Wie die Versuche gezeigt haben, ist eine

Entsalzung über C18-Material dafür nicht geeignet. Besser

geeignet wäre eine Dialyse mit einer Membran die eine Aus-

schlussgrenze von maximal 500 Da besitzt, so dass nur DTT

mit einem Molekulargewicht von 154 Da aus der Probe ent-

fernt wird. Wird später auf Proteinebene gearbeitet, kann al-

ternativ auch eine TCA- oder Aceton-Fällung der Proteine

durchgeführt werden.

Ist DTT aus der Probe entfernt, kann Biotin in geringeren

Konzentrationen beim Biotinylierungsschritt eingesetzt wer-

den, die Anreicherung der biotinylierten Peptide wird nicht

mehr gestört und die Ausbeute an angereicherter Phospho-

petiden steigt.

3. Ergebnisse mit den Phosphopeptiden von α-

und β-Casein

Weitere Versuche wurden mit den Phosphoproteinen α- und

β-Casein durchgeführt, die laut der Datenbank UniProt

Knowledgebase (http://www.uniprot.org) 8 bzw. 5 Phospho-

rylierungstellen besitzen. Nach dem die Proteine tryptisch

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen

30

Molekül vor der Avidin-Anreicherung Molekül nach der Avidin-Anreicherung

779,65 Da 981,38 Da 779,65 Da 981,38 Da

Intensität 7,18*105 2,14*105 1,67*104 3,20*104

Extrahierte Ionenchromato-

gramme

Massenspektrum

Tab. 6: Ergebnisse zur Anreicherung der biotinylierten Peptide, die Pep-tide wurden über ihre 3-fach protonierte Masse detektiert.

Molekül vor der Avidin-Anreicherung Molekül nach der Avidin-Anreicherung

Biotin452,19 Da

Biotin-DTT 1057,39 Da

Biotin452,19 Da

Biotin-DTT 1057,39 Da

Intensität 4,94*105 2,18*107 1,68*104 7,33*106

Extrahierte Ionenchromato-

gramme

Massenspektrum

Tab. 7: Überprüfung des freien Biotingehalts vor und nach Anreicherungder Probe, die Moleküle wurden über ihre einfach protonierte Masse de-tektiert.

Page 31: 9FA Abschlussbericht 2010 Abschlussbericht 2010

verdaut wurden, erhielt man phosphorylierte Peptide (in Ta-

belle 8 aufgelistet), sowie unphosphorylierte Peptide.

Mit der Massenspektrometrie konnten nicht alle der in Ta-

belle 8 gezeigten Phosphopeptide analysiert werden, da das

Massenspektrometer hauptsächlich Massen in einem Be-

reich von 400 bis 1500 Da präzise bestimmen konnte. Da

sich die Molekülmasse während der Modifizierung erhöhte,

konnten besonders die großen Phosphopeptide nicht analy-

siert werden.

Der tryptische Verdau der Caseine ergab durch Fehlspaltung

je ein zusätzliches Peptid, welches massenspektrometrisch

analysiert werden konnte, diese sind in Tabelle 8 mit „Fehl“

gekennzeichnet. Mit den Phosphopeptiden der beiden Ca-

seine wurden verschiedene Puffer bei der Biotinylierung und

die Trennung von phosphorylierten Peptiden mittels Avidin-

Anreicherung untersucht und optimiert.

3.1 Optimierung der Biotinylierung mit α-Casein-

Peptiden

Nachdem optimale Reaktionsbedingungen zur β-Eliminie-

rung und DTT-Addition mit Hilfe des Standardphosphopepti-

des ermittelt wurden, wurde der Biotinylierungsschritt mit

phosphorylierten α-Casein-Peptiden optimiert.

Zunächst wurden die Phosphopeptide über Metall-Affinität-

schromatografie angereichert. Diese Anreicherungsmethode

wurde von vorhergehenden Forschungsassistenten, in be-

reits abgeschlossenen Projekten, sehr gut etabliert [Leh 06,

Ste 08]. Angereicherte Phosphopeptide wurden dann che-

misch mit DTT modifiziert und massenspektrometrisch ana-

lysiert. Es sollte anschließend getestet werden, ob für die

Biotinylierung der Peptide HEPES- oder Harnstoff-Puffer

besser geeignet ist. Dazu wurden die Peptide zum einen in

10 mM HEPES-Puffer und zum anderen in Harnstoff-Puffer

(8 M Harnstoff, 5 mM EDTA, 50 mM NaOAc, 5 % Aceton) ge-

löst, mit Biotin versetzt und anschließend 2 Stunden bei

37 °C geschüttelt. Die Ergebnisse der massenspektrometri-

schen Analysen sind in Tabelle 9 zusammengefasst.

Die Intensitäten der Massenpeaks zeigen, dass der Harn-

stoff-Puffer die Biotin-Addition eher begünstigt als der

HEPES-Puffer. Vor dem Biotinylierungsschritt konnten für

die DTT-modifizierten Peptide Massenintensitäten von über

105 detektiert werden. Nach der Biotinylierung konnten

diese Peptide in beiden Puffern nicht mehr gefunden wer-

den, was zeigt, dass sie vollständig biotinyliert wurden.

Die gemessenen Massenintensitäten von den in Harnstoff-

Puffer biotinylierten Peptiden lagen letztlich höher, als die

der Peptide die in HEPES-Puffer biotinyliert wurden. Ein Bio-

tin-markiertes Peptid ließ sich sogar nur nach Modifizierung

in Harnstoff-Puffer nachweisen. Das 2-fach biotinylierte Pep-

tid wurde bei beiden Versuchen nicht gemessen.

Da der Harnstoff-Puffer chaotrope Eigenschaften besitzt,

wird die Löslichkeit von Proteinen erhöht und ihre Denatu-

rierung gefördert. Somit begünstigt er wahrscheinlich eher

die Biotin-Addition, als der HEPES-Puffer.

3.2 Anreicherung biotinylierter Peptide

Die Anreicherung biotinylierter Peptide wurde mit tryptisch

verdautem α- und β-Casein getestet. Von β-Casein wurde

vorher eine Metall-Affinitäts-Anreicherung der Phosphopep-

tide durchgeführt. Die Phosphopeptide von α-Casein wur-

den ohne vorherige Anreicherung biotinyliert, so dass hier

zusätzlich auch unphosphorylierte Peptide in der Probe vor-

handen waren.

Die biotinylierten Peptide wurden, wie unter Kapitel 2.5 be-

schrieben, über eine Avidin-Säule angereichert. Die Massen-

intensitäten wurden vor und nach der Anreicherung

Fachbereich V Life Sciences and Technology

31

Monoiso-topische

Masse [Da]

2-fach protonierte Masse [Da]

Peptid-Sequenz

-Casein

2719,91 1360,95 QMEAESpISpSpSpEEIVPNSpVEQK

1926,68 964,34 DIGSpESpTEDQAMEDIK

1950,94 976,47 YKVPQLEIVPNSpAEER (Fehl)

1659,79 830,89 VPQLEIVPNSpAEER

768,34 385,17 VNELSpK

-Casein

2966,16 1031,41 ELEELNVPGEIVESpLSpSpSpEESITR

2431,04 1216,52 IEKFQSpEEQQQTEDELQDK (Fehl)

2060,82 1483,58 FQSpEEQQQTEDELQDK

Tab. 8: Phosphopeptide von α- und β-Casein nach tryptischem Verdaumit ihren monoisotopischen und 2-fach protonierten Molekülmassen, p-Phosphorylierungsstelle, Fehl-Fehlspaltung.

Masse [Da] Schema des PeptidsIntensität

HEPES-Puffer Harnstoff-Puffer

vor Biotinylierung

943,37 3,83*105 4,01*105

1020,38 2,16*105 2,73*105

858,91 1,06*106 1,46*106

1004,49 5,23*106 4,17*105

nach Biotinylierung

943,37 - -

1020,38 - -

858,91 - -

1004,49 - -

779,65 1,27*105 1,49*105

981,38 - -

723,38 - 5,00*104

820,38 1,60*105 3,09*105

Tab. 9: Vergleich von HEPES- und Harnstoff-Puffer während der Biotiny-lierung von Phosphopeptiden von α-Casein, DTT-modifizierte Peptidewurden über ihre 2-fach protonierte Masse detektiert und biotinyliertePeptide über ihre 3-fach protonierte Masse.

Page 32: 9FA Abschlussbericht 2010 Abschlussbericht 2010

bestimmt. Bei α-Casein wurden zusätzlich zu den Massen

der Phosphopeptide auch die Massen unphosphorylierter

Peptide überprüft. Zu erwarten war hierbei, dass sie nach

der Anreicherung nicht mehr in der Probe gemessen werden,

da sie nicht mit angereichert werden können.

In Tabelle 10 sind die Intensitäten der Massenpeaks aufge-

listet. Die Ergebnisse zeigen, dass nach der Anreicherung

alle biotinylierten Peptide wiedergefunden wurden. Zwei

biotinylierte Peptide von α-Casein, die vor der Anreicherung

nicht in der Probe gemessen wurden, konnten nach der An-

reicherung nachgewiesen werden. Dies zeigt, dass diese

beiden Peptide durch die Anreicherung in der Probe konzen-

triert wurden und danach in größerer Menge vorhanden

waren. Bestätigt wird das auch durch das Fehlen unphos -

pho rylierter α-Casein-Peptide nach der Anreicherung. Wäh-

rend vor der Anreicherung vier unphosphorylierte Peptide

vorhanden waren, ließen sich diese nach der Anreicherung

nicht mehr bestimmen.

Dass es während der Anreicherung zu Verlusten an biotiny-

lierten Peptiden kam, ist wahrscheinlich auf zu hohe Konzen-

tration an DTT und Biotin in der Ausgangsprobe zurück -

zuführen, wie auch schon in Kapitel 2.5 beschrieben.

4. Biotinylierung auf Proteinebene

Dass die Biotinylierung und Anreicherung von Phosphopep-

tiden gut funktioniert, konnte mit den vorherigen Versuchen

gezeigt werden. Um zu überprüfen, ob sich ähnlich gute Er-

gebnisse auch auf Proteinebene erzielen lassen, wurde

hierzu ein Versuch mit unverdautem α-Casein durchgeführt.

Modifizierung und Biotinylierung von α-Casein wurde unter

den gleichen Bedingungen, wie bei den Peptiden durchge-

führt. Auch hier wurde ein vergleichender Versuch zur Bioti-

nylierung in HEPES- und Harnstoff-Puffer gemacht, wobei

sich, wie unter 3.2 schon vermutet, herausstellte, dass

Harnstoff-Puffer bei der Biotinmodifizierung auch auf Pro-

teinebene günstiger war (Ergebnisse dazu sind nicht darge-

stellt). Nach der Biotinylierung in Harnstoff-Puffer wurde das

Protein tryptisch verdaut und massenspektrometrisch analy-

siert.

Tabelle 11 stellt die Ergebnisse der Massenspektrometrie-

Analyse nach dem Biotinylierungsschritt dar. Die ermittelten

Massenintensitäten zeigen, dass eine Biotinylierung auf Pro-

teinebene teilweise funktioniert hat. Massen von nur mit

DTT-modifizierten Peptiden konnten bis auf eine, nicht de-

tektiert werden, da sich Biotin erfolgreich an DTT angelagert

hat. Die Massen für zwei biotinylierte Peptide wurden mit In-

tensitäten von über 104 gemessen. Die beiden anderen bioti-

nylierten Peptide wurden nicht detektiert. Da für diese

beiden Peptide auch keine Massen der DTT-modifizierten

Derivaten gemessen wurde, ist es möglich, dass sie trotz-

dem biotinyliert wurden und erst, wie in Kapitel 3.2 gezeigt,

durch die Avidin-Anreicherung detektierbar wären.

5. Zusammenfassung und Ausblick

Die Ergebnisse zeigen, dass grundlegende Reaktionsbedin-

gungen für die chemische Modifizierung von phosphorylier-

ten Peptiden und ihre anschließende Anreicherung optimiert

wurden.

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen

32

Masse [Da] Schema des Peptids

Massenintensität

Vor der Avidin-Anreicherung

nach der Avidin-Anreicherung

-CaseinPhospho-peptide

779,65 - 1,65*104

981,38 - 7,91*103

723,38 1,81*105 1,46*106

820,38 2,07*105 4,17*105

-Caseinunphosphory-lierte Peptide

669,34 HIQKEDVPSER 4,99*104 -

634,35 YLGYLEQLLR 4,04*104 -

880,47 HQGLPQEVLNENLLR 7,07*103 -

692,86 FFVAPFPEVFGK 1,08*105 -

-Casein

857,02 8,38*105 1,45*105

980,42 2,70*104 1,57*103

Tab. 10: Ergebnisse zur Anreicherung der biotinylierten Phosphopeptidenvon α- und β-Casein, biotinylierte Peptide wurden über ihre 3-fach proto-nierte Masse detektiert und unphosphorylierte Peptide von α-Caseinüber ihre 2-fach protonierte Masse.

Masse [Da] Schema des Peptids IntensitätExtrahierte Ionen-chromatogramme Massenspektrum

943,37 - - -

1020,38 - - -

858,91 4,10*104

1004,49 - - -

779,65 - - -

981,38 - - -

723,38 1,46*104

820,38 2.43*104

Tab. 11: Biotinylierung von unverdautem α-Casein in Harnstoff-Puffer,DTT-modifizierte Peptide wurden über ihre 2-fach protonierte Masse detektiert und biotinylierte Peptide über ihre 3-fach protonierte Masse.

Page 33: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Die Reaktionsbedingungen zur β-Eliminierung und anschlie-

ßender DTT-Addition wurde mit Hilfe des Standardphospho-

peptids „DIGSpESpTEDQAMEDIK“ hinsichtlich Reaktions -

zeit, Reaktionstemperatur und DTT-Überschuss optimiert. Es

wurde gezeigt, dass Biotin sehr gut an das DTT-modifizierte

Peptid bindet und dass das biotinylierte Peptid anschließend

erfolgreich über eine Avidin-Säule angereichert wurde.

Weitere positive Ergebnisse wurden bei der Biotinylierung

und Anreicherung von Phosphopeptiden der Proteine α- und

β-Casein erzielt. Es wurde nachgewiesen, dass sich Phos-

phopeptide von unphosphorylierten Peptiden trennen lassen.

Dass auch auf Proteinebene eine Biotinylierung funktioniert,

wurde am Beispiel von α-Casein gezeigt.

In weiteren Versuchen sollte die Entfernung von DTT vor der

Biotinylierung und die Biotin-Entfernung vor der Anreicherung

mittels Avidin-Affinitätschromatografie der Phosphopeptide

optimiert werden. Anschließend könnte die Anreicherung

phosphorylierter Proteine aus komplexen Proben, wie Hefe-

proteomen und Mausproteomen durchgeführt werden.

Sind die Methoden für komplexe Proben etabliert, kann die

Modifizierung der Phosphoproteine mit Hilfe des Biotin -

gekoppelten MeCAT®-Reagenzes der Proteome Factory AG

erfolgen. Über den Biotinteil des Reagenzes kann die Anrei-

cherung der Phosphoproteine mittels Avidin-Säule erfolgen.

MeCAT® ermöglicht zusätzlich die differentielle Markierung

von Proteinen und Proteingemischen, um Proteome von 2

oder mehr unterschiedlichen Proben quantitativ zu verglei-

chen. Dafür werden die Proben mit leichten bzw. schweren

MeCAT®-Reagenzien markiert und die Proteine über Flüssig-

chromatographie getrennt. Mittels ICP-MS ist dann die Ab-

solutquantifizierung und mittels ESI-MS oder MALDI-MS die

Identifikation der Proteinen möglich.

Literatur

[Ada 01] Adamczyk, M., et al.: Selective analysis of

phosphopeptides within a protein mixture by

chemical modification, reversible biotinylation

and mass spectrometry, Rapid Communications

in Mass Spectrometry 15(16): S. 1481 – 1488,

2001.

[Blo 04] Blom, N.: Prediction of post-translational glyco-

sylation and phosphorylation of Proteins from

the amino acid sequence, Proteomics 4,

S. 1633 – 1649, 2004.

[Dea 00] Dean, D. J. and G. D. Cartee: Calorie restriction

increases insulin-stimulated tyrosine phospho-

rylation of insulin receptor and insulin receptor

substrate-1 in rat skeletal muscle, Acta Physiol

Scand 169, S. 133 – 139, 2000.

[Dou 97] Douville, E. and J. Downward: EGF induced SOS

phosphorylation in PC12 cells involves P90

RSK-2, Oncogene 15, S. 373 – 383, 2000.

[Dun 00] Dunn, M. J.: Genome to Proteome – Advances in

the Practice and Application of Proteomics,

Wiley-VCH, Weinheim, 2000.

[Gos 01] Goshe, M. B., et al.: Phosphoprotein Isotope-

Coded Affinity Tag Approach for Isolating and

Quantitating Phosphopeptides in Proteome-

Wide Analyses, Anal. Chem. 73(11): S. 2578 –

2586, 2001.

[Kis 01] Kishi, H., et al.: Osmotic shock induces G1 ar-

rest through p53 phosphorylation at Ser33 by

activated p38MAPK without phosphorylation at

Ser15 and Ser20, J Biol Chem 276, S. 39115 –

39122, 2001.

[Leh 05] Lehmann, K. and R. M. Kamp: Proteomics- An-

reicherung von Phosphoproteinen,

Forschungsberichte der Technische Fachhoch-

schule Berlin, S. 114 – 116, 2005.

[Lot 06] Lottspeich, F.:Bioanalytik, Spektrum Akademi-

scher Verlag, 2006.

[Luo 01] Luo, Z., et al.: Ultraviolet radiation alters the

phosphorylation of RNA polymerase II large

subunit and accelerates its proteasome-depen-

dent degradation, Mutat Res 486, S. 259 – 274,

2001.

[Oda 01] Oda, Y., et al.: Enrichment analysis of phospho-

rylated proteins as a tool for probing the phos-

phoproteome, Nat Biotech 19(4): S. 379 – 382,

2001.

[Ori 09] Oriente, F., et al.: Overproduction of phospho-

protein enriched in diabetes (PED) induces me-

sangial expansion and upregulates protein

kinase C-β activity and TGF-β1 expression, Dia-

betologia 52(12): S. 2642 – 2652, 2009.

[Ran 02] Rank, K. B., et al.:Direct interaction of soluble

human recombinant tau protein with Aβ 1-42

results in tau aggregation and hyperphosphory-

lation by tau protein kinase II. FEBS Lett. 514

(2 – 3): S. 263 – 268, 2002.

[Sch 01] Schrattenholz, A.: Methoden der Proteomfor-

schung, Spektrum Akademischer Verlag, 2001

[Ste 08] Stephani-Kosin, K. and R. M. Kamp: Proteomics

– Anreicherung von phosphorylierten Protei-

nen. Methoden in der biomedizinischen Ana-

lyse, Forschungsberichte der Technische

Fachhochschule Berlin, S. 67 – 70, 2008.

[Whi 98] White, R. L.: Tumor suppressing pathways, Cell

92(5): S. 591 – 592, 1998.

Fachbereich V Life Sciences and Technology

33

Page 34: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Kontakt

Prof. Dr.-Ing. Roza Maria Kamp

Beuth Hochschule für Technik Berlin

FB V Life Sciences and Technology - Forum Seestraße

Seestraße 64

13347 Berlin

Tel.: (030) 45 04 - 39 23

E-Mail: [email protected]

Kooperationspartner

Proteome Factory AG

Dr.-Ing. Christian Scheler

Magnusstr. 11

12489 Berlin

Tel.: (030) 20 61 - 62 65

Fax: (030) 20 61 - 62 65

E-Mail: [email protected]

Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen

34

Page 35: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Einleitung

Ein Text-to-Speech(TTS)-System ist ein Softwaresystem, wel-

ches elektronisch vorliegende Texte in gesprochene Sprache

umsetzt. Einsatzgebiete sind zum Beispiel Vorlesesysteme

für Sehbehinderte, Sprechhilfen für Sprechbehinderte oder

automatische Informationssysteme mit Möglichkeiten zur

Audiokommunikation.

Bei der Generierung der Sprachsignale kommen dabei un-

terschiedliche Methoden zur Anwendung, die von der Wie-

dergabe kompletter Aufzeichnungen bis zur vollständig

künstlichen Synthese der Laute reichen. Im Rahmen langjäh-

riger Forschungsarbeit wurde von Prof. Mixdorff ein Text-to-

Speech-Sprachsynthesesystem (TFHTTS) entwickelt,

welches auf der Verkettung von aufgezeichneten Sprachbau-

steinen (Diphon-Synthese) basiert und dessen Kernaspekt

die Generierung von Steuerungsdaten hierfür ist. Im Rah-

men der Forschungsassistenz wurde es gemäß Industrie-

standards verbessert und erweitert.

Das System ist multilingual aufgebaut und wurde für die

Sprachen Deutsch, Englisch, Französisch und Italienisch ein-

gerichtet. Weitere Sprachen lassen sich zukünftig in einfa-

cher Weise durch Erstellen entsprechender Spezifikationen

hinzufügen.

Für die Generierung der Steuerdaten ist zunächst eine lin-

guistische Vorverarbeitung erforderlich, welche eine phone-

tische Transkription des vorliegenden Textes erzeugt.

Aufbauend auf dieser mit Transkription werden zunächst die

Dauern der einzelnen Laute (Phoneme) sowohl über Regeln,

als auch über ein künstliches neuronales Netz berechnet.

Abschließend wird die Sprachmelodie (Grundfrequenzkon-

tur) algorithmisch über ein Intonationsmodell bestimmt und

die Ausgabe über das freie Sprachsynthesesystem MBROLA

(Dut96) realisiert.

Zur Umsetzung des Forschungsvorhabens wurde der Groß-

teil des vorhandenen Projekts objektorientiert und weitest-

gehend plattformunabhängig in der Programmiersprache

C++ reimplementiert, in seiner Funktionalität verbessert und

erweitert. Zielstellung war neben einer komplett Unicode-fä-

higen Verarbeitung (UNC10) auch eine wesentlich bessere

Trennung von Steuerungsdaten und Programmcode. Zugrun-

delegendes Interesse seitens der Hochschule war vor allem

ein transparentes und gut dokumentiertes Design, welches

den Einsatz im Unterricht frei von kommerziellen Lizenzen

anschaulich ermöglicht und die Weiterentwicklung des Soft-

wareprojekts nebst relevanter Forschung über den Zeitraum

der Forschungsassistenz hinaus sicherstellt.

Bei der Kooperation mit der voice INTER connect GmbH

wurde vor allem auf eine bessere linguistische Analyse des

Textes und einer damit einhergehenden Verbesserung der

Ausgaben der Vorverarbeitung Wert gelegt. Dafür wurde

unter anderem eine XML-Schnittstelle spezifiziert und imple-

mentiert, die den reibungslosen Austausch der Vorverarbei-

tungsergebnisse zwischen hochschuleigenem Code und

Software seitens des Kooperationspartners ermöglicht.

Zusätzlich wurden eine Reihe von Problemfällen, beispiels-

weise bei der automatischen Satztendeerkennung katalogi-

siert und pragmatische Entscheidungen über die

gewünschte Vollständigkeit der Lösungen getroffen.

2. Stand der Entwicklung zu Beginn des Projekts

Ausgangspunkt war ein bedingt lauffähiges Softwareprojekt

Fachbereich VI Informatik und Medien

35

Weiterentwicklung eines SprachsynthesesystemsDipl.-Ing. Andreas Hilbert, Prof. Dr. Hansjörg MixdorffKooperationspartner: voice INTER connect GmbH

Ein Text-to-Speech-System ist ein Softwaresystem, welches elektronisch vorliegende Texte in gesprochene Sprache um-

setzt. Im Rahmen langjähriger Forschungsarbeit wurde von Prof. Mixdorff ein solches System entwickelt. Kernaspekt des

Systems ist die Generierung von Steuerungsdaten für eine akustische Sprachsynthese, welche hierbei auf der Verkettung

von aufgezeichneten Sprachbausteinen (Diphone) basiert. Im Rahmen einer Forschungsassistenz wurde dieses System an

aktuelle Standards angepasst und erweitert.

A Text-to-Speech-System is a software system that generates spoken language out of electronically available text. During

long lasting research Prof. Dr. Mixdorff developed such system which focuses on the generation of control data for the

acoustic synthesis which in this case is based on the concatenation of pre-recorded pieces of real speech signals (di-

phones). In the course of the project Forschungsassistenz V the software system has been further developed and adjusted

to meet current standards of software technology.

Page 36: 9FA Abschlussbericht 2010 Abschlussbericht 2010

(Text-to-Speech-System der Technischen Fachhochschule

Berlin, TFHTTS), welches sehr stark prozedural geprägt war.

Es handelte sich jedoch bereits um ein multilingual nutzba-

res Programm, welches dank späterer Erweiterungen bereits

den MBROLA-Diphon-Synthesizer (MBR05) ansprechen

konnte.

Im Urzustand beschränkte sich die gesamte Prozesskette

auf eine erweiterte ASCII-Zeichenverarbeitung. Das Projekt

war bereits modular aufgebaut, was durch eine Abgrenzung

nach Funktionsblöcken und entsprechende Funktionsschnitt-

stellen realisiert wurde. Der entsprechende Aufbau ergibt

sich aus pragmatischen Überlegungen in Analogie zur

menschlichen Sprachproduktion, beinhaltet aber durch sein

lineares Design kaum Möglichkeiten für Rückkopplungen. In

Anlehnung an Verbmobil (Bub99, Ver99) basierten sämtliche

Schnittstellen auf in den Textzeichenstrom eingefügte Zu-

satzinformationen.

Die in Abbildung 1 dargestellten Module bewältigen die im

Folgenden genannten Aufgaben:

Textformatierung: Einteilung der Zeichen des Textes in

Gruppen(Buchstaben, Ziffern etc.), Behandlung von Son-

derzeichen und möglichen Textgrenzen, Weiterreichen

von Zusatzinformationen über ein eigenes Schnittstel-

lenformat.

Vorverarbeitung: Kennzeichnung von Textelementen und

deren Grenzen, Zahlformatkonvertierung und Transfor-

mation von Großbuchstaben.

Graphem-zu-Phonem-Umsetzung(GPU): Kontext- und

sprachabhängige phonetische Transkription der Textele-

mente einschließlich Zusatzinformationen wie Silbenak-

zente und Wortart.

Phonetische Nachbearbeitung: Disambiguierung der

Wortart, eventuelle Akzentmodifikationen, Behandlung

von Liaison im Französischen, Hinzufügen gewichteter

Phrasengrenzen.

Lautdauerberechnung: Dauerberechnung für jedes Pho-

nem nach Regeln von Klatt und Kohler bzw. ein künstli-

ches Neuronales Netz.

Grundfrequenzberechnung: Berechnung der Sprachme-

lodie (Grundfrequenz-/F0-Kontur) und Zuordnung zu den

entsprechenden Phonemen anhand des Fujisaki-Intona-

tionsmodells (Mix02).

Das Projekt ist als dynamische Programmbibliothek konzi-

piert und bedient sich einer mittlerweile veralteten Version

der Microsoft-Speech-API (Speech Application Programming

Interface Version 3).

Ein essentieller Aspekt der Softwareumstellung war es,

neue Algorithmen zur Auswertung der vorliegenden Wörter-

bücher, Regeln und Grammatiken zu entwerfen, da diese

nicht im Quellcode vorlagen und somit eine Anpassung an

das neu zu verwendende Unicode-Textformat nicht möglich

war. Dies stellt außerdem sicher, dass die Programmquellen

zukünftig für jedermann transparent sind und somit ausbau-

fähig bleiben.

3. Umsetzung

Im Folgenden werden exemplarisch Vorhaben geschildert,

die während der Forschungsassistenz umgesetzt werden

konnten. Aufgrund der Fülle der implementierten Funktiona-

lität wird im Einzelnen nur auf die neu entworfenen Text-

und Wörterbuchklassen und die Dauerbewertung durch ein

künstliches neuronales Netz näher eingegangen. In Anleh-

nung an das Vorhaben eine Lehrsoftware zu schaffen, wurde

das alte Projekt TFHTTS in „ttsKit“ umbenannt.

3.1 Linguistische Vorverarbeitung

Für die Generierung von natürlich klingender Sprache ist es

unumgänglich, die Struktur eines vorliegenden Textes zu

analysieren und ihn zunächst in seine relevanten Bestand-

teile zu gliedern, um daraufhin die nötigen Informationen zu

gewinnen, welche Aussprache, lokale Geschwindigkeit und

Sprachmelodie beeinflussen. Ausgehend von den Modulen,

Weiterentwicklung eines Sprachsynthesesystems

36

Abb. 1: Textgliederung

Abb. 2: Strukturübersicht

Page 37: 9FA Abschlussbericht 2010 Abschlussbericht 2010

die im alten System unter Formatierung und Vorverarbeitung

zusammengefasst sind, wurde in Übereinstimmung mit dem

Kooperationspartner beschlossen, die gesamte Vorverarbei-

tung neu zu entwickeln und entsprechend zu implementie-

ren. Zum Einsatz kamen dabei universelle Containerklassen

der C++ Standard Template Library(STL).

Ausgegangen wurde dabei von einer hierarchischen Text-

struktur, die beginnend von einem Element der Klasse Text

eine Liste mit Elementen der Klasse Satz enthält. Diese ent-

halten dann weiterführend jeweils Listen mit Elementen der

Klassen Phrase, Phrasenelement, Wort, Silbe und Phonem.

Abbildung 2 gibt einen Überblick über die angedachte Text-

zerlegungsstruktur, die sich in dieser Weise auch in der pro-

gramminternen Repräsentation der Textklasseninstanzen

wiederfindet.

Bezüglich der Unicode-Verarbeitung wurde mit der IBM-Bi-

bliothek ICU (ICU10) ein geeignetes Werkzeug sowohl zur

Verarbeitung von sprachunabhängigen Unicode-Daten, als

auch zur flexibel anpassbaren Zerlegung von Texten gefun-

den (Boundary Analysis).

Ein Problem der Zerlegung sei hier kurz am Beispiel der Auf-

trennung von Text in Sätze erläutert. Üblicherweise konzen-

trieren sich die Probleme hierbei auf die ambigue Ver wen -

dung des Symbols „.“(Punkt, vgl. Kil07), welches sowohl zur

Kennzeichnung eines Satzendes, als auch für Abkürzungen

und Ordnungszahlen(deutsch) verwendet wird. Aus pragma-

tischen Erwägungen heraus wurden nur Lösungen für typi-

sche Fälle entwickelt und Sonderfälle, die auch das „Heart

of Gold“ der DFKI (Sch05) nicht bewältigt, als relativ un-

wahrscheinlich ausgeklammert (vgl. Sch10).

Als erstes werden dabei anhand der Interpunktion Kandida-

ten für Satzenden ermittelt. Dann wird eine Liste von regulä-

ren Ausdrücken an den Kandidaten auf Standardfälle

getestet und eine entsprechende Gewichtung zurückgege-

ben. Kann keine eindeutige Entscheidung getroffen werden,

werden Wörterbuchtests durchgeführt. Erfolgreich wirkt die-

ser Mechanismus z.B. bei:

„… der chil. Staatspräsident …“ (richtig negativ trotz un-

bekannter Abk. „chil.“) und

„… zur Verkleinerung der Bw. Der Minister versprach…“

(richtig positiv trotz bekannter Abk. „Bw.“).

Falsche Entscheidungen werden aber z.B. im Fall von:

„… und hatten lange gechattet. Freunde der 30jährigen

überlegten…“ (falsch negativ) oder

„… hatten die afgh. Taliban …“ (falsch positiv“) getrof-

fen, die entweder durch entsprechende Aufnahme von

„gechattet“, „afgh.“ und „Taliban“ ins Wörterbuch oder

die Implementierung komplexerer Grammatiken vermie-

den werden könnten.

Ähnliche Probleme existieren auch auf den tieferliegenden

Textebenen und entsprechende Mechanismen zu deren Be-

handlung wurden implementiert. Die Behandlung von Zah-

lenformaten, insbesondere die geschlechtsspezifische

Bestimmung von Ordnungszahlen, zu deren Behandlung

sich der Kooperationspartner bereit erklärt hat, bleibt aber

zunächst recht unvollständig.

Wichtiger Kernpunkt der Textanalyse ist die robuste Auswer-

tung von Zeichenketten über Wörterbücher und Regelwerke.

Hierzu wurde eine Basisklasse („Dict“) entworfen, von der

aus eine Reihe von abgeleiteten Klassen („MainDict“,

„RulesDict“, „SubstDict“ …) und eine Auswertungsklasse

(„DictSearch“) entwickelt und implementiert wurde. Alle

unterstützen das Einlesen von Standardtextdateien und sind

damit jederzeit erweiterbar.

Erste Aufgabe war es, für die Umsetzung von Graphemen

eine Hauptwörterbuchklasse zu entwickeln, die entspre-

chende Mechanismen zur Behandlung bereits vorliegender

Wörterbücher bereitstellt. Grundlage für die Repräsentation

der Aussprache ist hierbei SAMPA (Speech Assessment Me-

thods Phonetic Alphabet, Wel97, „schön“→„S2:n“). Um die

Aussprache zu bestimmen, werden entsprechende phoneti-

sche Regeln angewendet oder sie wird direkt in Wörterbü-

chern nachgeschlagen.

Grundlage des aktuellen Projekts sind vier Vollformwörter-

bücher für die implementierten Sprachen, die jeweils kom-

plette Wörter mit den dazugehörigen SAMPA-Strings und

Kennzeichnung der möglichen Wortarten enthalten. Zur Il-

lustration der Notwendigkeit sei hier auf die englischen Wör-

ter „tough“, „through“ und „though“ verwiesen (siehe

Tabelle 1)

Die Hauptwörterbücher umfassen jeweils ca.100.000 –

200.000 Einträge und werden zur schnellen Suche intern

über eine Hashtable gemanagt. Die Auswertungsmethoden

der Klasse „DictSearch“ führen dabei eine rekursive Zerle-

gung des Eingabestrings durch, bis passende Einträge ge-

funden werden. Als optimale Ausgabe wird dabei das

Fachbereich VI Informatik und Medien

37

Tab. 1: Wörterbuchauszug („en_bigDict.txt“)

Grapheme Phoneme (EN-SAMPA)

Wortart

tough tVf AJ,AV,VB

through Tru PR

though D@U PR,AV

Page 38: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Ergebnis mit der geringsten Rekursionstiefe betrachtet, was

gleichbedeutend mit einer Zerlegung in möglichst wenige

Teilwörter sein sollte. Problemfälle wie z.B. „Veranstal -

tung|s|kalender“ vs. „Veranstaltung|skalen|der“ werden

über weitere Bewertungen gelöst. Zusätzliche Features um-

fassen den vorrangigen Test auf mögliche Endungen (siehe

Tabelle 2), Silbengrenzen- und Akzentmarkierungen, Liai-

son, mehrere Wortart- und Aussprachevarianten. Die Disam-

biguierung von Wortart und Aussprachevariante ist bisher

nur rückblickend möglich.

Um eine Aussprache von nicht verzeichneten Wörtern zu er-

möglichen, werden entsprechende Regeln über die Klassen

„RulesDict“ und „SubstDict“ ausgewertet. Die Auswertungs-

mechanismen zählen neben der Hauptwörterbuchsuche zu

den komplexeren Implementierungen und werden in folgen-

den Verarbeitungsschritten unter anderem auch für eine ro-

buste Silbifizierung, Modifikation von Wortakzenten (vgl.

Bie66) und das Auffinden zusätzlicher Phrasengrenzen ein-

gesetzt. Die Regeln bestehen dabei aus einem beliebig

durch Ersetzungen erweiterbaren Prä- und Postkontext,

einem Schlüssel und einer zugeordneten Ausgabe. Eine zu-

treffende Regel wird unter möglichen Kandidaten so ausge-

geben, dass die bewertete Trefferlänge maximiert wird, bei

der Graphem-Phonem-Umsetzung greift zusätzlich wie-

derum das Kriterium der minimalen Rekursionstiefe wäh-

rend der Zerlegung. Tabelle 3 zeigt bruchstückhaft die

vielfältige Einsetzbarkeit dieser Mechanismen.

Ausgehend von einer gelungenen Übersetzung werden in

der Texthierarchie aufsteigend Silben- und Wortakzente mo-

difiziert und Phrasengrenzen nach Regeln(Wortart, Funkti-

onswortstatus) und Balancekriterien hinzugefügt. Damit ist

die Stufe der Textgliederung inklusive der Typbestimmung

für die Elemente jeder Ebene abgeschlossen.

Auf Wunsch des Kooperationspartners hin wurde zusätzlich

ein unabhängiges Schnittstellenformat über ein XML-Doku-

ment realisiert, welches den Austausch der Ergebnisse über

Programmgrenzen hinweg erlaubt. Ebenso wurden Metho-

den zum Einlesen eines solchen Dokuments implementiert,

welche in der Lage sind, den Zustand der Textklasseninstanz

ohne erneute Verarbeitung originalgetreu wieder herzustel-

len.

3.2 Lautdauerberechnungen

Sind die phonetischen Übersetzungen mit Akzentverteilung

und Textstruktur bekannt, gibt es mehrere Möglichkeiten

aus diesen Informationen die Aussprachedauer der einzel-

nen Laute zu bestimmen. Einen direkten Ansatz bilden hier

die Regeln von Klatt und Kohler (Koh86), basierend auf Pho-

nemdauerkonfigurationen für die verschiedenen Sprachen.

Mit der inhärenten Dauer dinh,i eines Phonems i, dessen mi-

nimaler Dauer dmin,i, einem zu modifizierenden Dehnungs-

faktors prcnti und der Modellierung lokaler Einflüsse ki ergibt

sich die Lautdauer di in (1) zu:

di = ki · {prcnti (dinh,i – dmin,i) + dmin,i} (1)

Speziell für die Dauerberechnung hat sich jedoch gezeigt

(vgl. Mix02), dass ein künstliches neuronales Netz (KNN)

Lautdauern natürlicher vorhersagen kann. In Analogie zum

menschlichen Gehirn besteht ein solches Netz aus einer

Vielzahl von künstlichen, miteinander vernetzten Neuronen.

Diese sind in Schichten angeordnet (Eingabeschicht, ver-

deckte Schichten und Ausgabeschicht) und bilden Eingabe-

vektoren auf Ausgabevektoren ab. Sinn solcher Strukturen

ist es, durch überwachtes Lernen bekannter Ein- und Ausga-

bepaare ein bestimmtes Verhalten zu trainieren, welches

auch bei unbekannten Eingabedaten zu den gewünschten

Weiterentwicklung eines Sprachsynthesesystems

38

Tab. 2: Wörterbucherweiterungen ("de_bigDict")

Tab. 3: Kurzbeispiele für Regeleinsatz

Grapheme Phoneme (DN-SAMPA)

Wortart

organ~ISI ?OR-ga:-n Sn

~ISIismus "Is-mUs Sm Sm

~ISIistinnen "Is-tI-n@n Sfp

Präkontext Schlüssel Postkontext Ergebnis Substitutionen Beispiel

Regel-GPU C i sch I C=b, d, f, g… F(i)sch

. i Ce i: Kr(i)se

Silbifizierung &$s . ts& sep1 &=a:, a, E,e :… kE6-ts@

&$ . Sv& sep2 $=b, C, d, f… mIt-SvaN

Phrasengrenzen . . CO+*+AR +6 s=Sf, Sm, Sn… …

#+s+s+VB . PA+PR+s -2 …

Akzentmod. PA . Z+# +1 Z=’zu’… …

s+Z . v -1 v=’VB’… …

Page 39: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Ausgaben führt. Dazu gibt es eine Reihe von Lernverfahren,

die im Wesentlichen auf die Minimierung des mittleren Aus-

gabefehlers durch Anpassung der Verknüpfungsgewichte

abzielen. Für weitere Informationen sei hier auf entspre-

chende Literatur verwiesen (Cal03).

Ein wesentlicher Nachteil von künstlichen Netzen ist es,

dass für das Training eine Vielzahl von bekannten Daten vor-

liegen muss, was in der Sprachsignalverarbeitung aufgrund

aufwändiger Annotationsarbeit stets ein Problem darstellt.

Nachdem bei Tests einer bereits vorliegenden Implementie-

rung Schwächen (sporadische Abweichungen um den Faktor

50) festgestellt wurden, wurde ein komplett neues Training

mit einer leicht abgewandelten Netztopologie und einer an-

schließend Neuimplementierung durchgeführt. Als Parame-

ter, welche die relevanten Informationen über ein einzelnes

Phonem charakterisieren (Feature-Vektor), wurden ausge-

hend von vorangegangenen Untersuchungen die in Tabelle 4

dargestellten Eigenschaften verwendet.

Insgesamt ergibt sich ein Eingabevektor mit 263 Elementen.

Das Netz ist ein vollständig verbundenes, klassisches Feed-

Forward-Netz mit 4 Schichten (263, 23, 9, 1). Netzdesign und

Training wurden mit Hilfe des Stuttgart Neural Network Si-

mulator (SNNS, Zel10) durchgeführt. Als Grundlage dienten

hierzu Daten, die bereits ausreichend annotiert vorlagen,

aber erst aus unterschiedlichen Dateien und Formaten

(unter Ergänzung oder Konvertierung von Informationen)

zusammengeführt werden mussten. Basis der Daten bildet

deutsche Nachrichtensprache mit Annotationen zu insgesamt

35.185 Phonemen (13.153 Silben). Nach Filterung unbrauch-

barer Daten verblieben etwa 40 Minuten Sprachmaterial für

die folgenden Auswertungen.

Aufgrund ihres geringen Umfangs wurden 80% der Daten für

das Training verwendet, die restlichen 20% für das Testen

des Ausgabefehlers. Dazu wurden aus den vorliegenden In-

formationen entsprechende Ein- und Ausgabevektoren er-

zeugt, die Auswahl erfolgte dabei zufällig. Die Daten geben

dabei eine Zielfehlertoleranz von 20% auf den Testdaten vor,

nach der das Training abgebrochen werden sollte, um eine

Überanpassung des Netzes zu vermeiden. Kleinere Fehler

können nach (Cal03) nur durch eine höhere Anzahl von Trai-

ningspattern erreicht werden. Die schlechte Balance zwi-

schen der Anzahl von Test- und Trainingsdaten birgt

dennoch ein erhöhtes Risiko für eine Überanpassung.

Zur Qualitätsbewertung wurden automatische Untersuchun-

gen auf den Gesamtdaten durchgeführt. Dazu wurden zu-

nächst die implementierten Dauerberechnungen anhand der

Annotationsinformationen durchgeführt. In einem zweiten

Schritt wurden diese Informationen über die komplette Vor-

verarbeitung des Systems ermittelt. Nichtzuordenbare

Daten wurden aus den Ergebnislisten entfernt, mögliche

Korrekturen aber vorgenommen (z.B. Vereinheitlichung der

Wortendung „…er“, SAMPA „6“ zu „@6“). Unterschiede in

den Feature-Vektoren waren dennoch zu erwarten, z.B.

durch abweichende Bestimmung der Segmentgrenzen.

Die ausgewerteten Daten werden im Folgenden mit Klatt

(Dauerberechnung nach Klatt-Formel), alt (Berechnung

durch die vorliegende Implementierung des alten KNN) und

neu (Berechnung durch die Implementierung des aktuellen

KNN) bezeichnet. Die Zusätze stehen für die Verwendung

der Informationen aus den annotierten Daten (direkt) bzw.

für die Nutzung der jeweils zutreffenden Textvorverarbei-

tung (VV).

Fachbereich VI Informatik und Medien

39

Tab. 4: Struktur des Eingabevektors für das KNN

Teilvektor Kodierte Features Anzahl Intervall

Parameterset A phonologisch (je Phonem) 13 [i-2,i+2]

Parameterset B spektral (statisch je Phonem) 21 [i-2,i+2]

Silbenstruktur Ansatz, Nukleus, Koda 3 [i]

Position (Laut, Silbe) Index, Größe 7+7 [i]

Position (Silbe, Wort) Index, Größe 10+10 [i]

Position (Wort, Phrase) Index, Größe 10+10 [i]

Position (Phrase, Satz) Index, Größe 8+8 [i]

Akzent Silbe, Wort, (*) 1+1+(1) [i]

Wortklasse Funktions-, Inhaltswort 1 [i]

Inhärente Dauer Klassenindex (statisch je Phonem) 6 [i]

Grenzstärke (je Silbe) Silbe,Wort, Phrase,Satz (links, rechts) 5+5 [i]

Page 40: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Von den Lautdauern kann angenommen werden kann, dass

sie logarithmisch normalverteilt sind, entsprechend sind

auch die Fehler zu bewerten. Neben den üblichen statisti-

schen Informationen (Mittelwert �, Standardabweichung �,

absoluter Fehler F ) sind hier vor allem der relative Fehler f

und der Korrelationskoeffizient p interessant. Mit der wah-

ren Größe X und der geschätzten Größe Y gelten dabei fol-

gende Zusammenhänge (2):

(2)

Tabelle 5 und Tabelle 6 zeigen die entsprechenden numeri-

schen Ergebnisse.

Es zeigt sich, dass durch die Neugestaltung des KNN Fehler

deutlich vermindert werden konnten und dass die Fehler der

alten Dauerbestimmung voraussichtlich durch die alte Vor-

verarbeitung hervorgerufen werden, eher selten auftreten,

dafür aber extrem sind, was sich im Falle eines Auftretens

aber als sehr störend auswirkt (Beispiel: „Die Gänse bei-

ßen“, Dauer(@)=676ms, neu=77ms) und sich dementspre-

chend auch negativ auf die Intonationsbestimmung

auswirkt.

Abbildung 3 und Abbildung 4 zeigen die Häufigkeitsvertei-

lungen der logarithmierten relativen Fehler und weisen die

neue Verarbeitung als weniger fehlerbehaftet aus. Es sind

allerdings weitere Daten notwendig um eine eventuelle

Weiterentwicklung eines Sprachsynthesesystems

40

max [ms]max min [ms] max [ms] [ms] � [ms] �F [ms] �F [ms]

Annotation 13,3 460,0 69,3 38,7 0,0 0,0

Klatt (direkt) 42,5 190,0 84,4 21,5 15,1 39,2

Klatt (VV) 41,3 196,3 80,3 20,2 11,0 37,8

alt (direkt) 38,5 508,9 74,7 33,8 5,4 40,8

alt (VV) 15,5 2353,3 81,1 60,3 11,8 62,3

neu (direkt) 21,5 359,6 65,6 30,0 -3,7 30,8

neu (VV) 22,8 396,0 70,0 33,5 0,7 31,4

Y Px,y min (f ) max (f ) �‘f �‘f

Klatt (direkt) 0,255 – 0,845 5,767 0,130 0,217

Klatt (VV) 0,307 – 0,858 5,208 0,109 0,211

alt (direkt) 0,374 – 0,909 6,831 0,052 0,216

alt (VV) 0,267 – 0,918 54,286 0,079 0,215

neu (direkt) 0,625 – 0,883 3,870 – 0,003 0,164

neu (VV) 0,631 – 0,857 8,251 0,023 0,164

Tab. 5: Standardstatistik der Daueruntersuchung

Tab. 6: Erweiterte Statistik der Daueruntersuchung

Abb. 3: Häufigkeitsverteilung des relativen Fehlers (aus Annotation)

Abb. 4: Häufigkeitsverteilung des relativen Fehlers (aus Vorverarbeitung)

Page 41: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Überanpassung auszuschließen. Bei subjektiver Beobach-

tung unbekannter Texte konnten jedoch bisher keine gravie-

renden Mängel entdeckt werden, Verbesserungen bleiben

aber wünschenswert. Hierzu müssten aber genauer anno-

tierte Daten in großer Zahl vorliegen, was nicht ohne ent-

sprechend aufwendige Arbeit zu bewerkstelligen ist.

3.3 Weitere Arbeiten

Neben der Dauersteuerung ist die Intonationsberechnung

nach dem Fujisaki-Modell (vgl. Mix02) überarbeitet worden

und liegt in zwei unterschiedlichen Implementierungen

(Hochschule, Kooperationspartner) vor. Der grafischen Test-

oberfläche wurden diesbezüglich Steuerelemente hinzuge-

fügt, eine geeignete Evaluierung wurde bisher aber nicht

durchgeführt.

Zur weiteren Benutzbarkeit des MBROLA-Synthesizers (Mul-

tikerninkompatibilität), wurde eine neue Audioverarbeitung

implementiert (Klasse „AudioInterface“), die die Ausgabe-

daten des Synthesizers über die plattformunabhängige Au-

diobibliotheken PortAudio (Ben04) wiedergibt und über

libsndfile (Cas10) in Audiodateien speichert.

Im Rahmen des Projekts wurde parallel eine Software

(QtDictTest) entwickelt, die eine Fülle von Werkzeugen für in

der Sprachsignalverarbeitung typische Anwendungsfälle zu-

sammenfasst und dabei die Algorithmen des TTS nutzt.

Dazu zählt unter anderem die Generierung von Ausspra-

chestrings aus Texten, Konverter und Editoren für verschie-

dene Datenformate, vor allem im Umfeld von Praat (Boe09)

oder für Prof. Mixdorffs FujiParaEditor (Mix10). Die Software

spielte auch eine zentrale Rolle bei der Auswertung von

Sprachdaten die zu einer wissenschaftlichen Veröffentli-

chung des Forschungsassistenten über fremdsprachliche

Akzente führten (HMD10). Die Ergebnisse wurden im Rah-

men einer Postervorstellung auf der internationalen Konfe-

renz Speech Prosody 2010 in Chicago präsentiert.

4. Zusammenfassung

Es wird ein flexibles Softwaresystem bereitgestellt, dessen

Erweiterbarkeit sichtlich vereinfacht wurde. Die Mechanismen

arbeiten im Rahmen der Spezifikation zuverlässig und bieten

eine solide Grundlage für Sprach- und Regelerweiterungen.

Zusätzlich wurde komplett auf den Einsatz von proprietärem

Kode verzichtet, so dass alle Quellen frei zugänglich sind.

Somit können auch dort jederzeit Verbesserungen ohne er-

heblichen Aufwand umgesetzt werden. Durch Einsatz mo-

derner, gut gepflegter Bibliotheken und Datenformate ist

zudem die Zukunftssicherheit gewährleistet. Nachteile die-

ser Strategie lassen sich vor allem in einem erhöhten Re-

chenaufwand und Speicherbedarf festmachen. Die Aus- gabequalität des Systems hängt dabei stark von fehler-

freien, möglichst vollständigen Wörterbüchern und Regel-

werken ab. Auch hier konnte eine Reihe von Verbesserungen

bereits durchgeführt werden, der Arbeitsaufwand bei meh-

reren hunderttausend Einträgen ist jedoch vorstellbar.

Literatur

[Ben04] Bencina, R. & Burk, P.: PortAudio - An API for

Portable Real-Time Audio. In Greenbaum & Bar-

zel (Hrsg.): Audio Anecdotes, ISBN 1-56881-

104-7, A.K. Peters, Natick, S. 361 – 368, 2004.

[Bie66] Bierwisch, M.: Regeln für die Intonation deut-

scher Sätze. In: Studia grammatica VII,

S. 99–201, 1966.

[Boe09] Boersma, P.; Weenink, D.: Praat: doing phone-

tics by computer, Software,

http://www.praat.org/, 2009.

[Bub99] Bub, T.; Schwinn, J.: VERBMOBIL: The Evolution

of a Complex Large Speech-to-Speech Transla-

tion System. Proc. of Conf. on Spoken

Language Processing, 1999.

[Cal03] Callan, Robert: Neuronale Netze im Klartext,

Pearson Studium, München, 2003

[Cas10] de Castro Lopo, E.: libsndfile, Softwarebiblio-

thek, http://www.mega-nerd.com/libsndfile/,

2010

[Dut96] Dutoit, T.; Pagel, V.; Pierret, N.; Bataille, F.; van

der Vrecken, O.: The Mbrola Project: Towards A

Set Of High Quality Speech Synthesizers Free

Of Use For Non Commercial Purposes. Proc. of

the 4th International Conference on Spoken

Language, ICSLP 96, Philadelphia, 1996

[ICU10] ICU – International Components for Unicode,

2010, Softwarebibliothek, http://site.icu-pro-

ject.org/

[HMD10] Hilbert, A.; Mixdorff, H.; Ding, H.; Pfitzinger,

H.R.; Jokisch, O.: Prosodic analysis of German

produced by Russian and Chinese learners.

Proc. of the 5th Int. Conf. on Speech Prosody,

Chicago, 2010.

[Kil07] Kilian, N.: Zum Punkt gekommen. Über den

Nutzen von Zeichensetzung in einer deutschen

HPSG, Universität des Saarlandes, Diplomar-

beit, Saarbrücken, 2007.

[Koh86] Kohler, Klaus J.: Invariance and variability in

speech timing: from utterance to segment in

German. In: Perkell, J. S. (Hrsg.); Klatt, D. H.

(Hrsg.): Invariance and Variability in Speech

Processes, Lawrence Erlbaum, 1986, S. 268 –

289, Hillsdale NJ, U.S.A., 1986.

[MBR05] Dutoit, T.: MBROLA, Softwarebibliothek, The

Circuit Theory and Signal Processing Lab,

Faculté Polytechnique de Mons, Belgien, 2005.

Fachbereich VI Informatik und Medien

41

Page 42: 9FA Abschlussbericht 2010 Abschlussbericht 2010

http://tcts.fpms.ac.be/synthesis/mbrola.html

[Mix02] Mixdorff, H.: An Integrated Approach to Mode-

ling German Prosody. Habilitation thesis sub-

mitted to TU Dresden. Vol. 25, „Studientexte

zur Sprachkommunikation“, w.e.b Universitäts-

verlag, Dresden, 2002.

[Mix10] Mixdorff, H.: FujiParaEditor, Software,

http://public.beuth-hochschule.de/~mix-

dorff/thesis/fujisaki.html, 2010.

[Sch05] Schäfer, U.: Heart of Gold – an XML-based

middleware for the integration of deep and

shallow natural language processing compo-

nents, User and Developer Documentation.

DFKI Language Technology Lab, Saarbrücken,

2005, http://heartofgold.dfki.de/doc/heart -

ofgolddoc.pdf

[Sch10] Schubert, R.: Hybride linguistische Analyse zur

Verbesserung der Prosodiemodellierung bei

TTS-Synthese. Technische Universität, Diplom-

arbeit, Dresden, 2010.

[UNC10] The Unicode Consortium: int. Zeichenstandard

für Software, http://unicode.org/, 2010.

[Ver00] Bundesministeriums für Bildung und For-

schung; Deutschen Forschungszentrums für

künstliche Intelligenz (1993 – 2000), Projekt

(Bub99), http://verbmobil.dfki.de/

[Wel97] Wells, J.C.: SAMPA computer readable phonetic

alphabet. In Gibbon, D., Moore, R. and Winski,

R. (Hrsg.): Handbook of Standards and Resour-

ces for Spoken Language Systems, Mouton de

Gruyter. Part IV, section B, Berlin and New York,

1997.

www.phon.ucl.ac.uk/home/sampa

[Zel10] Zell, A.; Planatscher, H. (Hrsg.): Stuttgart Neural

Network Simulator, Software, 2010.

http://www.ra.cs.uni-tuebingen.de/SNNS/

Kontakt

Prof. Dr. Hansjörg Mixdorff

Beuth Hochschule für Technik Berlin

Fachbereich VI Informatik und Medien

Luxemburger Straße 10

Tel.: (030) 45 04 - 23 64

E-Mail: [email protected]

Kooperationspartner

voice INTER connect GmbH

Dr.-Ing. Diane Hirschfeld

Tel.: (0351) 48 10 882

E-Mail: [email protected]

Weiterentwicklung eines Sprachsynthesesystems

42

Page 43: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Einleitung

Formelles wie informelles Lernen in der Grundausbildung

sowie das ganze Leben lang nimmt in unserer modernen

Wissensgesellschaft eine immer wichtigere Rolle an. Dabei

gewinnt das e-Learning immer mehr an Bedeutung. Eine

Kern-Anwendung des e-Learnings bilden die Lernraumsys-

teme. Diese werden nicht nur an Schulen und Hochschulen

eingesetzt, sondern werden auch in Firmen für die Weiterbil-

dung eingesetzt.

Die Hauptfunktionalitäten der gängigen Lernraumsysteme

können in drei Bereiche gegliedert werden:

· Erstellung, Bereitstellung und Verwaltung von Studien-

gängen, Kursen, und Lernmaterial

· Verwaltung von Nutzern

· Bereitstellung von Kommunikationstools wie E-Mail,

Chat, Foren oder Wikis

Nutzerdaten werden in Lernraumsystemen mit dem Haupt-

ziel gespeichert, einen Überblick über die erbrachte Leis-

tung der Lernenden zu bieten. Berichte und Statistiken über

Nutzerverhalten und Aussagen über die Beteiligung von

Nutzern in Online Kursen und den Ergebnissen, werden von

den Lernraumsystemen nur im geringen Maße angeboten.

Als kleines und dennoch illustratives Beispiel wie unzurei-

chend die Statistiken sind, wird an dieser Stelle erwähnt,

dass es in Lernraumsystemen nur schwer herauszufinden

ist, wie viele Lernende nie auf ein bestimmtes Lernmaterial

zugegriffen haben.

Die vorhandenen Statistiken sind selten mit guten Manage-

mentmöglichkeiten verknüpft. Für Organisationen im Bil-

dungsbereich sind Informationen zur Nutzungsart und

-weise der angebotenen Lehrveranstaltungen und ein für

Lehrende leicht handhabbares Management von entschei-

dender Bedeutung. Letztendlich kann dadurch das eigene

Lehrangebot und der erzielte Lernerfolg evaluiert und opti-

miert werden.

Ziel unserer Arbeit ist es, herkömmliche Lernraumsysteme

im Bereich Nutzungsdaten und Nutzerprofile zu ergänzen.

Als erstes stellen wir fest, dass Lernraumsysteme Nutzerda-

ten in einer Form speichern, die für die Analyse ungeeignet

sind. Analysen auf den Daten des Lernraumsystems selbst

benötigen daher mühsames und langwieriges Preproces-

sing. Es ist daher sinnvoll, wie in Analytical Processing oder

Data Mining üblich, ein Datenmodell zu definieren, welches

von der Datenspeicherung des Lernraumsystems getrennt

ist und sich für die Analyse besser eignet. Dadurch haben

wir gleichzeitig die Möglichkeit, dass als erster Schritt eine

Anonymisierung der Nutzerdaten stattfinden kann.

Unser Datenmodell ist ein relationales Schema, das Daten

und Nutzungsdaten, die vom LMS gespeichert werden, ver-

einigt. Folglich haben wir eine Systemarchitektur entworfen,

um die von einem LMS gespeicherten Daten in das Daten-

modell zu exportieren. Diese wurde für das LMS Moodle im-

plementiert. Zuletzt zeigen wir erste Ergebnisse der

Benutzung unseres Datenmodells bei der Analyse eines

Moodle-Kurses.

Fachbereich VI Informatik und Medien

43

Nutzerdaten und Nutzerprofile in Lernraumsystemen1

Dipl.-Inf. FH Benjamin Wolf, Prof. Dr. Agathe MerceronKooperationspartner: Dipl.-Math. André Krüger

Lernraumsysteme (LMS) werden an Schulen, Hochschulen sowie in Firmen eingesetzt. Berichte und Statistiken gehören

nicht zur ihren Kernfunktionalitäten und sind unzureichend vorhanden. Ziel unserer Arbeit ist es, herkömmliche Lernraum-

systeme im Bereich Nutzungsdaten zu ergänzen. Wir haben ein Datenmodell entwickelt, dass es ermöglichen soll die Nut-

zungsdaten, die von einem LMS gespeichert werden, leichter zu analysieren. Um die von einem Lernraumsystem

gespeicherten Daten in unser Datenmodell zu exportieren, haben wir eine Systemarchitektur entworfen und eine Imple-

mentierung für das LMS Moodle umgesetzt. Schließlich haben wir unser Model mit Analysen auf Moodle-Kursen unserer

Hochschule erprobt.

Learning Management Systems (LMS) are used in schools, higher education as well as in the working place. They are not

designed for data analysis and mining. The aim of our work is to complement LMS in all aspects dealing with data analysis

and mining. We first have developed a data model to structure usage data stored by LMS, to make better analysis possible.

We have designed a system architecture that performs the structure/export functionality and realised an implementation

for the Moodle LMS. Finally, we present first results using our data model for analysing usage data.

1 Diese Arbeit wurde zum Teil vom Europäischen Strukturfond Berlin unterstützt.

Page 44: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Datenmodell

Der Entwurf unseres Datenmodells wurde von drei Hauptan-

forderungen geleitet.

· Erstens sollte es unabhängig von einem bestimmten

LMS verwendet werden.

· Zweitens sollte jede Art von Analyse möglich sein.

· Drittens sollten Dozenten die üblichen Objekte eines

LMS leicht wieder finden.

Für die erste Anforderung wurden Annahmen getroffen, wel-

che die meisten LMS erfüllen. Für die zweite Anforderung

beschreibt unser Datenmodell komplett jede Interaktion, die

gängige LMS registrieren, in Log-Tabellen. Für die dritte An-

forderung spiegelt unser Datenmodell die üblichen Objekte,

die LMS zu Verfügung stellen, in Tabellen wieder. Die Be-

schreibung der Elemente einer Tabelle orientiert sich sehr

am Vokabular des LMS Moodle, das sehr verbreitet ist.

Wir gehen davon aus, dass ein LMS Benutzer, Kurse, Lern-

material und Kommunikationstools verwaltet. Benutzer kön-

nen Kurse belegen. Wenn eine Benutzerin einen Kurs belegt,

gibt es zwei Daten: das Anmelde-Datum und das Abmelde-

Datum. Außerdem hat ein Benutzer in einem Kurs eine be-

sondere Rolle, wie Student, Dozent, Administrator usw.. Es

ist möglich in einem LMS Gruppen von Nutzer zu bilden.

Diese Gruppen werden innerhalb von Kursen gebildet bzw.

gelten systemweit. Nutzer können sich diesen Gruppen selb-

ständig zuordnen oder werden durch Dozenten zugeordnet.

Eine besondere Kategorie von interaktivem Lernmaterial bil-

det das Quiz. Das Quiz ist ein Sammelbegriff, der jede Art

von Übung, Aufgabe, Problem, Test, Hausarbeit, usw. ab-

deckt. Ein Quiz kann mehrere Fragen enthalten und eine

Frage kann mehreren Quiz zugeordnet werden. Sowohl für

das Quiz als auch für die Fragen wird ein Zeitstempel gespei-

chert, der das Erstellungsdatum angibt und ein Zeitstempel

der den Zeitpunkt der letzten Änderung festhält. Des weite-

ren gibt es Lernmaterialien wie Folien, Dateien, URLs, usw..

Solch ein Material werden wir als Ressource betrachten. Die

Ressourcen haben ein Erstellungsdatum und ein Änderungs-

datum, die angeben wann diese dem System hinzugefügt

wurden und wann sie zuletzt geändert wurden. Als Kommu-

nikationstools betrachten wir zunächst Foren und Wikis. Wir

nehmen an, dass Quiz, Ressourcen, Foren und Wikis, Kursen

zugeordnet sein können. Wir nehmen an, dass Benutzer mit

Lernmaterial interagieren können: Sie können Ressourcen,

Fragen und Quiz, Wikis und Foren anschauen oder verän-

dern wenn der Benutzer ein Dozent ist. Außerdem können

sie Fragen und Quiz beantworten, an Forums oder Wikis bei-

tragen usw.. Wir nehmen an, dass alle diese Interaktionen

mit Zeitstempeln gespeichert werden.

Unser Schema beinhaltet drei Arten von Tabellen: die Tabel-

len, die ein LMS Objekt darstellen, die Tabellen, die eine In-

teraktion mit einem LMS Objekt darstellen und Tabellen

welche Assoziation zwischen LMS Objekten festhalten. In

Nutzerdaten und Nutzerprofile in Lernraumsystemen

44

Abb. 1: Vereinfachtes Schema des Datenmodells

Page 45: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Abbildung 2 ist ein Ausschnitt aus unserem Datenmodell zu

sehen. Im folgendem führen wir Exemplarisch einige der Ta-

bellen ein:

Die Tabelle user beispielsweise stellt Benutzer dar. Sie

enthält als weitere Elemente firstaccess und lastaccess,

die die Zeitstempel des ersten und letzten Zugriffs auf

einen Gegenstand im LMS sind, und lastlogin und cur-

rentlogin, die die Zeitstempel des letzten und aktuellen

Login ins LMS sind. Es kann der Sonderfall eintreten,

dass sich Teilnehmer ins LMS einloggen ohne auf Lern-

material zuzugreifen.

Die Tabelle quiz stellt eine beliebige Aufgabe dar. Das

Element qtyp gibt dabei die genaue Art des Quiz an. Es

kann Werte wie „Aufgabe“, „Test“, „Übung“, „SCORM“

usw. annehmen. Je nach Art der Quiz, die das LMS zu

Verfügung stellt. Ein Quiz kann eine oder mehrere

Fragen enthalten. Das Element title ist der vom Dozent

vergebene Titel. In den Elementen timeopen und time-

closed ist der Zeitrahmen festgelegt, in dem Studierende

das Quiz beantworten dürfen. Das Element timecreated

ist der Zeitstempel, der angibt wann dieses Material im

LMS erstellt wurde. Das Element timemodified gibt an,

wann dieses Material zuletzt verändert wurde.

Die Tabelle quiz_log enthält folgende Elemente: Das Ele-

ment user ist die user-id des Benutzers, der interagiert

hat. Das Element course ist der Identifikator des Kurses,

in dem interagiert wurde. Die Elemente qid und qtype

identifizieren das quiz, das betroffen ist. Im Element

grade wird die Bewertung gespeichert, falls es eine gab

und das Element timestamp ist der Zeitstempel, zu dem

die Interaktion ausgeführt wurde. Das Element action

gibt die Art der Interaktion an. Dieses Element kann

Werte wie „view“, „modify“, „attempt“, „submit“ usw.

annehmen.

Die Verknüpfung zweier LMS Objekte wird in einer Assoziati-

ons-Tabelle festgehalten. Der Name dieser Tabelle wird aus

der Verkettung der Namen der LMS Objekte gebildet. Also

gibt die Tabelle course_user alle Benutzer an, die sich in

einem bestimmten Kurs angemeldet haben. Oder die Tabelle

quiz_question gibt an, welche Fragen in einem bestimmten

Quiz verwendet werden. Es ist möglich, dass eine Frage

mehreren Quiz zugeordnet ist. Ähnlich gibt die Tabelle

course_quiz alle Quiz an, die in einem bestimmten Kurs ent-

halten sind. Es ist möglich, dass ein Quiz in mehreren Kur-

sen verwendet wird. Alle Assoziations-Tabellen beinhalten

die zwei Identifikatoren der zwei Objekte. Für die Mehrheit

der Assoziations-Tabellen gibt es keine weiteren Elemente.

Eine Ausnahme ist die Tabelle course_user. Sie enthält wei-

tere Elemente wie enrolstart und enrolend. Das Element

enrolstart ist das Datum, an dem sich der Benutzer im Kurs

angemeldet hat, und enrolend ist das Datum, zu dem er sich

abgemeldet hat.

Fachbereich VI Informatik und Medien

45

Abb. 2: Systemarchitektur

Page 46: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Systemarchitektur des Exports und

Moodle Implementierung

Abbildung 2 zeigt das wichtigste Paket der Exportanwen-

dung. Die abstrakte Klasse ExtractAndMap ist die Haupt-

klasse der Export-Anwendung. Durch diese werden die im

LMS gespeicherten Daten extrahiert und auf die Tabellen

des Datenmodells abgebildet. Zurzeit gibt es die abstrakte

Klasse ExtractAndMap und eine Implementierung dieser

Klasse für das LMS Moodle. Diese abstrakte Klasse enthält

eine Methode start, die den Extraktionsprozess anstößt und

die Methode getMiningInitial, die initial benötigte Daten von

der Analyse-Datenbank holt. Die start Methode kann mit

einem Startparameter gesteuert werden. Dieser legt fest, ab

welchem Zeitpunkt die Daten aus der LMS Datenbank gele-

sen werden sollen. Außerdem sind in der Klasse die Defini-

tion der abstrakten Methoden getLMStables und

clearLMStables zu finden. Diese sind für den Zugriff auf die

LMS Datenbank nötig. Zuletzt gibt es hier noch mehrere abs-

trakte generate Methoden. Diese haben wir in der Abbildung

2 durch eine Platzhaltemethode namens generateTable-

name_Mining dargestellt, welche für die Methoden genera-

teCourse_mining, generateQuiz_mining, generateQuiz_

log_mining usw. steht. Jede generate Methode benutzt die

extrahierten Daten, um eine Tabelle der Analyse-Datenbank

zu generieren. Diese werden dann von der saveMiningTables

Methode in die Datenbank geschrieben.

Um die Daten eines anderen LMS in unser Datenmodell ex-

portieren zu können, reicht es, diese Klasse zu erweitern

und die abstrakten Methoden entsprechend der Eigenschaf-

ten des LMS zu implementieren. Das LMS Moodle hat eine

einzige Log Tabelle, in der alle Interaktionen der Nutzer mit

allen Objekten in Moodle gespeichert werden. Dies führt

dazu, dass die Tabelle ständig wächst und sie wegen des

großen Datenaufkommens regelmäßig gelöscht wird, was

den Verlust von Rohdaten bedeutet, die für Analysen inte-

ressant gewesen wären. Die Implementierung der abstrak-

ten Klasse verteilt die Daten aus der Log-Datei in die

verschiedenen Tabellen des Datenmodells.

Unsere Anwendung ist in Java geschrieben. Sie benutzt die

Datenbank MySQL und das Persistenz-Framework Hibernate.

Fallbeispiel

Wir haben unsere Export-Anwendung benutzt, um den Kurs

„Formale Grundlagen der Informatik“, 1. Semester des Stu-

diengangs Medieninformatik Bachelor, Präsenzstudium, im

Wintersemester 2009/10 zu analysieren. Der Kurs „Formale

Grundlagen der Informatik“ findet jede Woche in der Form

eines 4stündigen seminaristischen Unterrichts statt. Um die-

ses Modul zu bestehen, schreiben die Studierenden die

Klausur in zwei Teilen. Der erste Teil wird Mitte des Semes-

ters geschrieben und der zweite Teil am Ende. In diesem

Kurs werden verschiedene Lernmaterialien am Anfang des

Semesters im Lernraumsystem Moodle zur Verfügung ge-

stellt, insbesondere Aufgabe1, Aufgabe2, usw. bis Aufgabe8,

insgesamt acht Aufgaben für die Selbstevaluierung. Die

Punkte dieser Aufgaben zählen für die Klausur nicht.

Die Registrierung in Moodle und Benutzung der Lernmate-

rialien ist freiwillig. Für Dozenten ist es interessant zu wis-

sen, ob das Material überhaupt angeschaut wird, ob es

einen Zusammenhang gibt, zwischen der Benutzung des

Materials in Moodle und den Ergebnissen der Klausur. Der

Zweck der Analyse der Benutzerdaten ist es solche Informa-

tionen zu gewinnen.

Wurden die Selbstevaluierungsaufgaben wahrgenommen?

Abbildung 3 Zeile 2 zeigt wie viele Studierende auf die Auf-

gaben zugegriffen haben. Die Spalte Mind.1 liefert die An-

zahl der Studierenden an, die mindestens auf eine Aufgabe

zugegriffen haben, die Spalte Alle gibt die Anzahl der Stu-

dierenden, die auf alle Aufgaben zugegriffen haben. Die

dritte Reihe zeigt ähnliche Zahlen für die Anzahl der Studie-

renden, die versucht haben, die Aufgaben zu lösen. Alle Zah-

len lassen sich bequem gewinnen, bis auf die Zahlen in der

letzte Spalte. Diese Abfrage ist aufwendig zu schreiben,

aber nicht grundsätzlich schwierig. Je weiter das Semester

fortschreitet, desto weniger greifen die Studierenden auf

Aufgaben zu, und desto weniger versuchen sie sie zu lösen.

Wir haben untersucht, ob sich eine treue Gruppe von Studie-

renden allmählich im Semester bildet, die systematisch die

Aufgaben für Selbstevaluierung löst. Die Antwort ist leicht

positiv, zeigt aber auch eine gewisse Fluktuation.

Aktivitäten und Veröffentlichungen

Im Rahmen des Projektes wurden verschieden Konferenzen

besucht und Informationsmaterial zum Projekt erstellt. Zu

Beginn des Projektes wurde die Konferenz „E-Learning 2009

– Lernen im digitalen Zeitalter“ besucht um einen Überblick

über das Thema und bisherige Arbeiten in dem Gebiet zu er-

halten. Es wurde ein Flyer([KMW 09]) für das Projekt erstellt,

der auf allen folgenden Konferenzen verteilt wurde. Auf der

Konferenz Moodle Moot 2010 wurde schließlich ein erster

Prototyp des Datenmodells vorgestellt. Hierzu diente ein

workshop als Rahmen der uns gleichzeitig wertvolles Feed-

back zu unserem Projekt geliefert hat. Der Schwerpunkt der

Moodle Moot lag auf dem Lernraumsystem für das der Pro-

totyp entwickelt worden war. Im Rahmen der Forschungsas-

Nutzerdaten und Nutzerprofile in Lernraumsystemen

46

Auf.1 Auf.2 Auf.3 Auf.4 Auf.5 Auf.6 Auf.7 Auf.8 Mind.1 Alle

51 41 35 30 28 29 27 21 51 935 27 26 18 19 20 20 12 46 0

Abb. 3: Aufgaben: Zugriff und Versuch

Page 47: 9FA Abschlussbericht 2010 Abschlussbericht 2010

sistenz wurde das Poster [KMW 10] angefertigt. Das Projekt

wurde im Rahmen der internationalen Konferenz „EDM

2010“ mit dem Beitrag [KMW 10a] vorgestellt. Die EDM (Edu-

cational Data Mining) war hierbei für unser Projekt beson-

ders wichtig, da sie uns die Möglichkeit bot unser Projekt im

internationalen Rahmen vor Experten genau des Fachgebie-

tes vorzustellen das unser Projekt betrifft. Im Rahmen der

Ringvorlesungen der Forschungsassistenz wurde ein Kollo-

quium zum Projekt gehalten und das Poster präsentiert. Ein

weiterer Beitrag ([KMW 10c]) wurde an die DeLFI 2010 (e-

Learning-Fachtagung Informatik der Gesellschaft für Infor-

matik) eingereicht. Abschließende Ergebnisse des Projektes

wurden dort präsentiert.

Zusammenfassung und Ausblick

In diesem Beitrag haben wir ein Datenmodell vorgeschla-

gen, das in LMS gespeicherte Daten einheitlich abbildet,

damit die Datenanalyse durch geringeren Aufwand beim

Preprocessing erleichtert werden kann. Wir haben eine Sys-

temarchitektur für die Export-Anwendung entworfen und

eine Implementierung für das Moodle LMS erstellt. Ferner

haben wir unsere Anwendung benutzt, um die Daten des

Kurses „Formale Grundlagen der Informatik“ vom WS09/10

zu analysieren.

Bis jetzt haben wir unser Datenmodell größtenteils dazu ver-

wendet, die Nutzung von Ressourcen und Aufgaben und

deren Auswirkung auf die Klausurnote zu analysieren. Prin-

zipiell sind aber auch viele weitere Anwendungen möglich,

wie zum Beispiel Analysen zur Navigation innerhalb des

LMS, Beteiligung in kooperativer Zusammenarbeit oder

Klassifizierung von Aufgaben, und Ressourcen nach deren

Verwendung und Nutzen. Die für solche Analysen notwendi-

gen Informationen liegen im Datenmodell vor.

Wir setzen unsere Arbeit in mehrere Richtungen fort. Eine

wichtige Richtung ist es, weitere Fallbeispiele mit LMS-Nut-

zer zu entwickeln, um unser Datenmodell weiter zu erproben,

und den Katalog von relevanten Fragen zu konsolidieren und

zu erweitern. Die besten Techniken, um diese Fragen zu be-

antworten, sollen ausgearbeitet werden. Eine zweite wichtige

Richtung ist die Weiterentwicklung der Nutzerschnittstelle

für die Auswertung der Ergebnisse. Diese soll als Dienst zwi-

schen Nutzer, Datenmodell und Analyse-Tools dienen, um

die Analyse zu erleichtern. Ferner wollen wir erforschen, in

wieweit unser Datenmodell auf andere Lernsoftware über-

tragbar ist. Als erstes wollen wir dazu weitere Lernportale

untersuchen. Unser Projekt ist Open Source, und wir werden

unsere Dokumentationen und den Quellcode zur Verfügung

stellen [KM10d].

Dieser Beitrag ist eine Kurzfassung von [KMW 10c]

Literatur

[KMW 09] Krüger, André; Merceron, Agathe; Wolf, Benja-

min: Information Retrieval in Learning Manage-

ment Systems, Flyer vom 17.11.09.

[KMW 10] Krüger, A.; Merceron, A.; Wolf, B.: Nutzerdaten-

analyse in Lernraumsystemen, Poster vom

08.04.2010.

[KMW 10a] Krüger, A.; Merceron, A.; Wolf, B.: A Data Model

to Ease Analysis and Mining of Educational

Data. In (Baker, R.; Merceron, A. & Pavlik, P.

Hrsg.): Proc Third International Conference on

Educational Data Mining EDM2010 Pages 131 –

140, ISBN: 978-0-615-37529-8, Pittsburgh,

USA, 11. – 13.06.2010.

[KMW 10b] Krüger, A.; Merceron, A.; Wolf, B.: Poster: When

Data Exploration and Data Mining meet while

Analysing Usage Data of a Course. In (Baker, R.;

Merceron, A. & Pavlik, P. Hrsg.): Proc Third In-

ternational Conference on Educational Data Mi-

ning EDM2010 Pages 305 – 306,

ISBN: 978-0-615-37529-8, Pittsburgh, USA,

11.–13.06.2010.

[KMW 10c] Krüger, André; Merceron, Agathe; Wolf, Benja-

min: Leichtere Datenanalyse zur Optimierung

der Lehre am Beispiel Moodle. Proceedings of

the 8. e-Learning Fachtagung Informatik Delfi,

Lecture Notes on Informatics, Germany, Duis-

burg, 12. – 15.09.2010. Pages 215 – 226,

ISBN: 978-3-88579-263-5, 2010.

[KMW 10d] Krüger, A.; Merceron, A.; Wolf, B.: Nutzerdaten

und Nutzerprofile in Lernraumsystemen.

http://learn.beuth-hochschule.de/datamining,

last access 12.02.2010.

Kontakt

Prof. Dr. Agathe Merceron

Beuth Hochschule für Technik Berlin

Fachbereich VI Informatik und Medien

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 20 66

E-Mail: [email protected]

Kooperationspartner

Aronline AG

Dipl.-Math. André Krüger

Glimmerweg 42

12349 Berlin

Tel.: (030) 50 56 - 10 70

E-Mail: [email protected]

Fachbereich VI Informatik und Medien

47

Page 48: 9FA Abschlussbericht 2010 Abschlussbericht 2010

1. Einleitung

Im Projekt „bionical morphological computation“ geht es

um die Prinzipien der Kinematik biologischer Flossen und

deren Anwendung/Übertragung auf Seefahrzeugen und/

oder Kraft- und Arbeitsmaschinen.

Ausgangspunkt des Projektes ist das energetische, effiziente

Verhalten von wandernden Fischen (Salmoniden, Lachse

und Forellen) in turbulenten Gewässern. In diesen nutzen

Salmoniden passiv Strömungswirbelsysteme für ihren Vor-

trieb.

Schnell schwimmende Fische nutzen für ihren Vortrieb die

Schwanzflosse. Diese ist ein Teilsystem des gesamten Fisches

und besitzt eine gewisse funktionale Unabhängigkeit. Die

Schwanzflosse passt sich der Umströmung in günstigster

Weise an, ohne dass dies zusätzlichen Kontrollaufwand für

den Fisch bedeutet. Die Anpassung geschieht aus dem me-

chanischen Flossenaufbau heraus quasi von selbst, automa-

tisch – so die These. [1]

Hier setzt das Projekt an: die Mechanik der Fischflosse auf

Strömungsleitflächen, Tragflügel zu übertragen, die sich bei

einer veränderten Anströmung automatisch in günstiger

Weise anpasst. Die Anpassung der Leitfläche an eine verän-

derte Umströmungssituation führt vor allem zu einer Verrin-

gerung des Strömungswiderstands und damit zu einer

verbesserten Strömungsenergieausbeute gegenüber einer

herkömmlichen, starren Leitfläche.

Bei der Fischflosse handelt es sich um eine „intelligente Me-

chanik“ [2], die durch eine integrale Gestaltung in vorteilhaf-

ter Weise für das Gesamtsystem reagiert. Weitere Beispiele

aus der belebten Natur sind die Strömungskontrolle durch

flexible Federn beim Vogelflug oder das Biegen des Grashal-

mes als Überlastungsschutz.

Der bionische Charakter des Projektes "bionical morpholo-

gical computation" führte zu inhaltlich vier aufeinander auf-

bauenden Untersuchungsschwerpunkten:

· die Entschlüsselung der biologischen Konstruktionen

(Bionics),

· die Herleitung künstlich adaptiver Gewebe und

· die Untersuchung mittels Computersimulation (mor-

phological computation),

· sowie die Anwendung der gewonnenen Erkenntnisse

auf ein konkretes Bauteil im Seefahrzeug - oder Ener-

giebereich.

2. Der Fischflosseneffekt (Fin-Ray-Effect®)

Fischflossen sind mit Flossenstrahlen verstärkte Membrane

(Fig. 1). Besondere Beachtung findet das Verformungsver-

halten der einzelnen Flossenstrahlen (Fin-Rays), die sich

konkav gegen die Belastungsrichtung ausformen. Verant-

wortlich für diese Ausformung ist der paarige Aufbau der

Strahlen. Die außen liegenden Gurte sind über Stege mitei-

nander verbunden. Das System führt unter Belastung teil-

weise eine Gegenbewegung aus (Fig. 2).

Wird der Flossenstrahl mit einer Kraft "F" belastet, verformt er

sich aufgrund der inneren Struktur teilweise gegen die Belas-

tungsrichtung. Die Umströmung einer sich bewegenden Flosse

führt zu einem Druckgefälle auf der Flossenober- und unter-

seite und unterstützt eine wie in Fig.2 skizzierte Verformung.

Bionical Morphological Computation

48

Bionical Morphological ComputationMarcus Siewert M.Eng., Prof. Dr.-Ing. Hans-Dieter KleinschrodtKooperationspartner: FutureShip GmbH

Im dem Forschungsprojekt ging es um die Prinzipien der Kinematik biologischer Flossen und deren Anwendungen bei See-

fahrzeugen und/oder Arbeits- und Kraftmaschinen.

Nach der Entschlüsselung und Herleitung solcher Kinematiken wurde für die Simulationen die Umgebung der ANSYS

Workbench 12.1 verwendet. Durch das autoadaptive Verhalten der Strömungsleitflächen konnte der Strömungswiderstand

gegenüber einem starren Profil wesentlich verringert und die Energieeffizienz ohne zusätzlichen Kontrollaufwand erhöht

werden.

In the project the kinematical principles of biological caudal fins and their application on vessels and turbines were inves-

tigated. After deciphering and derivation a FSI-Simulation, two-way coupling between fluid and structural mechanics in

ANSYS Workbench 12.1, was used to investigate the behaviour of the fin system. The foil flow adaption causes less drag

than a conventional foil without any control efforts. Applications are guide vanes in pumps, ship`s hydrodynamics and

blades of Wells-turbines.

Page 49: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Ausgehend von diesem spezifischen Effekt wurde ein kinema-

tisches, raportierfähiges Ersatzmodell entwickelt, das unab-

hängig von der typisch konischen Form des Flossenstrahls

Anwendung finden soll (Fig. 3).

Diese Formunabhängigkeit soll die Anwendung des Fisch-

flosseneffektes auf Bauteile ermöglichen, die parallelgurtig

konstruiert sind. Das oben gezeigte Modell ist Grundlage für

die Patentanmeldung „Belastungsadaptiv ausgebildete

Bauteile“ der Beuth Hochschule für Technik Berlin. [3]

3. Simulationen

3.1 Struktursimulationen

In einem ersten Schritt wurde das kinematische Ersatzmo-

dell mit Einzellasten in einer Mehrkörpersimulation (MKS)

analysiert. Das Wesen des Mehrkörpersystems ist die Abbil-

dung einer Kinematik mit starren Körpern, deren Bewegung

zueinander durch Gelenke definiert werden. Das hier unter-

suchte Modell besteht aus starren Stäben, die durch ideale

Drehgelenke miteinander verbunden sind und aus linear -

elastischen Federelementen, die die Bewegung begrenzen,

Formänderungsenergie speichern und dadurch eine Gleich-

gewichtslage herstellen (Fig. 4).

Eine Belastung über die gesamte Länge des Modells (Fig. 4)

zeigt die gewünschte Systemverformung.

In einem weiteren Schritt wurde diese Kinematik auf einen

Balken übertragen, der durch Aussparungen die Gelenksys-

tematik wiedergibt. (Fig. 5)

Die so angeordneten Aussparungen ergeben dabei eine

Folge von „H“-förmigen Aussparungen. Das Gesamtmodell

wird durch die H-Hole-Elemente und die Anordnung der

lokalen dünnen Stellen wiedergegeben. Die dünnen Material-

stellen sind durch ihre geringeren Steifigkeiten dehnungs -

fähiger (gelenkähnlicher) und weisen ein elastisches Rück -

stellverhalten (Feder) auf.

Mit der Parametrisierung der H-Hole-Elemente wie Radien,

Längen und Höhen wurde eine Optimierung durchgeführt,

um die bestmögliche Auslenkung zu erzielen. Fig.6 zeigt das

Ergebnis für einen Belastungsfall nach dem 1. und 2. H-Hole-

Element.

Bei der Struktursimulation blieb die Materialfrage, um den

Fokus zuerst nur auf den Bewegungseffekt zu richten, zu-

nächst unbeantwortet. Es wurde mit einem linearelastischen

Materialgesetz gerechnet, d.h. auftretende physikalische

Nichtlinearitäten blieben unberücksichtigt.

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

49

Flossenstrahlen (Draufsicht)

Haut / Membran

typisch ist die konische Form

Seitenansicht

Fig. 1: Prinzipieller Aufbau einer Forellenflosse.

F

Fig. 2: Flossenstrahlen unter Belastung.

Fig. 3: Kinematisches, raportierfähiges Ersatzmodell mit Fin-Ray-Effect ®

Fig. 4: Belastung des kinematischen Ersatzmodells

Fig. 5: Balken mit Aussparungen

Fig. 6: Auslenkung des strukturierten und belasteten Balkens, links festeingespannt, rechts frei, 740 mm Gesamtlänge, 30 mm Höhe, 1 mmDicke, Baustahl, Verformung 10fach überhöht, F1= 100N, F2= 30 N, ESZ

Page 50: 9FA Abschlussbericht 2010 Abschlussbericht 2010

3.2 Fluid-Struktur-Interaktion

Um sich der Realität weiter anzunähern, wurde eine 2-Wege-

Fluid-Struktur-Interaktionsberechnung durchgeführt, und in

einem ersten Schritt das Strömungsfeld (Geschwindigkeiten,

Drücke) um das Bauteil herum berechnet (Fluidberechnung,

Fig. 7b). Die dabei ermittelten Kräfte an der Bauteilgrenze

werden in einem zweiten Schritt zur Strukturberechnung

übertragen (Fig.7a). Je definiertem Zeitschritt wird mehrere

Male zwischen Strömungs- und Strukturfeld iteriert. Der ge-

samte Berechnungsprozess wird solange durchgeführt bis

sich für die gegebene Bauteilumströmung ein Kräftegleich-

gewicht in verformter Lage einstellt und das Bauteil u.U.

deutliche Verformungen aufweist. Weist das Bauteil keine

deutliche Verformung auf, d.h. das Strömungsfeld um das

Bauteil ändert sich nicht wesentlich, genügt zur Berechung

eine einzige Iteration von Fluid- zur Struktur (1-Wege-Fluid-

Struktur-Interaktionsberechnung). Im gezeigten Fall war bei

der Umströmung des Strömungskörpers mit H-Hole-Struktur

eine 2-Wege-Fluid-Struktur-Berechnung notwendig.

Als zu untersuchender Strömungskörper wurde der in der

Struktursimulation untersuchte Balken, hier allerdings mit

abgerundeten Enden, verwendet (Fig. 7 und Fig. 8).

Der Strömungskörper wurde mit parametrisierten H-Hole-

Strukturen versehen, die sich über die Körperlänge gleich-

mäßig verteilen. Bei einer Anströmgeschwindigkeit von 5 m/s

und einer Körperlänge von 0,3 m ergibt sich in Wasser (20 °C)

eine Reynoldszahl von ca. 1,7*106. Der Anströmwinkel wurde

gleitend von 0 auf 22 Grad erhöht. Als Turbulenzmodell

wurde das SST-Modell verwendet.

Die hier vorgestellten H-Hole-Strukturen haben nach den

durchgeführten Parameter-Untersuchungen die gewünschte

strömungsgünstige Verformung noch nicht genügend ausge-

prägt gezeigt, wie in Fig. 9 zu sehen.

In einem nächsten Schritt wurde eine weitere Umsetzung

des Fischflossenprinzips analysiert, bei dem sich die ge-

wünschten Effekte deutlicher einstellten.

Der Körper hat nun mehr die Form eines Tragflügelprofils

(Fig. 10). Er besteht aus einem festen Lagerungspunkt an

der Profilnase in Form einer Kreisscheibe, einem elastischen

Band um diese Scheibe und aus drei an diesem Band fixier-

ten Stegen. Das symmetrische Profil hat eine Dicke von 15%

und eine Dickenrücklage von 30 % bezogen auf die Profil-

tiefe.

Durch die Änderung des Anströmwinkels und damit des

Druckgradienten auf der Profiloberfläche sowie die Möglich-

Bionical Morphological Computation

50

a) b) c)

Fig. 7: a) Vernetzter Festkörper, b) vernetztes Strömungsgebiet, c) Kopplung

Fig. 9: FSI mit Balkenkörper, Anströmwinkel 22 Grad, Druckverteilungund Y-Verschiebung des Körpers

0,24 m

Anströmwinkel

Fig. 10: Strömungskörper B

Fig. 11: Verbundrandbedingung zwischen Band (rot) und der Festlage-rung (Kreisscheibe)

0,03 m

0,3 m

Anströmwinkel

Fig. 8: Strömungsgebiet und Strömungskörper A

Page 51: 9FA Abschlussbericht 2010 Abschlussbericht 2010

keit der Ablösung und Anschmiegung des Bandes um die

Kreisscheibe, passt sich der Körper passiv der Strömung an.

Aus einem symmetrischen wird durch Anströmwinkelände-

rung ein asymmetrischer Strömungskörper mit geringeren

Strömungswiderständen. Die strömungsgünstigere Verfor-

mung ergab laut Simulationsberechnung bei leicht verrin-

gertem Auftrieb eine maximale Widerstandsverringerung

von 85% bei einem Anströmwinkel von 20 Grad gegenüber

einem unverformten Körper. Ursächlich hierfür ist ein gerin-

gerer Druckwiderstand aufgrund der Adaption. Damit

könnte sich ein hohes technisches Nutzungspotential der

untersuchten inneren Strukturen, nach dem Vorbild der

Natur ergeben, die auf die oben genannten Anwendungs -

gebiete übertragbar sind.

Bei einem Anströmwinkel von 20 Grad trat bei beiden Strö-

mungskörpern keine stationäre Umströmung mehr auf. Gut

erkennbar ist bei der Umströmung des starren Körpers

(Fig. 12 unten) der Ablösungswirbel hinter dem Profil. Peri-

odisch auftretende Ablösungen verursachen ein zeitabhän-

giges Strömungsbild sowie um einen Mittelwert schwanken -

de Reaktionskräfte. Die Strömungsablösungen vom Profil

traten ab einem Anströmwinkel von 15 Grad auf. Die Unter-

suchung der Auftriebs- und Widerstandskräfte bei veränder-

tem Anströmwinkel ergab bezüglich des Auftriebs einen

geringeren Anstieg für das adaptive Profil, jedoch keinen

Einbruch des Auftriebs bei 15 Grad. Das Gleitverhältnis, als

Systemkennzahl, ist bei dem starren Profil für kleine Winkel

besser. Der adaptive Körper hat ab einem Anströmwinkel

größer 10 Grad (Fig. 13) das bessere Gleitverhältnis bzw.

bleibt auf einem hohen Niveau während die starre Tragflä-

che schon ablöst. Während der Widerstandsbeiwert des

starren Profils mit steigendem Anströmwinkel überpropor-

tional ansteigt, ist beim adaptiven Profil nur ein sehr gerin-

ger Anstieg errechnet worden. Die Fluidströmung konnte der

Kontur des adaptiven Körpers länger und besser folgen. Der

Strömungsabriss wird beim adaptiven Körper wesentlich in

Richtung größerer Anströmwinkel verschoben.

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

51

Fig. 12: Starrer und adaptiver Strömungskörper B, Anströmwinkel 20Grad, Druckverteilung und Y-Verschiebung des Körpers

Auftriebsbeiwert ca

0,0

0,2

0,4

0,6

0,8

1,0

1,2

1,4

0 5 10 15 20

Anströmwinkel in Grad

ca

Profil Starr

Profil Adaptiv

Gleitverhältnis ca/cw

0

10

20

30

40

0 5 10 15 20

Anströmwinkel in Grad

ca

/cw

Profil Starr

Profil Adaptiv

Widerstandsbeiwert cw

0,00

0,10

0,20

0,30

0,40

0 5 10 15 20

Anströmwinkel in Grad

cw

Profil Starr

Profil Adaptiv

Fig. 13: Auftriebs-/Widerstandsbeiwert und Gleitverhältnis des starrenund adaptiven Strömungskörpers B

Page 52: 9FA Abschlussbericht 2010 Abschlussbericht 2010

4. Zusammenfassung

Strömungskörper, die sich nach dem Vorbild der Fischflosse

autoadaptiv der Strömung anpassen und dadurch Wirkungs-

grade von technischen Anlagen im Betrieb erhöhen, sind viel

versprechende Ansätze mit wirtschaftlichem Nutzen.

Die hier dokumentierten Untersuchungen zeigen, dass

Formadaptionen von Strömungskörpern auch bei hohen

Anströmwinkeln hohe Gleitverhältnisse generieren. Ein inte-

ressantes Gebiet kann z.B. der Einsatz adaptiv wirksamer

Nach leitschaufeln in Axialpumpen sein, die sich den unter-

schiedlichen Pumpenbetriebszuständen anpassen und vo-

raussichtlich den mittleren Wirkungsgrad erhöhen.

Diese ersten Untersuchungen, die mit Hilfe des Fluid-Struk-

tur-Interaktions-Tools von ANSYS durchgeführt wurden,

waren stark idealisiert. Vereinfachungen waren u.a. die 2 di-

mensionale Strömung, das linear elastische Materialverhal-

ten und die lineare Änderung des Anströmwinkels bis zur

jeweiligen quasi stationären Endstellung. Inwieweit weitere

adaptive Strömungskörper nach dem Vorbild der Fischflosse

Maschinenwirkungsgrade erhöhen, werden weitere Untersu-

chen an der Beuth Hochschule für Technik Berlin zeigen.

5. Literatur

[1] Triantafyllou, M.: Effizienter Flossenantrieb für

Schwimmroboter, Spektrum der Wissenschaft 08-1995,

S. 66 – 73, Wissenschaft- Verlagsgesellschaft mbH, Hei-

delberg, 1995.

[2] Krebber, B.: „i-mech“: Untersuchung der intelligenten

Mechanik von Fischflossen mit Hilfe von FSI-Simulation.

Forschungsbericht der Technischen Fachhochschule Ber-

lin 2007/08.

[3] DE 10 2009 059 246.6

[4] Mirtsch, F.; Dienst, M.: FolwBow – Artifizielle adaptive

Strömungskörper nach dem Vorbild der Natur. Kinema -

tische und fluidmechanische Untersuchungen.

Forschungsbericht der Technischen Fachhochschule

Berlin 2004/05.

[5] Gutmann, W.: Die Evolution hydraulischer Konstruktio-

nen. Verlag W. Kramer: Frankfurt am Main, 1989.

[6] Liao, J.C.; Beal, D.; Lauder, G.; Triantayllou, M.: Fish Ex-

ploting Vortices Decrease Muscle Activty, In: Science

2003, S. 1566 – 1569. AAAS.

[7] Nachtigall, W.; Blüchel, K.: Das große Buch der Bionik,

Deutsche Verlags Anstalt Stuttgart, 2000.

Kontakt

Prof. Dr.-Ing. Hans-Dieter Kleinschrodt

Beuth Hochschule für Technik Berlin

Fachbereich VIII Maschinenbau, Verfahrens- und

Umwelttechnik

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 54 54 oder - 29 37

E-Mail: kleinsch@beuth-hochschule.de

Kooperationspartner

FutureShip GmbH

Geschäftsführung: Dr. K. Hochkirch

Tel.: (0331) 97 99 179 - 0

E-Mail: [email protected]

Forschungsingenieur: Dipl.-Ing. B. Krebber

Tel.: (0331) 97 99 179 - 0

E-Mail: [email protected]

Bionical Morphological Computation

52

Page 53: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

53

1 Einleitung

1.1 Was ist Kavitation?

Das Verdampfen einer Flüssigkeit kann durch Temperaturer-

höhung oder durch Druckerniedrigung erfolgen. Letzteres

nennt man Kavitation. In einer Strömung hängt der lokale

Druck von der Strömungsgeschwindigkeit ab: Je höher die

Geschwindigkeit, umso geringer ist der lokale statische

Druck. Demzufolge sind alle durchströmten Bauteile kavita-

tionsgefährdet, in denen durch Querschnittsverengungen

die Strömungsgeschwindigkeit stark ansteigt, z.B. Stellven-

tile mit sehr geringem Hub. Wichtig bei der Kavitationsent-

stehung ist, dass es in der Flüssigkeit Keimstellen (Partikel

oder Gasbläschen) gibt, die die Zugfestigkeit des Wassers

reduzieren und somit die Dampfentstehung erst möglich

machen.

Das Auftreten von Kavitation ist im Alltag nicht sehr augen-

scheinlich, kann aber zu erheblichen Beeinträchtigungen,

Schäden oder Versagen von Bauteilen führen, da die Dampf-

blasen in Gebieten höheren Drucks wieder zusammenfallen.

Dies geschieht implosionsartig und es bilden sich auf kleins-

tem Raum sehr hohe Drücke und Geschwindigkeiten aus,

sog. Microjets.

Passiert dies in Wandnähe, so kann dadurch Material abge-

tragen werden, siehe Abbildung 1. Dieser Vorgang kann auf

Dauer zu irreparablen Schäden und dem Totalausfall der

entsprechenden Bauteile führen. Eine Absicherung gegen

Kavitation ist also bei der Auslegung von z.B. Armaturen un-

bedingt durchzuführen.

1.2 Kavitation in Druckregelventilen

In Verbrennungsmotoren mit Einspritzsystemen wird der

Kraftstoff aus dem Tank angesaugt und über eine Hoch-

druckpumpe auf den benötigten Einspritzdruck (ca. 2200

bar) gebracht. Der Kraftstoff wird über ein entsprechendes

Leitungssystem der Einspritzvorrichtung (Injektor) zuge-

führt. In sogenannten Common-Rail-Systemen wird der

Kraftstoff vor der Injizierung in einem Druckspeicher (Rail)

gespeichert. Die Druckerzeugung und die Einspritzung über

die Injektoren in die Motorbrennkammer sind somit vonei-

nander entkoppelt, siehe Abbildung 2. Die Aufgabe des

Druckregelventils (PCV, pressure control valve) ist es, den

Druck im Rail abhängig vom Lastzustand des Motors einzu-

stellen und zu halten.

Bei zu hohem Raildruck öffnet das Ventil, so dass ein Teil

des Kraftstoffes aus dem Rail zurück in den Kraftstoffbehäl-

ter gelangt. Bei einem zu niedrigen Raildruck schließt das

Druckregelventil und dichtet die Hochdruckseite gegen die

Kavitierende Strömung in Diesel-EinspritzsystemenMatthias Voß, M.Eng., Prof. Dr.-Ing. Peter BartschKooperationspartner: CFX Berlin Software GmbH, Hydraulik-Ring GmbH

In den Kraftstoffleitungen von modernen Common-Rail-Dieseleinspritzsystemen herrschen Drücke bis zu 2500 bar. Zur

Einstellung des Raildrucks bei verschiedenen Lastpunkten verwendet man ein Druckregelventil. Im Druckregelventil wird

der Druck über sehr kurze und enge Spalte abgebaut, damit der Kraftstoff wieder in den Tank zurückgeleitet werden kann.

Durch die sehr hohen Strömungsgeschwindigkeiten im Spalt entstehen lokale Unterdruckgebiete, in denen Kavitation auf-

tritt. Nur bei korrekter Berechnung der kavitierenden Strömung kann eine Vorhersage über eventuelle Schäden vorgenom-

men werden.

Es wurde der Einfluss gelöster Gase auf die kavitierende Strömung in einem Druckregelventil untersucht.

In modern Common Rail Injection Systems pressure levels can reach up to 2500 bar. To adjust the rail pressure for different

load points a pressure control valve is required. In this valve which connects the common rail and the fuel tank the pres-

sure is reduced to tank pressure level through a very narrow gap. As a consequence, a region with extremely high flow ve-

locities exists where the pressure drops below the saturation pressure and cavitation occurs. In order to predict damages

due to cavitation a CFD simulation must correctly predict position and strength of the cavitation region.

To enhance the quality of the CFD simulation the influence of non-condensable gases on the cavitating flow in a pressure

control valve was examined.

�������

Abb. 1: Kollaps einer Dampfblase in Wandnähe und entstehender Micro-jet beim Zerfall

Page 54: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Niederdruckseite ab. Das Druckregelventil wird hierbei elek-

tromagnetisch eingestellt und über den Raildrucksensor an-

gesteuert, siehe Abbildung 3. Im schlimmsten Fall fließt die

gesamte Fördermenge der Pumpe über das Druckregelven-

til. Durch die sehr hohen Strömungsgeschwindigkeiten ist

ein Kavitieren der Strömung nicht zu vermeiden, eine Schä-

digung des Ventils oder der Schließkomponenten durch Ero-

sion ist aber unbedingt zu vermeiden, siehe Abbildung 4.

Hierfür muss eine geeignete Ventilgeometrie gefunden wer-

den. Eine numerische Strömungssimulation kann wichtige

Hinweise bei der Geometrievariation liefern und den Rah-

men der notwendigen Prototypen erheblich minimieren.

1.3 Art und Umfang der Kooperation

Kooperationspartner bei diesem Forschungsvorhaben sind

die CFX Berlin Software GmbH und die Hydraulik-Ring GmbH.

Die kooperierende Hydraulik-Ring GmbH ist Teil der HILITE

International. HILITE International ist ein weltweiter Entwick-

lungspartner und Serienlieferant der Automobilindustrie.

Fokus liegt auf den Komponenten und Einzelsystemen für

Motor und Antriebsstrang. Die untersuchte Ventilgeometrie

gehört zum Produktkatalog der Hydraulik-Ring GmbH. Die

Hydraulik-Ring GmbH verfügt über mehrere Messstände und

Labore, an denen im Vorfeld Messungen durchgeführt wur-

den. Die aktuelle Ventilgeometrie soll hinsichtlich des Auf-

tretens von Kavitation und des Blasenzerfalls in Wandnähe

untersucht werden und mittels numerischer Strömungssi-

mulation ein Hinweis für mögliche Verbesserungen gefun-

den werden. Zum Einsatz kommt hierbei der Strömungslöser

ANSYS CFX.

Die CFX Berlin Software GmbH ist ein Berliner Ingenieurbüro

für numerische Strömungssimulation (CFD) sowie analyti-

sche und experimentelle Strömungsmechanik. Darüber hi-

naus vertreibt CFX Berlin die ANSYS CFD Software und

übernimmt Support für diese Programmpakete.

Ausgehend von der schon im Vorfeld bekannten Problematik

der Ventildurchströmung und der Kavitationsberechnung mit

ANSYS CFX, stellte CFX Berlin neben der persönlichen Be-

treuung auch Schulungen im Bereich der Vernetzung und

Automatisierung im Projekt zur Verfügung.

2 Durchführung

2.1 Sensitivitätsstudie

Zu Beginn sollten erste Berechnungen den aktuellen Stand

der Rechentechnik an der schon bekannten Geometrie un-

tersuchen, eventuelle Abhängigkeiten zu den Berechnungs-

einstellungen herstellen und ein stabiles Setup für die

nachfolgenden Berechnungen liefern. Es wurden verschie-

denste Vernetzungen und Berechnungseinstellungen ange-

Kavitierende Strömung in Diesel-Einspritzsystemen

54

������������

����� �������� � �� ����

����� � �� ��������

��������� ����

����

��������������

�������������� �

���

��

���

��

���

��

���

��

���

Abb. 2: Schema der Kraftstoffführung

Abb. 4: Stempel des Druckregelventils. Gut zu erkennen sind die Kavitationsschäden und die Einpressmulde der Kugel.

��

Abb. 3: Schnitt durch das geöffnete Druckregelventil (1=Ventilsitz;2=Schließelement; 3=Stempel; 4=Ventilschlitten; 7=Magnetkern;6=Verschlussfeder; 7=Steueranschluss)

Page 55: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

55

wendet. Es wurden Gitter- und Konvergenzstudien durchge-

führt, um Aussagen über die benötigte Netzfeinheit und Er-

gebnissicherheit zu erhalten. Bei diesen Untersuchungen

trat ein interessantes Strömungsverhalten auf, das nachfol-

gend näher untersucht wurde.

Die untersuchte Geometrie führt zu qualitativ unterschiedli-

chen Strömungsbildern bei identischen Vernetzungen: die

Strömung legt sich entweder an die Wand des Ventilsitzes

oder an die Kugel an.

Um heraus zu finden, welche dieser beiden Strömungsfor-

men in der Praxis wahrscheinlicher ist, wurde die Stabilität

dieser Strömungszustände untersucht. Durch Impulsquellen

kann gezielt die wandnahe oder die kugelnahe Strömung er-

zwungen werden. Nach Abschalten der Impulsquellen sollte

sich anschließend die stabilere Strömungsform einstellen,

siehe Abbildung 5 und Abbildung 6.

Die Untersuchungen zeigen, dass die kugelnahe Strömung

stabiler ist. Die Schadensbilder von existierenden Hydraulik-

ventilen unterstützen dieses Ergebnis, siehe Abbildung 4. Es

wurde entschieden, alle nachfolgenden Berechnungen mit

der kugelnahen Konfiguration durchzuführen.

2.2 Ausgasungsmodel

Jede Flüssigkeit beinhaltet einen gewissen Anteil an gelös-

ten Gasen, der technisch nur sehr schwer zu entfernen ist.

So ist z.B. durch Entgasung von Wasser lediglich ein Absin-

ken von 15ppm auf 3ppm möglich. Ein weiteres Absenken

der Gaseinschlüsse ist extrem schwierig, siehe hierzu

[BRE95]. Durch strömungsinduzierten Druckabfall in einer

Strömung, der schlussendlich auch zur Kavitation führt, tre-

ten in der Flüssigkeit gelöste Gase aus und bilden schon vor

Einsetzen der Kavitation Gasblasen im Strömungsvolumen

und erhöhen somit die Anzahl möglicher Keimstellen. In

einer numerischen Strömungssimulation soll der Einfluss

der gelösten Gase untersucht werden. Ausgangspunkt des

homogenen Ausgasungsmodells ist ein bekannter, empiri-

scher Zusammenhang zwischen der Dichte des Dieselkraft-

stoffes und Temperatur und Druck im Fluid:

Die Gemischdichte (Diesel + Gasblasen) wird anhand der fol-

genden Überlegungen errechnet:

An der Grenzfläche zwischen Gas (Index g) und Flüssigphase

(Index l ) kommt es durch Diffusion zum Austausch von Mo-

lekülen. Der Eintritt der Gasmoleküle ist hierbei abhängig

vom Partialdruck des Gases, der Austritt ist proportional zur

aktuellen Konzentration des Gases in der Flüssigkeit.

Der lokale Strömungsdruck p entspricht in der ersten An-

nahme dem Partialdruck des ausgeperlten Gases, da sich

Abb. 6: Ausgangszustand: wandnahe Strömung

Störung durch Impulsquellen: kugelnahe Strömung

Ergebnis: Strömung bleibt an der Kugel

Abb. 5: Ausgangszustand: kugelnahe Strömung

Störung durch Impulsquellen: wandnahe Strömung

Ergebnis: Strömung legt sich wieder an Kugel an

Page 56: 9FA Abschlussbericht 2010 Abschlussbericht 2010

keine weiteren Komponenten in der Gasphase aufhalten.

Das HENRY-Gesetz verknüpft im Gleichgewichtszustand den

aktuellen Partialgasdruck pGas  mit der sich in Lösung be-

findlichen Stoffmenge cl:

wobei kHENRY die HENRY-Konstante in mol/(l · atm) und cl in

molGas/ lFlüssigkeit die Konzentration an lösbarem Gas in der

Flüssigkeit ist. Unter der Annahme eines binären Stoffgemi-

sches und einer Gasphase nach dem idealen Gasgesetz fin-

det sich folgende Dichtefunktion pGemisch = f (p) für ein Fluid,

in dem das gelöste Gas in Abhängigkeit vom Druck ausperlt

und dessen Einfluss auf die Strömung in Form einer geringe-

ren Gemischdichte abgebildet wird:

Wobei ρf für die Dichte der Flüssigkeit, cg für die Konzentra-

tion an ausgeperltem Gas, MG für die molare Masse des

Gases und R für die allgemeine Gaskonstante stehen.

Die Konzentration an ausgeperltem Gas cg errechnet sich

aus der Differenz von Grundkonzentration c0 und der aktuell

lösbaren Konzentration _ cl.

Die Anfangskonzentration an gelöstem Gas c0 kann entspre-

chend dem Eingangs-/Umgebungsdruck errechnet werden.

Die Konzentration des Gases in der Flüssigkeit kann in Form

der Massenfraktion yg aufgefasst werden und als zusätzli-

che Transportgleichung der Form

im Strömungsraum gelöst werden [ANS09]. Der zeitliche Ver-

zug der Lösung und Ausperlung wird über den Quellen- und

Senkenterm der Transportgleichung in Form von

beschrieben. Die Faktoren fA und fL bilden die Parameter die

bestimmen, mit welcher Geschwindigkeit die lokale Lösung

(L) und die lokale Ausgasung (A) stattfinden. Diese Parame-

ter müssen je nach Anwendung auf die jeweilige Stoffpaa-

rung eingestellt werden. Der Wert y0g steht für die lokal

lösbare Menge an Gas.

In den Berechnungen wurde als gelöstes Gas Stickstoff ver-

wendet. Nach [SAN99] gilt für gelösten Stickstoff eine

HENRY-Konstante von kHENRY = 6,5 · 10-4 mol/(l · atm). In Er-

mangelung von belastbaren Messdaten wurde eine Sensiti-

vitätsanalyse der Parameter fA und fL durchgeführt. Es

wurde eine stufenweise Analyse mit fL = 1; fL = 10 und

fL = 100 durchgeführt und jeweils das Verhältnis der Parame-

ter untersucht. Abbildung 7 zeigt die Abhängigkeit der mini-

mal auftretenden Dichte zum Verhältnis der Parameter fA

und fL. Es kann festgestellt werden, dass erst ab einem Ver-

hältnis �100 eine quantifizierbare Dichteänderung erfolgt.

Für Werte 1.000 � fA � 1.000.000 tritt ein signifikanter Ein-

fluss des Parameters auf die errechneten Dichten auf. Bei

korrekter Kalibrierung der Parameter fA und fL muss bei Er-

reichen des Dampfdruckes die lokale Dichte im Strömungs-

gebiet die bekannte empirische Dichte-Druckabhängigkeit

erfüllen. Wie Abbildung 7 zeigt, stellt sich unabhängig von

der Lösungsgeschwindigkeit fL für fA = 550.000 die ange-

strebte Vergleichsdichte ein.

Eine konkrete Aussage über den Parameter fL kann nicht ge-

troffen werden, da leider keine Messdaten über Lösungsge-

schwindigkeiten vorliegen. Dieser Parameter kann jedoch in

späteren Untersuchungen numerisch optimiert werden.

2.3 Full Cavitation Model

Die im Ausgasungsmodel getroffenen Annahmen bezüglich

der variablen Dichte durch den Einfluss gelöster Gase sollen

nun erweitert werden.

Im Zusammenspiel mit auftretender Kavitation muss die

Dampf- und Flüssigphasenzusammensetzung näher beschrie-

ben werden, so geschehen in [YAN05]. Die Flüssigphase wird

als ein Zwei-Komponentengemisch aus Flüssigkeit und ge-

löstem Gas aufgefasst, wobei die Dichte der Flüssigkeit als

konstant angenommen wird. Das gelöste Gas kann ausper-

len, die Flüssigkeit verdampfen.

Der flüssige Anteil kann nach dem Rayleigh-Plesset-Model

[ANS09] bei einsetzender Kavitation in die Dampfphase

übergehen. Das in der Flüssigkeit gelöste Gas, das in die-

sem Zustand kein Volumen einnimmt, kann bei fallendem

statischem Druck in die Gasphase übergehen. Die gesamte

gasförmige Phase setzt sich somit aus den Anteilen der

Kavitierende Strömung in Diesel-Einspritzsystemen

56

Abb. 7: Ermittlung des Parametereinflusses auf die minimale Gemischdichte

Page 57: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

57

· Verdampfung/Kondensation der Flüssigkeit (Dampf -

kavitation) [SAU00] und

· Absorption/Desorption (Gaskavitation) der gelösten

Gase zusammen,

der Druck somit aus den einzelnen Partialdrücken. Der Kavi-

tationsdampf wird über die ideale Gasgleichung beschrie-

ben, für das gelöste Gas kann der Partialdruck wiederum aus

dem HENRY-Gesetz errechnet werden. Zusammengefasst

lässt sich ein Ausdruck für die Entstehung und Vernichtung

an Gas im Berechnungsgebiet herleiten. Auf die Herleitung

und Aufführung der entsprechenden Gleichungen wird an

dieser Stelle verzichtet, sie sind ausführlich in [YAN05] zu

finden.

3 Berechnung der kavitierenden Strömung

Es konnte in Berechnungen gezeigt werde, dass das Full

Cavitation Model im Bereich von 1 – 2500 bar an einer Bei-

spielgeometrie (scharfkantige Lochblende) zu guten Über-

einstimmungen mit empirischen Gleichungen führt.

Bei Berechnungen an der Modelgeometrie des Druckregel-

ventiles treten bei der vollen Druckdifferenz von 2500 bar

erhebliche Konvergenzprobleme bei der numerischen Lösung

auf. Eine Stabilisierung des Berechnungsverlaufes und die

erhoffte Dämpfung der schlagartigen Verdampfung im Be-

rechnungsgebiet der Strömung traten bei Verwendung des

Full Cavitation Models nicht auf. Zwar konnten bisherige

Berechnungsergebnisse reproduziert werden und Untersu-

chungen bezüglich Gittereinfluss und Konvergenzniveaus

durchgeführt werden, eine abschließende Berechnung der

kavitierenden Strömung führte aber dennoch nicht zu aus-

sagekräftigen Ergebnissen. Es wird vermutet, dass die Auflö-

sung des Spaltbereiches deutlich erhöht werden muss, um

eine numerisch stabile, zeitaufgelöste Berechnungen durch-

zuführen. Eine solche Berechnung ist zum derzeitigen Stand

der Rechentechnik noch nicht möglich; die benötigten Re-

chenzeiten für einen Betriebspunkt würden den Rahmen

einer industriellen Produktentwicklung übersteigen. Es ist

langfristig davon auszugehen, dass die Berechnung des

Druckregelventiles prinzipiell möglich ist, sobald bei genü-

gender Rechenkapazität die Dauer der Berechnung in Zu-

sammenspiel mit der benötigten Rechengenauigkeit im

Rahmen der Produktentwicklung durchgeführt werden kann

(Berechnungs-dauer im Bereich von mehreren Stunden bis

Tagen).

4 Zusammenfassung und Ausblick

Eine gegebene Ventilgeometrie wurde mittels numerischer

Strömungssimulation (CFD) auf ihr Kavitationsverhalten un-

tersucht und der Einfluss gelöster Gase auf die Kavitations-

gebiete näher betrachtet. Es wurden Gitter- und Konver -

genzuntersuchungen durchgeführt, um die nötige Gitter-

und Rechengenauigkeit sicherzustellen.

Ausgehend vom HENRY-Gesetz wurde ein Berechnungs -

model entwickelt, das den Einfluss gelöster Gase in einer

druckabhängigen Dichte des Strömungsmediums abbildet.

Die numerischen Parameter des Models wurden anschlie-

ßend für die Ausgasung mittels einer empirischen Dichte-

funktion für das Strömungsmedium kalibriert. Für das

Lösungsverhalten konnte kein abgesicherter Wert ermittelt

werden.

Die Ausgasung und Lösung von Gasen in kavitierenden Strö-

mungen wird zusammenfassend im „Full Cavitation Model“

hergeleitet, dieses Model wurde in ANSYS CFX implemen-

tiert und an einer Beispielgeometrie untersucht und führte

zu sehr guten Übereinstimmungen.

Die Berechnung der kavitierenden Strömung im Druckregel-

ventil konnte lediglich bei Betriebspunkten bis ca. 500 bar

durchgeführt werden. Berechnungen mit Einlassdrücken im

Bereich des Arbeitspunktes, bei ca. 2500 bar, konnten auch

mittels des Full Cavitation Models nicht ausreichend stabili-

siert werden, um eine ausreichende Konvergenz der Berech-

nung und damit Güte der Berechnungsergebnisse zu

realisieren.

Literatur

[ANS09] ANSYS CFX Help, Release 12.0, ANSYS Inc.,

2009.

[BRE95] Brennen, Christopher E.: Cavitation and Bubble

Dynamics, Oxford University Press, 1995.

[SAN99] Sander, Rolf: Compilation of Henry´s Law Con-

stants for Inorganic and Organic species of Po-

tential Importance in Environmental Chemistry,

Max-Plank Institute of Chemistry Mainz, 1999

[YAN05] Yang, H.Q., Singhal, A.K., Megahed, M.: The Full

Cavitation Model, von Karman Institute of Fluid

Dynamics, 2005.

[SAU00] Sauer, J. Instationäre kavitierende Strömungen.

Ein neues Modell, basierend auf Front Captu-

ring (VoF) und Blasendynamik, Dissertation,

Universität Karlsruhe, 2000.

Publikationen

Numerische Simulation der kavitierenden Strömung in

Diesel-Einspritzsystemen

ANSYS Conference & CADFEM Users Meeting, 2009,

ISBN:3-937523-09-5

Page 58: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Vortrag

Applikation von OpenFOAM® zur Analyse von Airbag-Gas -

generatoren.

Jahrestreffen der ProcessNet-Fachausschüsse Computatio-

nal Fluid Dynamics und Wärme- und Stoffübertragung,

Hamburg, 2010.

Kontakt

Prof. Dr.-Ing. Peter Bartsch

Beuth Hochschule für Technik Berlin

Fachbereich VIII Maschinenbau, Verfahrens- und

Umwelttechnik

Luxemburger Straße 10

13353 Berlin

Tel.: (030) 45 04 - 53 11

E-Mail: [email protected]

Kooperationspartner

CFX Berlin Software GmbH

Geschäftsführung Dipl.-Ing. Petra Maier

Technischer Ansprechpartner: Dr. Andreas Spille-Kohoff

Tel.: (030) 29 38 11 39

E-Mail: [email protected]

Hydraulik-Ring GmbH

Daniel Viertler

Tel.: (0 70 22) 92 26 23 70

E-Mail: [email protected]

Kavitierende Strömung in Diesel-Einspritzsystemen

58

Page 59: 9FA Abschlussbericht 2010 Abschlussbericht 2010

Arbeitsgebiete der Forschungsassistent/innen als Übersicht

59

Forschungsassistent/in Forschungsgebiet Betreuer/in

Fachbereich II Mathematik - Physik - Chemie

Dr. Norbert Gorenflo Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA) Prof. Dr. Martin Ochmann

Fachbereich III Bauingenieur- und Geoinformationswesen

Martin Floth M.Sc. Optische 3D Messtechnik für die berührungslose, Prof. Dipl.-Ing. Michael Breuer

detaillierte Erfassung von Objektoberflächen in

Archäologie und Denkmalpflege

Fachbereich IV Architektur und Gebäudetechnik

Dr. Charlotte Hagner Entwicklung eines Zertifizierungssystems „Nachhaltige Prof. Kai Kummert

Immobilien für den Mittelstand“ in Deutschland

Fachbereich V Life Sciences and Technology

Dipl.-Ing (FH) Josephine Reiss Entwicklung von PCR Verfahren zum schnellen und einfachen Prof. Dr. Herbert Weber

Nachweis von Parasiten und anderen Krankheitserregern in

Trink- und Brauchwässern

Dipl.-Ing. (FH) Shireen Weise Methoden zur Identifizierung von posttranslationalen Prof. Dr.-Ing. Roza Maria Kamp

Modifikationen in Proteinen

Fachbereich VI Informatik und Medien

Dipl.-Ing. Andreas Hilbert Weiterentwicklung eines Sprachsynthesesystems Prof. Dr. Hansjörg Mixdorff

Dipl.-Inf. FH Benjamin Wolf Nutzerdaten und Nutzerprofile in Lernraumsystemen Prof. Dr. Agathe Merceron

Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik

Marcus Siewert M.Eng. Bionical Morphological Computation Prof. Dr.-Ing. H.-D. Kleinschrodt

Matthias Voß M.Eng. Kavitierende Strömung in Diesel-Einspritzsystemen Prof. Dr.-Ing. Peter Bartsch

Arbeitsgebiete der Forschungsassistent/innen als Übersicht

Page 60: 9FA Abschlussbericht 2010 Abschlussbericht 2010

ISBN 978-3-8325-2749-5

Gefördert durch: