5 Mathematisch-Naturwissenschaftliche Fakultät · dungs- und Compute-Server für die im Haus...

53
Jahresbericht 2003 Berichte der Institute und Fachbereiche 85 5 Mathematisch-Naturwissenschaftliche Fakultät Auszug aus der Homepage der Mathematisch-Naturwissenschaftlichen Fakultät: http://www.uni-koeln.de/math-nat-fak/

Transcript of 5 Mathematisch-Naturwissenschaftliche Fakultät · dungs- und Compute-Server für die im Haus...

Jahresbericht 2003

Berichte der Institute und Fachbereiche 85

5 Mathematisch-Naturwissenschaftliche Fakultät

Auszug aus der Homepage der Mathematisch-Naturwissenschaftlichen Fakultät:http://www.uni-koeln.de/math-nat-fak/

Jahresbericht 2003

86 Berichte der Institute und Fachbereiche

5.1 Mathematisches Institut

Homepage Mathematisches Institut: http://www.mi.uni-koeln.de/

5.1.1 Bericht über die Kooperative Informationsverarbeitung

Die Datenverarbeitung im Mathematischen Institut basiert einerseits auf mehreren zentralen SunSolaris-Servern (Sparc-CPUs), einem Itanium 2-basierten HP Integrity Server sowie andererseitsauf zentralen Microsoft Windows 2000/NT-Terminalservern (Intel-CPUs), die als File-, Anwen-dungs- und Compute-Server für die im Haus vorhandenen Arbeitsplatzrechner eingesetzt werden.Die großen Systeme stehen in einem klimatisierten Maschinenraum, in dem auch die Backup-Systeme, eine USV sowie die zentralen Netzwerkkomponenten (Cisco-Switch Catalyst 4006) unter-gebracht sind. Die wichtigsten Server des Instituts sind durch diesen Switch mit Gigabit-Ethernetauf Lichtwellenleiter-Basis versorgt. Die UKLAN-Anbindung erfolgt zurzeit über einen Router imPhilosophikum (newphil-gw). Die Einrichtung einer zweiten redundanten Verbindung zum UKLANist geplant.

Als Arbeitsplatz-/Client-Rechner werden in den Mitarbeiterzimmern überwiegend PCs eingesetzt,des Weiteren existiert ein zwei Bildschirmräume umfassender PC-Pool für Studenten und Diplo-manden. Auf den als Dual-Boot-Systeme eingerichteten Klienten stehen den Anwendern Windows2000 und Linux zur Verfügung. Außerdem werden an einigen Lehrstühlen Macintosh-Rechner undX-Terminals eingesetzt. Die Windows 2000- und Unix-Server werden zum Teil auch dem ZAIK imRahmen der gemeinsamen Zusammenarbeit zur Verfügung gestellt. Auf den Unix-Workstationserfolgt eine Mitbenutzung des vom ZAIK/RRZK exportierten /vol-Dateibaums.

Ausbildungsschwerpunkte mit starkem EDV-Anteil im Institut sind Numerik-Programmierung inden Sprachen C++, Fortran und Matlab, des Weiteren symbolische Formelmanipulation undBehandlung von Problemen aus der Computeralgebra mit Maple und Mathematica sowie Statistikmit S-PLUS. In der Forschung werden vorrangig Fragestellungen aus den Gebieten NumerischeMathematik, Differentialgleichungen, Differentialgeometrie, Zahlentheorie, Algebra, Kombinato-rik, Topologie, Stochastik, Versicherungsmathematik, Kommunikationsnetze und Kombinatori-sche Optimierung bearbeitet.

Die personelle Betreuung erfolgt durch die u.a. Autoren.

(Dr. Jörg Behrend, E-Mail: [email protected],Dipl.-Ing. Holger Körber, E-Mail: [email protected])

5.1.2 Beispielhaftes Projekt des MI:Mathematische Bildverarbeitung

Mathematische Bildverarbeitung macht beispielsweise aus unscharfen Satellitenaufnahmen oderaus verrauschten Ultraschallaufnahmen relativ klare Bilder mit deutlichen Konturen. Die dabeibenutzten Verfahren sind bisher mathematisch wenig fundiert. Sitzt der Tumor oder der Mars-brocken wirklich dort, wo man ihn zu erkennen glaubt, oder hat er bei seiner Berechnung eineVeränderung erfahren? Das möchte man gerne mit mathematischer Gewissheit beweisen.

Eine der verwendeten Methoden benutzt Diffusionsfilter und Analogien aus der mathematischenBeschreibung von Ausbreitungsvorgängen. Man denkt sich dazu (im einfachsten Fall einesSchwarzweißbildes) die Graustufenwerte als Höhen eines Gebirges, wobei der Wert für Schwarz

Jahresbericht 2003

Berichte der Institute und Fachbereiche 87

hoch und der für Weiß niedrig ist. Diese Höhenverteilung u0(x) interpretiert man als Temperatur-

verteilung im zugrundeliegenden Gebiet. Wärmeleitung hat die Tendenz, räumliche Temperatur-schwankungen im Laufe der Zeit abzubauen. Wenn ich daher das vorliegende Graustufenprofil derWärmeleitung unterwerfe, und das kann man mit gewissem Knowhow am Rechner, dann solltenerratische Oszillationen in den Graustufenwerten sozusagen „abgeschmolzen“ werden. Dies istdas Prinzip der Diffusionsfilter. Unter Abschmelzen werden aus deutlichen Helligkeitskonturenallerdings auch verschwommene Bilder, daher werden diese Verfahren nur bis zu einer gewissenStopzeit gerechnet. Durch Wahl der Stopzeit lässt sich die Qualität des Bildes wie beim Fokussie-ren eines Fernglases beeinflussen. Außerdem wird der Diffusionseffekt an solchen Stellen herab-gesetzt, wo das Helligkeitsprofil echte Unstetigkeiten aufzuweisen scheint. Dabei kommt es zusogenannter Vorwärts-Rückwärts-Diffusion nach Perona-Malik. Diese Art der Diffusion ist einmathematisch „schlecht gestelltes Problem“, denn kleine Änderungen in den Anfangsdaten kön-nen (wie der inzwischen legendäre und umfallende Sack Reis in China) im Laufe der Zeit großeÄnderungen im globalen Lösungsverhalten nach sich ziehen.

Eine andere Methode geht von Optimierungsverfahren und sog. Variationsmethoden aus. Dabeisoll das gestörte Bild durch eine Helligkeitsverteilung ersetzt werden, die einerseits einfachereGestalt hat, andererseits aber Ähnlichkeiten mit dem gestörten Bild u

0(x) aufweist. Man sucht also

eine Graustufenfunktion u(x), welche eine Art Kostenfunktional, konkret das sogenannte Mumford-Shah Funktional, minimiert. Dieses Kostenfunktional hat seinerseits mathematisch unschöne Ei-genschaften. Es enthält einen Term, der die Länge von Unstetigkeitsstellen misst, und letztere istnumerisch auf einem strukturierten Gitter gar nicht zu ermitteln, geschweige denn neben anderenKriterien zu minimieren. Daher approximiert man das ursprüngliche Funktional durch ein besserhandhabbares. Die Approximation geschieht dabei im Sinne der sogenannten Gamma-Konvergenzvon Funktionalen. Wenn eine Folge E

n von Funktionalen gegen ein Grenzfunktional E Gamma-

konvergiert, dann konvergieren auch die Minimierer un der Funktionale E

n gegen einen (von

möglicherweise mehreren) Minimierern u(x) des Grenzfunktionals. Das Wort Konvergenz mussdabei jeweils durch Festlegung der richtigen Topologien konkretisiert werden.

Es ist gelungen nachzuweisen, dass beide Verfahren auf diskretem Niveau, d.h. bei ihrer Verarbei-tung durch Rechner, im wesentlichen dasselbe leisten und dass wesentliche Charakteristika desAusgangsbildes trotz Rauschens und ähnlicher Störungen erhalten bleiben.

In der ersten gezeigten Bildsequenz ist eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und

deren Evolution unter der Perona-Malik Diffusion abgebildet. Man sieht eine deutliche Kanten-bildung. Die zweite Bildsequenz startet mit einer realistischen, aber verrauschten Schwarzweißauf-nahme des Kölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, späterzu einer Segmentierung oder Vergröberung des Bildes. Dies illustriert die Bedeutung der richtigenStopzeit. In der dritten Bildsequenz sind die vom „edge-detector“ ermittelten Kanten dargestellt.Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehen wesentliche Informa-tionen verloren.

Jahresbericht 2003

88 Berichte der Institute und Fachbereiche

Bildsequenz 1 (oben): eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und deren

Evolution unter der Perona-Malik Diffusion. Man sieht eine deutliche Kantenbildung.

Bildsequenz 2 (nächste Seite): eine realistische, aber verrauschte Schwarzweißaufnahme desKölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, später zu einerSegmentierung oder Vergröberung des Bildes.

Bildsequenz 3 (übernächste Seite): es sind die vom „edge-detector“ ermittelten Kantendargestellt. Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehenwesentliche Informationen verloren.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 89

Jahresbericht 2003

90 Berichte der Institute und Fachbereiche

Jahresbericht 2003

Berichte der Institute und Fachbereiche 91

Literatur

• B. Kawohl, From Mumford-Shah to Perona-Malik in image processing, Math. Methods

Appl. Sci, 15 p., erscheint demnächst. Ein Preprint ist erhältlich unter http://www.mi.uni-

koeln.de/~kawohl/)

• B. Kawohl & N. Kutev, Image processing and anisotropic diffusion, in: Progress in partial

differential equations, Pont à Mousson 1997, Volume I, eds.: H. Amann, C. Bandle, M.

Chipot, F. Conrad & I. Shafrir, Pitman Res. Notes in Math. Sci. 383, Addison Wesley

Longman, Essex (1998) p. 191–199.

• M. Mester, Mathematische Methoden zur Bildverarbeitung, Dissertation, Universität zu

Köln (2004)

(Prof. Dr. Bernd Kawohl, E-mail [email protected],Dr. Markus Mester, E-mail [email protected])

5.2 Zentrum für Angewandte Informatik:Arbeitsgruppe Faigle/Schrader

Homepage: http://www.zaik.uni-koeln.de/AFS/

(Hinweis: Die Arbeitsgruppe ist sowohl im Institut für Informatik als auch im MathematischenInstitut angesiedelt.)

Bericht über die kooperative, verteilte Datenverarbeitung

Hardware-Ausstattung

Server

1 Sun Enterprise 4000 (8 Proz.)

1 Sun Enterprise 3500 (2 Proz.)

1 Sun Enterprise 450 (4 Proz.)

1 Compaq AlphaStation ES40 (4 Proz.) mit RAID Array 3000

2 PCs als Windows 2000 Server

1 PC als Linux-Server

Arbeitsplatzrechner und Terminals

ca. 10 Sun Workstations (von Classic bis Ultra 10)

ca. 40 PCs als Arbeitsplatzrechner

ca. 15 X-Terminals

Jahresbericht 2003

92 Berichte der Institute und Fachbereiche

Netzwerk

1 Cisco Catalyst 5500 RSM Workgroup Switch/Router

(Gigabit-Ethernet, FastEthernet, Ethernet)

1 Cisco Catalyst 2924 Fast Ethernet Switch

2 Magnum/Synoptics Ethernet Hubs

Backup, Unterbrechungsfreie Stromversorgung, Sonstiges

1 ATL ACL 2640 Tape Roboter

1 Datapower 330 USV (30 kVA, 15 Min.)

1 Marquec 9000 Video-Projektor

Art der Vernetzung

Gigabit-Ethernet:

Anschluss zum Universitäts-Backbone

Ethernet, Fast-Ethernet:

Workstations, lokale Arbeitsplätze, PC-Server

Räume

Maschinenraum 1:

Workstation-Cluster, Netzwerkinfrastruktur (Router, Switches), Datapower USV

Maschinenraum 2:

Sun Enterprise 450 & 3500 & 4000, Tape-Roboter, Compaq ES40

Personelle Betreuung

Koordination:

Dipl.-Inform. Martin Olschewski

Anzahl der Nutzer

Studierende Wissenschaftler

Server ca. 150 ca. 100

Workstations ca. 50 ca. 50

PCs ca. 50 ca. 50

Zusammenarbeit

Interdisziplinäre Nutzung (Mathematik, Informatik, Physik, Meteorologie, Chemie,

Wirtschaftsinformatik, Linguistik und DLR) der Sun Compute-Server sowie des Worksta-

tion-Clusters.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 93

Ausbildungsschwerpunkte

Kombinatorische Optimierung:

Entwurf und Implementierung effizienter Algorithmen

Forschungsschwerpunkte

Allgemein:

Kombinatorik, Fachinformation, Kommunikationsnetze, Kombinatorische Optimierung, Bio-informatik, Simulation

Sun Enterprise 4000:

Multimediale Anwendungen in der Hochschullehre, Stauforschung, Kryptographie, Simulati-on (Bausparkollektive)

Compaq AlphaStation ES 40:

Entwicklung von Verfahren zur Genomanalyse

Workstations:

Multimediale Anwendungen in der Hochschullehre, Drittmittelprojekte im Banken- undVersicherungsbereich, Tourenplanung

PCs:

Multimediale Anwendungen in der Hochschullehre, Anwendungsprogramme im Rahmen vonDrittmittelprojekten im Banken- und Versicherungsbereich, Tourenplanung

Engpässe, Probleme und Schwierigkeiten

Personelle Unterbesetzung

Die personelle Unterbesetzung im Infrastrukturbereich führt leider immer wieder zu erheblichenVerzögerungen bei der praktischen Umsetzung der Projekte.

Rechenkapazität

Speicher (Plattenplatz und RAM)

Es gibt insbesondere Engpässe bei den Data-Mining-Applikationen im Bereich der Landes-bausparkassen.

(Martin Olschewski, E-Mail: [email protected])

Jahresbericht 2003

94 Berichte der Institute und Fachbereiche

5.3 Institut für Informatik

5.3.1 Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.informatik.uni-koeln.de/

Neuanschaffungen in 2003

Pentium IV Celeron 2.6 Ghz, 512 MB RAM, Linux

2 Pentium IV 2.8Ghz, 1GB RAM, Linux

CPU Upgrade für Linux Server

8-Port Gbit Switch

Notebook Dell Latitude D600, Pentium-M 1.7Ghz, 1GB RAM

Pentium IV 2.6Ghz, 1GB RAM

Software: Vampir 4.0 für Linux x86

Ausstattung (nur Workstation)

1 Sparc-Server Ultra Enterprise 450, 4 CPU's 300Mhz, 1 GB RAM, 50GB Platte

6 Sun Ultra 5/10

11 Ultra 1/170E Creator3D, 128 RAM

1 Sparcstation 10

3 Sparcstation 4/110

1 Sparcstation 5/70

1 Linux Server AMD Athlon 2.0 Ghz, 1.5GB RAM

1 Linux Cluster, bestehend aus:

8 Dual-Prozessor Pentium II-400 MHz Rechnern mit je 256 MB RAM,

8 Dual-Prozessor Athlon MP1800 mit je 256 MB RAM

1 Cisco 24 Port SwitchDie Systembetreuung wird von einem hauptamtlichen Techniker und zwei halben SHKs übernom-men. Das Linux-Cluster wird von SHKs betreut.

Benutzer unserer Workstations:

ca. 30 Wissenschaftliche Mitarbeiter

ca. 40 Studenten

Kooperation mit dem Rechenzentrum

Die Lehrstühle kooperieren wie folgt mit dem ZAIK/RRZK:

- Möglichkeit, Meldungen über interne Mailinglisten an verschiedene Benutzer einer Gruppesimultan versenden zu können, wobei die gesamte Verwaltung vom ZAIK/RRZK übernommenwird. Dies wird genutzt für Graduiertenkolleg, Vorlesungen, Praktika und einige Softwarepakete.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 95

Weiterhin wird die Möglichkeit genutzt, archivierte Mailinglisten über das WWW lesen zukönnen.

- Anbindung an das Internet und Unterstützung aller dazugehörenden Dienste (Mail, News,WWW, DNS, Proxy).

- Bereitstellung von großen nicht kommerziellen (z.B gnu, X11R5, tex, graphic) und auch kommer-ziellen Softwarepaketen via AFS als Quelltext oder Binary. Dies ist ein nicht zu unterschätzenderDienst. Dadurch entfällt die zeitraubende Arbeit, neue Versionen von vielen Programmen immerwieder zu installieren. Somit kann sich der für die Systembetreuung verantwortliche Mitarbeiterauf wichtigere Aufgaben konzentrieren.

- Unterstützung bei der Beschaffung von kommerziellen Softwarepaketen, Betriebssystemupdatesund Patches, insbesondere durch kostengünstige Campusverträge.

- Sicherung von Benutzerdaten mit TSM, ein sehr guter Service des Rechenzentrums.

- Hilfe bei Soft- und Hardwareproblemen. Mit dem Know-How, das die Mitarbeiter des Rechen-zentrums haben, werden die Administratoren vor Ort unterstützt.

- Die Pflege der Software im Vol-Baum hat sich im Laufe des Jahres verbessert, nachdem sie einigeJahre sehr vernachlässigt wurde. Es ist zu hoffen, dass dieser Dienst noch verbessert wird unddann auf Dauer gut gepflegt wird.

Die WWW-Seiten der Lehrstühle sind zu finden unter:

http://www.informatik.uni-koeln.de/ls_juenger

http://www.informatik.uni-koeln.de/ls_speckenmeyer

(Thomas Lange, E-Mail: [email protected])

5.3.2 Fahrplanoptimierung und -simulation im ÖPNV

Der Fahrplan bildet ein zentrales Element der Verkehrsplanung. Er legt die Ankunfts- und Abfahrts-zeiten der einzelnen Linien im Streckennetz fest. Die bislang verwendete Software hilft bei dermanuellen Erstellung am Bildschirm und ermöglicht die Visualisierung und Simulation von Fahr-plänen. Zur besseren Unterstützung des Planers fehlen jedoch Systeme zur automatischenGenerierung zulässiger und in Hinblick auf die Zielvorstellung optimierter Fahrpläne.

Das Projekt "Computer Aided Tram Scheduling“ verfolgt das Ziel, die computerunterstützte Er-stellung von Fahrplänen zu ermöglichen, um so schnell viele gute Fahrplanalternativen erzeugenzu können, sie in Simulationen zu testen - um unterschiedliche Störungsszenarien zu analysieren -und schließlich einen geeigneten Fahrplan auswählen zu können.

Das der Fahrplangestaltung zu Grunde liegende Streckennetzwerk besteht aus einer Menge vonStationen und Linien, denen Takte zugeordnet sind. Den Streckenabschnitten zwischen den Stati-onen sind Fahrzeiten zugeordnet. Das Ziel der Fahrplanoptimierung, die betrachtet wurde, bestehtdarin, die Abfahrtszeiten der Linien an den Anfangsstationen so festzulegen, dass die Ankunfts-zeiten an den einzelnen Stationen möglichst gleichmäßig verteilt sind. Damit soll erreicht werden,dass kleine Störungen, wie sie häufig bei Nahverkehrssystemen auftreten, nur geringe, zeitlichbegrenzte Auswirkungen auf den Linienverkehr haben.

Um das Fahrplan-Problem exakt zu lösen, wurde ein Branch-and-Bound-Algorithmus entwickelt.Insgesamt liefert der Branch-and-Bound-Ansatz bereits nach kurzer Zeit gute Fahrpläne für die

Jahresbericht 2003

96 Berichte der Institute und Fachbereiche

untersuchten Instanzen der KVB. Im Weiteren wurden Zerlegungen und Reduktionen des Stre-ckennetzes untersucht, um optimale Fahrpläne für größere Streckennetze schneller berechnen zukönnen.

Dieser neue Ansatz der Fahrplanoptimierung ermöglicht es, zuverlässigere Fahrpläne zu erzeugen.Die Pünktlichkeit spielt eine herausragende Rolle, da Unpünktlichkeit von den Fahrgästen nurbegrenzt akzeptiert wird.

Ein Simulationssystem für Fahrpläne des ÖPNV bestehend aus den drei Komponenten standardi-siertes Datenmodul, Simulationsmodul und browsergestützte grafische Benutzeroberfläche (GUI)wird seit einiger Zeit am Lehrstuhl Prof. Dr. Speckenmeyer entwickelt. Im Zentrum der Betrachtun-gen steht hierbei die Robustheit untersuchter Fahrplanalternativen, gemessen als Summe allerVerspätungen von Bahnen, die aus in den Tagesablauf eingebrachten Störungen des Betriebsab-laufs resultieren.

Die ursprüngliche Simulation mittels Zellularautomaten wurde verfeinert auf eine Auflösung von10 Metern pro Zelle. Ferner wurden die Wahrscheinlichkeitsverteilungen für Haltezeiten an Halte-punkten und Ampeln realitätsnäher modelliert, wodurch der relative Einfluss der unterschiedli-chen Störgrößen realistischere Resultate liefert. Genauere Erkenntnisse über Staubildung und -auflösung, Auswirkungen erhöhten Fahrgastaufkommens und Konsequenzen von in Szenarienzusammengefassten Störungen können bis auf die Ebene einzelner Linien und Haltepunkte analy-siert werden.

Durch Performance-Tuning konnte die Rechenzeit trotz einer wesentlich erhöhten Anzahl von zuprotokollierenden Ereignissen teilweise sogar gesenkt werden. Ferner wurden die Datenbasisverfeinert und die neuen Angaben automatisiert auf Konsistenz geprüft und bereinigt.

Eine detailliertere Simulationsmethodik, die Geschwindigkeitsvergleiche mehrerer Implementationenvon Priority Queues in einem realen Anwendungsszenario gestattet, wird derzeit programmiert.

(Zülfükar Genc, E-Mail: [email protected],Gero Lückemeyer, E-Mail: [email protected])

5.3.3 Das Satisfiability Problem (SAT)

Im Rahmen unserer Forschungsarbeiten beschäftigen wir uns mit verschiedenen Varianten eineszentralen Problems der Informatik - dem Satisfiability Problem (SAT): zu einer gegebenen BooleschenFormel eine erfüllende Belegung zu finden. Das SAT-Problem hat viele praktische Anwendungen,beispielsweise beim Schaltkreisentwurf, der Testmustergenerierung, im Bereich der KünstlichenIntelligenz und der logischen Programmierung. Darüber hinaus ist das SAT-Problem von signifi-kanter Bedeutung für die Klasse der NP-vollständigen Probleme. Es war das erste Problem, dessenNP-Vollständigkeit gezeigt wurde.

Ein NP-vollständiger Spezialfall von SAT ist NAESAT: man betrachtet Boolesche Formeln, für diesowohl die Formel als auch deren komplementäre Formel eine erfüllende Belegung haben. Für SATkann man, indem man die Anzahl vorkommender Klauseln zu der Anzahl vorkommender Variablenin Beziehung setzt, eine Wahrscheinlichkeit für die Existenz einer erfüllenden Belegung angeben.In ähnlicher Weise haben wir experimentell Schranken für die Erfüllbarkeit von NAESAT-Formelnbestätigen können.

Weiterhin haben wir das Problem der Kreuzungsminimierung in Levelgraphen mit Hilfe von SATuntersucht: Ein Graph wird in eine äquivalente SAT-Formel überführt, wobei jede Kreuzung imGraphen einer Klausel in der SAT-Formel entspricht. Durch Berechnung einer maximalen erfüllen-

Jahresbericht 2003

Berichte der Institute und Fachbereiche 97

den Belegung der Formel (MaxSAT) wird die Anzahl der Kreuzungen minimiert. Als Verfahrenwurden das bewährte, komplett randomisierte WalkSat-Verfahren und das neuere, komplett deter-ministische TabuSat-Verfahren untersucht. Durch experimentelle Studien ermittelten wir Parameterfür diese Problemklasse, mit denen TabuSat schneller und bessere Ergebnisse liefert als WalkSat.

Die experimentellen Studien wurden auf Rechnern des Lehrstuhls, insbesondere einem PC-Clustermit 8 Athlon-MP 1800+ Dual-Prozessoren und 2 GB Hauptspeicher je Knoten, durchgeführt. EineBenutzung der Sun-Server des RRZK (z.B. suns15k), um speicheraufwändigere Tests durchzufüh-ren, ist beabsichtigt.

(Mattias Gärtner, E-Mail: [email protected],Jens Rühmkorf, E-Mail: [email protected],Ewald Speckenmeyer, E-Mail: [email protected])

5.3.4 Weitere Berichte

Ein weiterer Bericht über Bestimmung exakter Grundzustände von Spingläsern im Isingmodellist in Kapitel C Abschnitt 3 nachzulesen.

5.4 I. Physikalisches Institut

Homepage: http://www.ph1.uni-koeln.de

5.4.1 Bericht über die Kooperative Informationsverarbeitung

Spezielle Rechner- und Netzwerksysteme am I. Physikalischen Institut:

• lokale AFS Zelle ph1.uni-koeln.de:

- 4 AFS Datenbank- / Fileserver mit insgesamt 28 registrierten Benutzern und 1,25 TB Online-

Festplattenkapazität, wovon 720 GB als Raid Level 1 realisiert sind

- vollautomatisches wöchentliches Datenbackup auf die TSM Bandroboter des ZAIK/RRZK

- 18 AFS Client Workstations

- lokales DVD und DDS-4 DAT Laufwerk

• Rechnersystem für numerische Simulationen von astrophysikalischen Fragestellungen:

- Intel Xeon Doppelprozessor-System

3,06 GHz Taktfrequenz

6 GB Hauptspeicher

70 GB SCSI Ultra-160 Festplattenkapazität

- Intel Xeon 4-Prozessor-System

2,8 GHz Taktfrequenz

16 GB Hauptspeicher

60 GB Festplattenkapazität

Jahresbericht 2003

98 Berichte der Institute und Fachbereiche

Wartung und Administration des Netzwerks und der Rechnerhardware:

Die Administration und Betreuung der Netzwerkdienste (IP, WWW, FTP, AFS), sowie der zentra-len Server und Drucker des I. Physikalischen Instituts wird von einer Gruppe aus Post-Docs undDoktoranden durchgeführt.

(Ansprechpartner: Dr. C. Straubmeier, E-Mail: [email protected])

5.4.2 Projekt zur Visualisierung von Galaxiensimulationen inKooperation mit dem ZAIK/RRZK:Astrophysikalische Forschung mit Galaxiensimulationen

Seltsam geformte Galaxien sind ein häufig beobachtetes Phänomen im Universum. In vielen Fällenlässt die ungewöhnliche Form auf Wechselwirkungen mit Nachbargalaxien schließen. DerartigeKollisionen und Verschmelzungen von Galaxien haben weitreichende Auswirkungen auf die Gas-und Sternkomponenten der Galaxien und werden als Ursache für die Entstehung von Quasarendiskutiert.

Am I. Physikalischen Institut werden numerische Simulationen zu Galaxienkollisionen durchge-führt. Diese stellen ein wichtiges Hilfsmittel bei der Interpretation von Beobachtungsdaten dar, dielediglich ein unvollständiges Bild von Galaxien vermitteln können. So liefern Teleskopaufnahmennur Informationen über die zweidimensionale Himmelsprojektion einer Galaxie und - falls Spektral-linien messbar sind - über die eindimensionale Geschwindigkeitsverteilung im Galaxiengas oder inden Galaxiensternen entlang der Beobachtungssichtlinie. Erschwerend kommt hinzu, dass Galaxi-en aufgrund ihrer langen Entwicklungszeiten nur in Momentaufnahmen beobachtet werden kön-nen. Die dreidimensionale Struktur und die Entwicklungsgeschichte von Galaxien kann in Compu-tersimulationen rekonstruiert und damit die Frage nach vergangenen Wechselwirkungen unter-sucht werden.

Visualisierung der Simulationsdaten mit dem Open Data Explorer

Da die Strukturen, die bei Wechselwirkungen oder sogar Verschmelzungen einzelner Galaxienentstehen, sehr komplex sind, ist eine räumliche visuelle Darstellung der Simulationsergebnissevon großem Vorteil. Der IBM Research Open Visualization Data Explorer (OpenDX) liefert einfacheLösungen, um Simulationsdaten zu importieren, räumlich drehbar und farbkodiert darzustellensowie Zeitreihen wiederzugeben (http://www.uni-koeln.de/themen/Graphik/Visualization/DataExplorer). Der Open Data Explorer bietet zahlreiche Module mit festgelegten Aufgaben vonder Datenmanipulation bis hin zur Visualisierung. Die Programmierung erfolgt durch den interakti-ven Entwurf von Datenablaufplänen (so genannten Netzwerken) unter Verwendung jener Module.Ist das Netzwerk einmal aufgebaut, kann die Steuerung der Visualisierung in graphische Benutzer-oberflächen (Abb. 1) eingebaut werden, so dass beim Anwender keine Kenntnis der Skript- undModulsprache vorausgesetzt werden muss.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 99

Abbildung 1: Beispiel einer graphischen Benutzeroberfläche zum Einlesen und Darstellen derDaten aus Galaxiensimulationen

Im Rahmen der Visualisierung von Galaxiensimulationen hat sich eine effiziente Kooperation zwi-schen dem I. Physikalischen Institut und dem ZAIK/RRZK herausgebildet. Gemäß den speziellenAnforderungen bei den Galaxiendaten stellte Herr Volker Winkelmann vom ZAIK/RRZKVisualisierungsnetzwerke zusammen, die im I. Physikalischen Institut anhand der graphischenOberflächen bequem verwendet werden können.

Visualisierungsmöglichkeiten am Beispiel jüngster wissenschaftlicher Ergebnisse

Die Ergebnisse des Visualisierungsprojekts lassen sich am Beispiel der Simulationen für die Wirts-galaxie des Quasars 3C 48 verdeutlichen. Für diese Galaxie konnte erfolgreich gezeigt werden, wiesich bisherige Vorbehalte gegen die Theorie einer vorangegangenen Wechselwirkung ausräumen

Jahresbericht 2003

100 Berichte der Institute und Fachbereiche

lassen. Um das momentane Aussehen der 3C 48 Galaxie zu reproduzieren, wurde im Computer eineVerschmelzung zweier gegeneinander gekippter Scheibengalaxien simuliert (Abb. 2).

Abbildung 2: Zeitreihe einer Verschmelzung von zwei Scheibengalaxien dargestellt mit demOpen Data Explorer. Während der Kollision bilden sich durch Gezeitenkräfte zwei starke

Spiralarme.

Die Simulationen basieren auf einer numerischen Methode, bei der Galaxien entsprechend ihrerMassenverteilung durch eine Vielzahl von Teilchen modelliert werden. In Form von Listen werdenbei dieser Vielteilchenmethode jedem einzelnen Teilchen eine Masse, eine Position und einGeschwindigkeitsvektor zugeordnet. Da Galaxien in erster Näherung als stoßfreies System ausSternen betrachtet werden können, ist ihre Dynamik hauptsächlich durch die Gravitationskraftzwischen den einzelnen Sternen bestimmt. Dementsprechend ergibt sich die zeitliche Entwicklungder Vielteilchensimulation aus der Beschleunigung, die jedes Teilchen aufgrund der Massenanzie-hung aller anderen Teilchen erfährt. In regelmäßigen Zeitabständen werden Momentaufnahmender Simulation wiederum als Teilchenlisten mit Massen, Positionen und Geschwindigkeiten ausge-geben. Zur Klärung der Frage, ob die angenommene Startsituation zweier kollidierender Scheiben-galaxien tatsächlich zum beobachteten Aussehen der 3C 48 Galaxie führen kann, muss jede Mo-mentaufnahme unter allen Projektionswinkeln untersucht werden. Das von Herrn Winkelmannprogrammierte Netzwerk erlaubt, die Momentaufnahmen in den Data Explorer einzulesen und dieverschmelzenden Galaxien mit Hilfe der graphischen Benutzeroberfläche in beliebige Richtungenzu drehen. Um die Entwicklung der ursprünglichen Einzelgalaxien nachzuvollziehen, können Inter-valle der Teilchenlisten einzeln angesprochen werden und mit unterschiedlichen Farben versehenwerden. Zudem kann per Benutzeroberfläche eine Darstellung mit Bildzeichen („Glyphs“) gewähltwerden, in der die Teilchen entweder als Kugeln oder entsprechend ihrer Geschwindigkeit alsVektorpfeile repräsentiert werden (Abb. 3, Abb. 4).

Alternativ erlaubt „Volumen-Rendering“ eine Visualisierung der Teilchendichte. Werden statt derPositionsdaten der Teilchen die Geschwindigkeitsdaten weiter verarbeitet, können Absolut-geschwindigkeiten berechnet und in Intervallen dargestellt werden, um einen ersten Eindruck überdie Gesamtdynamik der verschmelzenden Galaxien zu gewinnen. Mit Hilfe des programminternenSequenzer-Moduls können Rotationen um vorgegebene Achsen abgespielt und als Bildreihe auf-genommen werden. Der Sequenzer kann ebenfalls benutzt werden, um Serien aufeinander folgen-der Momentaufnahmen zu importieren und in einem Film über den Ablauf der Galaxienkollisionabzuspeichern.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 101

Abbildung 3: Glyph-Darstellung der Galaxien unter Verwendung von Kugelbildzeichen

Abbildung 4: Glyph-Darstellung mit Vektorpfeilen für das Geschwindigkeitsfeld. Die Farb-kodierung gibt die Absolutgeschwindigkeit wieder.

Anwendung bei der Präsentation wissenschaftlicher Ergebnisse

Die Möglichkeiten der Visualisierung mit dem Data Explorer wurden bisher vor allem für einenWorkshop-Vortrag genutzt, in dem die Simulationen zur 3C 48 Galaxie in einer Powerpoint-Präsen-tation vorgestellt wurden. Insbesondere liefern die Simulationen neue Ergebnisse in Bezug aufeinen zweiten Spiralarm, der bei der Verschmelzung zweier Galaxien zu erwarten ist (Abb. 2) unddessen Fehlen bei 3C 48 als ein Argument gegen die Verschmelzungstheorie gewertet wird. Wiesich nun zeigt, kann dieser Arm aber durch die entsprechende Projektion vor die Hauptgalaxiegedreht werden, so dass er in Teleskopaufnahmen unsichtbar ist. Die komplexe räumliche Struktur,die diesen Effekt möglich macht, lässt sich schnell und instruktiv in einem Film vermitteln, der dieräumliche Drehung der verschmolzenen Galaxien zeigt.

Die eindrucksvollen Bilder aus Galaxiensimulationen eignen sich insbesondere zur Präsentationvor fachfremdem Publikum. Am Tag der offenen Tür der Physikalischen Institute am 14. Februar

Jahresbericht 2003

102 Berichte der Institute und Fachbereiche

2004 wurden Bilder von Simulationen gezeigt, und es bestand für Besucher die Möglichkeit, amBildschirm simulierte Galaxien zu drehen. Zunehmend soll die neue Visualisierungsmethode auchzur Präsentation der Galaxiensimulationen im Internet genutzt werden.

(Ansprechpartnerin: Julia Scharwächter, E-Mail: [email protected],Dr. C. Straubmeier, E-Mail: [email protected])

5.5 II. Physikalisches Institut

Homepage: http://www.ph2.uni-koeln.de

Einleitung

Der Forschungsschwerpunkt des II. Physikalischen Instituts liegt auf dem Gebiet der experimen-tellen Festkörperphysik. EDV wird vor allem für die Erfassung und Auswertung von Messdateneingesetzt, daneben zum Erstellen von Publikationen, Postern und sonstigen Präsentationen. Dafürsteht ein heterogener Cluster aus Windows- und Linux-Arbeitsplatz- und Messrechnern, NT/W2003-Servern und 2 Sun-Ultra Servern, einer unter Solaris, der andere unter Linux, zur Verfü-gung. Das System ist durch Glasfaserkabel vernetzt.

Der Solaris-Server ist mit einem RAID-Festplattensystem ausgestattet und dient als Mailserverund zur zentralen Ablage und Sicherung von Messdaten. Er erlaubt Mitgliedern des Instituts, diez.B. an Großgeräten außerhalb der Universität Messungen durchführen, die dort gewonnenenMessdaten nach Köln zu übertragen und auf die dort abgelegten Daten zuzugreifen. Der LinuxServer beherbergt die Webseite des Instituts. Zusätzlich zu den Rechnern in den Büros undLabors stehen Arbeitsplätze in zwei Computerräumen zur Nutzung durch Studenten und Gäste zurVerfügung; in diesen Räumen befinden sich auch zentral genutzte Geräte wie Drucker und Scanner.

Für die Textverarbeitung werden TeX/LaTeX und Office-Programme (Microsoft, StarOffice) einge-setzt. Zur Datenauswertung werden neben selbst geschriebener Software Standard-Pakete wieOrigin, Maple und Matlab verwendet. Besonders rechenintensiv ist die Auswertung von Röntgen-beugungs-Experimenten, bei der sehr umfangreiche Datenmengen verarbeitet werden müssen(siehe unten Beispiel 1).

Begleitend zu der experimentellen Arbeit werden im Institut auch theoretisch/numerische Arbeitendurchgeführt (siehe unten Beispiel 2); dafür wird ein eigener unter Linux laufender PC genutzt. Fürumfangreiche und speicherintensive Berechnungen wird zusätzlich die Kapazität des Rechenzen-trums genutzt.

Im Sommersemester 2004 wird zum ersten Mal eine Lehrveranstaltung zur Simulation der elektroni-schen Struktur von Festkörpern stattfinden. Für das Praktikum zu dieser Vorlesung steht ein wei-terer Rechner unter Linux zur Verfügung, auf den die Teilnehmer an der Lehrveranstaltung zugrei-fen können um ihre selbst geschriebenen Simulationen auszuführen und zu testen.

In dem vom II. Physikalischen Institut angebotenen Praktikum für Fortgeschrittene werden mehre-re PCs und eine digitale Kamera zur Messdaten-Erfassung eingesetzt. Für das Praktikum wird auchdie Homepage des Instituts genutzt, auf der Informationen zu den Versuchen abgerufen werdenkönnen. In der feinmechanischen Werkstatt des Instituts wird AutoCAD zur Konstruktion vonWerkstücken und Messapparaturen genutzt und für die Ausbildung eingesetzt.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 103

Abb. 1: Röntgenbild von einem LaTiO3 Einkristall.

Oben: Graustufendarstellung des Kamerabildes, unten 3D Darstellung der Intensitäten.

Beispiel 1: Kristallstrukturbestimmung

Die meisten Experimente im II. Physikalischen Institut werden an Kristallen durchgeführt. Viele deruntersuchten Kristalle sind im Institut gezüchtet worden. Die im Institut vor allem untersuchtenÜbergangsmetall-Oxide haben aufgrund ihrer Struktur eine große Anzahl von Möglichkeiten, vonder idealen Kristallstruktur durch Verzerrung oder Verkippung abzuweichen. Diese Abweichungenhaben einen direkten Einfluss auf wichtige physikalische Eigenschaften und werden daher sehrsorgfältig mit Röntgenbeugung untersucht. Bei dieser Methode macht man sich zu Nutze, dass dieWellenlänge von Röntgenlicht in etwa dem Abstand von zwei Atomen in einem Kristall entspricht.Deshalb wirkt ein Kristall auf Röntgenlicht wie ein optisches Gitter auf sichtbares Licht: die Licht-intensität wird in bestimmte Richtungen in so genannte Röntgenreflexe gebündelt. Aus der Lagedieser Reflexe lässt sich die Kristallstruktur bestimmen. Für eine zuverlässige Strukturuntersuchungmüssen viele hundert, oft mehrere tausend dieser Reflexe vermessen werden. Dafür stehen eineReihe von Röntgendiffraktometern zur Verfügung, von denen das leistungsfähigste, ein Bruker X8Apex, ein komplexes Messprogramm im wesentlichen automatisiert durchführen kann. Als Detek-tor für die Röntgenreflexe dient eine Röntgen-CCD Kamera, die einen großen Winkelbereich er-fasst. Abb. 1 zeigt ein Beispiel für eine einzelne Kameraaufnahme von einem LaTiO

3 Einkristall. Der

obere Teil der Abbildung zeigt direkt das Kamerabild in Graustufen, die schwarzen Flecken sind dieeinzelnen Röntgenreflexe. Im unteren Teil von Abb. 1 ist die Intensität der Reflexe als Höhe aufge-tragen.

Jahresbericht 2003

104 Berichte der Institute und Fachbereiche

Abb. 2: Aus den Daten in Abb. 1 bestimmte Kristallstruktur von LaTiO3.

CoO L -edge2

theory

experiment

T=T=T=T=T=T=

T= 400K300K200K150K100K77K

793 794 795 796 797 798Photon energy (eV)

Inte

nsi

ty(a

rb.unit

s)

Abb. 3: Berechnete und gemessene Röntgenabsorptions-Spektren von CoO.

Die Gesamtmessung eines Kristalls besteht aus einigen tausend solcher Aufnahmen und dauertmehrere Tage. Dabei fallen etwa 1 GB Rohdaten an, die dann von der Software des Diffraktometersreduziert und integriert werden. Diese Prozedur dauert auf einem Pentium 4 mit 2,8 GHz und 1 GBArbeitsspeicher etwa 30 Minuten. Darauf folgt die wesentlich zeitaufwändigere interaktive Struktur-

Jahresbericht 2003

Berichte der Institute und Fachbereiche 105

verfeinerung, die schließlich zur Aufklärung der Struktur führt. In Abb. 2 ist die Kristallstrukturgezeigt, wie sie aus den oben gezeigten Daten ermittelt wurde. Blau sind die Sauerstoff-Ionen,grün die Titan-Ionen. Lanthan sitzt in der Mitte der Ti-Würfel und ist hier nicht zu sehen. Gut zuerkennen ist das komplizierte Verkippungs-Muster der Sauerstoff-Oktaeder.

(M. Cwik, W.-D. Stein, M. Braden)

Beispiel 2: Simulation von Röntgenabsorptions-Spektroskopie

Röntgenabsorptions-Spektroskopie ist eine besonders leistungsfähige Methode, um die elektro-nische Struktur von Übergangsmetall-Oxiden zu untersuchen. Man misst dabei, wie stark Röntgen-licht unterschiedlicher Energie in einer Probe absorbiert wird. An modernen Synchrotronstrahlungs-quellen wie der ESRF in Grenoble, BESSY in Berlin oder NSRRC in Hsinchu, Taiwan, die intensiveRöntgenstrahlung mit variabler Energie zur Verfügung stellen, können solche Messungen durch-geführt werden. Die Stärke der Absorption ändert sich dramatisch, wenn die Energie des Röntgen-lichts gerade eine elektronische Anregung in der Probe verursacht. Man erhält ein kompliziertaussehendes Spektrum, das eine Fülle an Informationen über die magnetischen Eigenschaften derProbe, die Wertigkeit der Ionen, die Besetzung einzelner Orbitale usw. enthält.

Zur quantitativen Auswertung der Spektren wird eine Cluster-Rechnung verwendet, deren theore-tische Grundlagen zwar schon länger bekannt sind, die aber erst mit der Rechenleistung modernerComputer effektiv zur Simulation von Spektren nutzbar ist. Typischerweise muss für eine einzelnedieser Berechnungen eine Matrix von 200.000 mal 200.000 Werten diagonalisiert werden, was fürmoderne PCs aber kein besonderes Problem darstellt.

Ein Beispiel für ein so gewonnenes Ergebnis ist die in Abbildung 3 gezeigte Temperaturabhängigkeitder 2p

1/2 nach 3d Anregung von CoO. Die unteren Kurven sind die Messdaten, die oberen Kurven

sind berechnet und reproduzieren das experimentell beobachtete Verhalten sehr gut. Aus denModellparametern, die die beste Übereinstimmung mit dem Experiment liefern, kann man z.B. er-kennen, dass die Eigenschaften von CoO stark von Spin-Bahn-Kopplung beeinflusst werden.

(M. Haverkort, Z. Hu, L. H. Tjeng)

Hardwareausstattung

1 Sun Ultra Enterprise (Solaris; Fileserver, Mailserver)

1 Sun Ultra 60 (Linux; Apache Webserver)

diverse PCs mit Windows NT 4.0 Domänenserver, Clients: Windows 95/98/NT/2000/2003/XP, Linux

3 Netzwerk-Laserdrucker (ca. 6000 Seiten pro Monat)

4 Tintenstrahldrucker

Art der Vernetzung

Glasfasernetzwerk, TCP/IP Protokoll.

Räumliche Unterbringung der Geräte

Überwiegend in Arbeitsräumen und Büros, zwei zentrale Rechnerräume mit einigen Arbeitsplätzen,Druckern, Scannern.

Jahresbericht 2003

106 Berichte der Institute und Fachbereiche

Personelle Betreuung

3 Teilzeit-Administratoren.

(Dr. Christian Schüßler-Langeheine, E-mail: [email protected])

5.6 Institut für Theoretische Physik

Homepage: http://www.thp.uni-koeln.de/

5.6.1 Weltrekord bei Perkolations-Theorie

„Perkolation“ ist nicht ein „obscure branch of applied mathematics“, wie es das amerikanischeNachrichtenmagazin „Newsweek“ zum Jahreswechsel 2003/4 behauptete, sondern wurde 1941vom späteren Chemie-Nobelpreisträger Paul Flory erfunden, um Gelierung von Polymeren undVulkanisierung von Gummi zu erklären. Computersimulationen macht man am besten auf einemregulären Gitter: Jeder Gitterplatz ist zufällig entweder besetzt oder frei. Cluster sind Mengenbenachbarter besetzter Plätze. Wieviele Cluster gibt es, die von einem Ende des Gitters bis zumanderen reichen?

Bis 2003 war der Konsens, dass für sechs und mehr Dimensionen die Zahl dieser durchreichendenCluster gegen unendlich geht, wenn die Gittergröße gegen unendlich geht. In fünf und wenigerDimensionen war dagegen nur eine endliche Zahl solcher Cluster erwartet. Neue Simulationenzeigen aber bereits in fünf Dimensionen einen Anstieg der Zahl der durchreichenden Clusterproportional zu log (L), wenn L die Kantenlänge des simulierten Würfels ist.

Die Kantenlänge L ging bis 201, was wohl die bisher größten fünfdimensionalen Systeme darstellt,die Platz für Platz simuliert wurden: 328 Milliarden Plätze. Kölner Computer wurden dabei durchgrößere in Jülich und Haifa unterstützt. Das Beispiel macht auch klar den Vorteil von Computer-Experimenten gegenüber Labor-Experimenten: Im Labor können ein, zwei und drei Raumdimensionenuntersucht werden, nicht aber fünf. Damit können Computer einen größeren Bereich von Theorienüberprüfen als Labors. Und wenn eine Theorie in fünf Dimensionen nicht stimmt, kann man sieauch für drei Dimensionen bezweifeln.

(Prof. D. Stauffer, Theoretische Physik, E-Mail:[email protected])

5.6.2 Weitere Berichte

Ein weiterer Bericht über Untersuchungen stark korrelierter Systeme mittels Flussgleichungenist in Kapitel C Abschnitt 4 nachzulesen.

5.7 Institut für Anorganische Chemie

Homepage: http://www.uni-koeln.de/math-nat-fak/anorgchem/

Drei Berichte über Einfluss elektronenziehender Substituenten auf die Chemie des Phosphors,Theoretische Untersuchung zur Bildung von Oxadisulfan (HSOH) bzw. Mikrowellen-spektroskopische Charakterisierung unbekannter Moleküle sind in Kapitel C Abschnitt 5 nach-zulesen.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 107

5.8 Institut für Organische Chemie

Homepage: http://www.oc.uni-koeln.de

5.8.1 Bericht über die Kooperative Informationsverarbeitung

Allgemeines

Das Institut für Organische Chemie arbeitet in sieben Forschungsgruppen hauptsächlich auf demGebiet der synthetischen Organischen Chemie. Darüber hinaus sind drei größere analytischeServicezentren (Massenspektrometrie, Kernresonanzspektroskopie und Röntgenstrukturanaly-se) vorhanden, die sowohl mit ihren spezifischen Dienstleistungen die synthetisch arbeitendenGruppen unterstützen, als auch eigene Forschung betreiben.

Zahlreiche typische Arbeitsabläufe in der heutigen chemischen Forschung sind in vielfältigerWeise auf die "IT-Technologie" angewiesen, wobei insbesondere die Bereiche Gerätesteuerung,Meßwerterfassung und -auswertung, Datenbankanwendungen, Literaturbeschaffung ("elektro-nische Zeitschriften"), "Computational Chemistry" (vgl. hierzu auch Beitrag in Teil C), Kommuni-kation, Antragsstellung und Berichtserstattung sowie Verwaltung zu nennen sind.

All diese Aufgabenbereiche sind in besonderer Weise auf eine Vernetzung angewiesen, die teilweiseüber das Institutsnetzwerk oder, insbesondere im Bereich der Meßtechnik, über kleine lokale Netz-werke realisiert wird.

Im Bereich der Datenbanknutzung sind im wesentlichen SciFinder Scholar, MDL CrossFire (Beil-stein), ISI Web of Science und die Cambridge Structural Database zu nennen. Da diese Produkte,ebenso wie die sehr wichtigen elektronischen Zeitschriften ("Online Journals"), extern bereitge-stellt werden, ist damit auch eine hochverfügbare Internetanbindung unverzichtbar. Ohne Zu-griffsmöglichkeit auf diese und weitere Datenbanken ist eine hochwertige, international konkur-renzfähige chemische Forschung heute nicht mehr realisierbar.

Neben ihrem unverzichtbaren Einsatz in der Forschung wird die IT-Technologie auch maßgeblichim Bereich der Lehre in unserem Institut eingesetzt. Diesbezüglich sind vor allem die Projektion inden Hörsälen, die direkte Nutzung neuer Medien (z.B. ECTN: http://www.cpe.fr/ectn) und dieAusbildung der Studenten in den oben genannten forschungsbezogenen Anwendungen zu nen-nen.

Hardwareausstattung

Die eingesetzte Hardware ist durch das vielfältige Aufgabenspektrum sehr heterogen. Nebenzahlreichen PCs (Windows XP, 2000 und NT) werden verschiedene Linux-Rechner (teilweise alsCluster), Silicon Graphics Computer (Octane, O2 und Indy) sowie DEC-Computer verwendet.

Netzwerk

Das Netzwerk ist im gesamten Gebäude zu den zentralen Switches auf Twisted-Pair-Basis ausge-führt, der Uplink ist über Glasfaser (1 GBit/s) realisiert. Insgesamt werden ca. 300 Maschinen inzwei Class C Subnetzen betrieben.

Jahresbericht 2003

108 Berichte der Institute und Fachbereiche

Kooperation mit dem Rechenzentrum

Das Institut für Organische Chemie kooperiert mit dem RRZK in verschiedenen Bereichen.

Insbesondere nutzen wir stark die Compute-Server des RRZK, hauptsächlich zur quanten-chemischen (QC) Berechnung von Molekülen (vgl. dazu auch Beitrag in Teil C). Eng damit verbun-den, aber nicht nur auf die QC-Programme beschränkt, ist die Beschaffung und Bereitstellung vonProgrammen und Datenbanken, an der sich das Institut auf unterschiedliche Weise beteiligt.

In diesem gesamten Zusammenhang ist insbesondere die sehr wichtige Funktion des RRZK-Fachbereichsbetreuers Chemie (Dr. Lars Packschies) hervorzuheben, dessen Tätigkeit sowohl beider Koordinierung der Beschaffungen sowie der Bereitstellung und dem effizienten Einsatz derSoftware unverzichtbar ist. Neben diesem engen Kontakt, der über die genannten technischenBelange hinaus auch wissenschaftliche Aspekte betrifft, sind die in jedem Semester von Dr.Packschies angebotenen Chemiesoftware-Kurse im CIP-Raum der Chemischen Institute für Stu-denten, Diplomanden und beginnende Doktoranden eine wertvolle Einstiegshilfe für spätere wis-senschaftliche Arbeiten.

Eine enge Zusammenarbeit zwischen unserem Institut und dem RRZK besteht darüber hinaus imBereich der Internetanbindung und -sicherheit.

(Dr. Dirk Blunk, E-Mail: [email protected])

5.8.2 Weitere Berichte

Zwei weitere Berichte über Quantenchemische Studien zu Diels-Alder-Reaktionen bzw. Theoreti-sche Untersuchungen zur Arsonsäure-katalysierten Epoxidierung terminaler Olefine mit Was-serstoffperoxid sind in Kapitel C Abschnitt 6 nachzulesen.

5.9 Institut für Physikalische ChemieProfessur für Statistische Thermodynamik

Homepage: http://www.uni-koeln.de/math-nat-fak/phchem/

Arbeitsgruppe Prof. Dr. Deiters — Homepages:

http: //www.uni-koeln.de/math-nat-fak/fgchemie/group/deiters.htm

http: //www.uni-koeln.de/math-nat-fak/phchem/deiters/index.html

5.9.1 Bericht über die Kooperative Informationsverarbeitung

Austattung:

• 7 Hewlett-Packard RISC-Workstations (verschiedene Modelle von 715/64 bis zu C3000)

• 3 Linux-Rackserver (Dual Xeon 2,4 GHz), über Gigabit-Switch verbunden

• diverse Peripherie: Scanner, mehrere Laserdrucker, Backup-Systeme (DDS- und MO-Lauf-

werke), Switches, USV

Jahresbericht 2003

Berichte der Institute und Fachbereiche 109

Administration

Die Administration der Rechner wird von den Benutzern wahrgenommen.

Besonderheiten

Die Workstation stthd0.pc.uni-koeln.de dient als sekundärer Nameserver für das Institut.

Nutzung der Rechner

Quantenmechanische Rechnungen werden wegen ihrer speziellen Anforderungen auf den Linux-Servern der Arbeitsgruppe sowie auf den großen Servern des Rechenzentrums durchgeführt (z.B.Sunfire). Für die Computersimulationen werden im wesentlichen die Linux-Server und die neuerenHP-Workstations verwendet; die anderen Maschinen dienen als Benutzer-Arbeitsplätze bzw. steu-ern Peripheriegeräte.

Auf den Linux-Servern wird ferner das Computeralgebra-Programm Maple zur Verfügung gestellt.

Alle Rechner der Arbeitsgruppe können untereinander Dateien per NFS austauschen. AFS ist nurauf einigen Workstations installiert, weil es sehr oft Anlass zu Störungen gibt. Backups werdenlokal erzeugt.

Da die Arbeitsgruppe aktiv Computerprogramme für Simulationen und Mischphasenthermodynamikentwickelt, ist es wichtig, dass auf den Servern des Rechenzentrums eine geeignete Programmier-umgebung zur Verfügung steht.

5.9.2 Projekt: Globale Simulation unpolarer Flüssigkeiten

Warum sammelt sich Wasser normalerweise spontan am Boden eines Gefäßes und bildet einenzusammenhängenden Körper, eine sogenannte flüssige Phase? Offensichtlich wirken zwischenden Molekülen von Flüssigkeiten Kräfte, die für einen Zusammenhalt sorgen. Durch genügendgroße Energiezufuhr in Form von Wärme kann man sie überwinden: Die Flüssigkeit verdunstetoder siedet, und der Dampf verbreitet sich — ohne einen erkennbaren Zusammenhalt — im ganzenzur Verfügung stehenden Raum.

Die Stärke dieser Kräfte kann von Substanz zu Substanz stark variieren, und entsprechend unter-schiedlich sind die Siedetemperaturen. So findet man z.B. für Heptan (Bestandteil von Benzin)unter Normaldruck eine Siedetemperatur von 98,3 °C, für Butan (Bestandteil von sog. Flüssiggas,Arbeitsmedium in modernen Kühlanlagen) -0,5 °C, für Stickstoff -195,8 °C, oder für das EdelgasNeon -246,1 °C.

Warum eigentlich?

Und welche Kräfte sind hier am Werk?

Wenn unser derzeitiges Weltbild richtig ist, lassen sich alle Naturphänomene auf vier Wechsel-wirkungen zurückführen: Gravitation, starke und schwache Kraft, elektromagnetische Wechsel-wirkung. Von diesen ist aber nur die letztere für Kräfte zwischen Atomen oder Molekülen vonBedeutung. Das physikalische Gesetz, das die elektromagnetische Wechselwirkung charakteri-siert (genauer: die elektrostatische Wechselwirkung; magnetische Phänomene spielen hier keineRolle) wurde bereits im 19. Jahrhundert von Coulomb gefunden.

Damit ist eigentlich schon alles Wesentliche bekannt, und man sollte einzig und allein aus denWerten einiger Naturkonstanten (Vakuum-Dielektrizitätskonstante ε0, Ladungen und Massen der

Jahresbericht 2003

110 Berichte der Institute und Fachbereiche

Elektronen und der Atomkerne, usw.) z.B. den Siedepunkt von Stickstoff berechnen können!

Diese Erkenntnis ist schon mindestens 50 Jahre alt. Ihre Umsetzung erweist sich aber als extremschwierig.

Zunächst einmal ist festzustellen, dass die Berechnung der Elektronenbewegungen um die Atom-kerne nach den Gesetzen der Quantenmechanik erfolgen muss, was schon in sich eine erheblicheKomplikation bedeutet.

Wenn man auf diese Weise die Gestalt und Ladungsverteilung der eingangs genannten Moleküleberechnet, stellt man fest, dass sie keine oder nur sehr schwach ausgeprägte elektrische Partial-ladungen tragen, die auf keinen Fall die beobachteten intermolekularen Anziehungskräfte erklärenkönnen.

Das Geheimnis der Wechselwirkungen zwischen diesen unpolaren Molekülen sind Dispersions-kräfte — Kräfte, die auf Kopplungen zwischen zufälligen Fluktuationen der Ladungsverteilungender Moleküle zurückzuführen sind.

Die quantitative Ab-initio-Berechnung solcher Dispersionskräfte ist erst seit kurzem möglich. Wirverwenden hierfür die coupled cluster-Methode, die u.a. im Quantenmechanik-Programm Gaussian®

implementiert ist, in Verbindung mit sehr diffusen Basissätzen. Die Rechnungen erfordern extremviel Rechenzeit sowie Speicherplatz für Zwischenergebnisse in der Größenordnung von einigenDutzend GB. Sie müssen für eine große Zahl von Molekülabständen und -orientierungen durchge-führt werden.

Ein erster Test für die Qualität berechneter Paarpotentiale ist die Voraussage des 2. Virialkoeffizienten.Für die von uns untersuchten Edelgase liegen die Abweichungen der Voraussagen nahe an denexperimentellen Fehlerschranken, wie Abb. 2 zeigt.

Die so gewonnenen Tabellen der Wechselwirkungsenergien (eine graphische Darstellung bietetAbb. 1) werden dann mit geeigneten analytischen Funktionen interpoliert. Diese Funktionen kön-nen dann in klassischen Monte-Carlo-Computersimulationen verwendet werden, um thermodyna-mische Daten zu berechnen. Hierbei werden Proben von einigen hundert oder tausend Molekülenbetrachtet; die Teilchen werden nach bestimmten Regeln zufällig bewegt (daher der Name MonteCarlo), um möglichst viele repräsentative Konfigurationen zu erhalten, aus denen dann die makro-skopischen Eigenschaften hochgerechnet werden. Wir setzen speziell die sog. Gibbs-Ensemble-Monte-Carlo-Technik [1] ein, um direkt Dampf–Flüssigkeit-Phasengleichgewichte zu bestimmenund damit schließlich Siedepunkte sowie die Dichten und inneren Energien von Dampf und Flüs-sigkeit zu erhalten.

Die Interpolationsfunktion beschreibt nur Wechselwirkungen zwischen Molekülpaaren. Es stelltsich aber heraus, dass diese Wechselwirkungen nicht exakt additiv sind; man muss also sog.Dreikörper-Korrekturen berücksichtigen.

Die hier angewandte Methode der Globalen Simulation, d.h. einer Kombination von Ab-initio-Berechnungen von Wechselwirkungspotentialen mit thermodynamischen Computersimulationen,lässt sich auch auf Mischungen erweitern. Abb. 3 zeigt ein Hochdruck-Siedediagramm für dasMischsystem (Argon + Krypton). Es handelt sich um die weltweit erste quantitativ gelungeneVoraussage eines solchen Mischungs-Phasendiagramms ohne die Verwendung experimentellerthermodynamischer Daten. Es wurden lediglich die Werte der universellen Konstanten benötigt(Plancksches Wirkungsquantum, Lichtgeschwindigkeit, Elementarladung, Vakuum-Dielektrizitäts-konstante usw.) [2-6].

Jahresbericht 2003

Berichte der Institute und Fachbereiche 111

0 0.2 0.4 0.6 0.8–800

–400

0

400

800

r/nm

106φ(r)/Eh

Ar–Ar Ar–Kr Kr–Kr

Abb. 1: Paarpotentiale der Dimere Argon–Argon, Argon–Krypton und Krypton–Krypton,angegeben in Hartree-Energieeinheiten.

—: experimentelle Ergebnisse, °, ∆ : Ab-initio-Berechnung.

Die beiden äußeren Paarpotentiale wurden der besseren Übersichtlichkeit wegen um 0,2 nmverschoben. Für das Argon–Krypton-Potential konnten experimentelle Werte nur für die

Lagen des Minimums und des Nulldurchgangs gefunden werden.

Die Computersimulationen der hier verwendeten Art werden bei Annäherung an den kritischenPunkt (das Maximum in Abb. 3) systematisch ungenauer. Auch lassen sich nicht alle thermodyna-mischen Funktionen gleich gut allein durch Simulationen ermitteln. Als Abhilfe kann man einethermische Zustandsgleichung an die Simulationsdaten anpassen und mit ihr die Zustandsbereicheberechnen, in denen die Computersimulationen unzuverlässig oder zu zeitaufwendig werden [7].Das Ergebnis ist sehr ermutigend.

Nun mag man sich fragen, warum man sich die Mühe machen sollte, ein solches Phasendiagrammzu berechnen, wenn es doch offensichtlich schon gute Messdaten gibt. Aber hier kann man zweiGründe anführen:

• Ob unsere Hypothesen stimmen — alleinige Berücksichtigung elektrostatischer Kräfte, quanten-mechanischer Ansatz, coupled cluster-Theorie, usw. — kann man ja nicht a priori wissen; manmuss sie überprüfen. Wir können erst jetzt, nach der Beendigung der Rechnungen, feststellen,dass unsere Ergebnisse im Rahmen der derzeit erzielbaren Rechengenauigkeit mit den experi-mentellen Daten übereinstimmen und daher nichts gegen unsere Annahmen spricht.

• Es gibt viele, sehr viele Substanzen und Substanzgemische, für die es keine Messdaten gibt, weilsie z.B. toxisch, korrosiv, explosiv oder chemisch instabil sind. In solchen Fällen könnte sich dieGlobale Simulation als die Methode der Wahl erweisen, um thermodynamische Daten dieserSysteme zu ermitteln.

Jahresbericht 2003

112 Berichte der Institute und Fachbereiche

0 100 200 300 400 500 600 700–500

–400

–300

–200

–100

0

T/K

B/cm3mol−1

Ar

Ar–Kr

Kr

Abb. 2: Virialkoeffizienten von Argon und Krypton sowie Kreuz-Virialkoeffizienten der beidenGase. —: Ab-initio-Voraussage, °: exp. Daten.

Noch vor wenigen Jahren war uns ein Antrag auf Rechenzeit für Globale Simulationen am Von-Neumann-Institut in Jülich mit der Begründung abgelehnt worden, so etwas sei aussichtslos.Dass wir diese und noch weitere Rechnungen trotzdem erfolgreich durchführen konnten, verdan-ken wir der großzügigen Bewilligung von Rechenzeit durch das RRZK/ZAIK sowie dem exzellen-ten Support.

Entscheidend für den Erfolg des Projekts waren der Ideenreichtum, der Enthusiasmus und dieAusdauer der daran beteiligten Mitarbeiter: Matthias Hloucha, Kai Leonhard, Afshin EskandariNasrabad und Rozita Laghaei.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 113

0 0.2 0.4 0.6 0.80

1

2

3

4

5

6

7

xAr

p/MPa

Abb. 3: Siedediagramm des Mischsystems (Argon + Krypton) bei 158 K.

+: exp. Daten,°: Globale Simulation ohne Berücksichtigung von Dreikörper-Kräften,•: mit Dreikörper-Kräften, —: Extrapolation der Simulationsdaten mit einer Zustandsgleichung.

Literatur

[1] A. Z. Panagiotopoulos, J. Phys. Condensed Matter 12, R25–52 (2000).

[2] U. K. Deiters, M. Hloucha, and K. Leonhard, Experiments? — no, thank you! , in T. M.

Letcher, editor, Chemistry for the 21st Century: Chemical Thermodynamics, IUPAC Mono-

graph Series, pages 187–195. Blackwell Science, Oxford, 1999.

[3] K. Leonhard and U. K. Deiters, Mol. Phys. 98, 1603–1616 (2000).

[4] K. Leonhard and U. K. Deiters, Mol. Phys. 100, 2571–2585 (2002).

[5] A. E. Nasrabad and U. K. Deiters, J. Chem. Phys. 119, 947–952 (2003).

[6] A. E. Nasrabad, Global simulation of noble gases and their binary mixtures, PhD thesis,

University of Cologne, 2003.

[7] U. K. Deiters, Chem. Eng. Technol. 23, 581–584 (2000).

(Prof. Dr. U. K. Deiters; E-Mail: [email protected])

Jahresbericht 2003

114 Berichte der Institute und Fachbereiche

5.10 Institut für Theoretische Chemie

Ein Bericht über Quantum Chemical Calculation for Organometallic Template ist in Kapitel CAbschnitt 7 nachzulesen.

5.11 Institut für Biochemie

Homepage: http://www.uni-koeln.de/math-nat-fak/biochemie/

Datenbank BRENDA: Enzyme und Metabolismus

BRENDA (BRaunschweig ENzyme DAtabase) ist die weltweit größte Sammlung von Daten zuEnzymen und Stoffwechselwegen. Sie wird am Institut für Biochemie der Universität zu Köln in derArbeitsgruppe von Prof. Dietmar Schomburg in Kooperation mit der Enzymeta GmbH geführt undweiterentwickelt. Zu den Nutzern der Datenbank gehören Biologen, Bioinformatiker, Pharmakolo-gen, Mediziner und Chemiker. Die Datenbank ist für nicht-kommerzielle Anwender frei zugänglich(www.brenda.uni-koeln.de), hat mehr als 10.000 registrierte akademische Nutzer und bearbeitetjeden Monat mehr als 350.000 Anfragen.

Enzyme sind Eiweißmoleküle, die sich in allen Zellen des Körpers finden lassen. Dort bewirken sieals Biokatalysatoren eine Beschleunigung der chemischen Reaktionen. Enzyme sind für den Stoff-wechsel unverzichtbar, da ohne sie viele Reaktionen gar nicht oder nur in geringem Umfang ablau-fen würden. Für verschiedene Ausgangsstoffe (Substrate) und verschiedene chemische Reaktio-nen gibt es jeweils verschiedene Enzyme. In den meisten Zellen werden weit über tausend Reakti-onen durch verschiedene Enzyme katalysiert.

Startseite der Enzymdatenbank BRENDA und Übersicht der verfügbarer Module

Die BRENDA-Datenbank beinhaltet umfangreiche Daten zu allen bisher klassifizierten Enzymen.Beispielsweise findet man Informationen zu katalysierten Reaktionen, Funktion, Spezifität, Struk-tur, Stabilität, sowie zu ihren technischen oder medizinischen Anwendungen, aber auch zu Krank-heiten, die durch Enzymdefekte ausgelöst werden.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 115

oben: Quick Search bietet einen einfachen und übersichtlichen Zugang zur EnzymdatenbankBRENDA, unten: Das Ergebnis einer Suche in der Ligandendatenbank zeigt einen Link zu

einem Bild sowie die Funktion des entsprechenden Liganden an.

Jahresbericht 2003

116 Berichte der Institute und Fachbereiche

oben: Eine Suche in allen chemischen Strukturen kleiner Moleküle erlaubt es, die Struktur,nach der gesucht wird, als Teilstruktur anderer Moleküle zu finden.

mitte: Das Ergebnis der Sequenzsuche zeigt die Enzyme, welche die gesuchte Abfolge anAminosäuren enthält. Aminosäuren sind die Bausteine alle Enzyme.

unten: Das Reaktionsdiagramm zeigt die Reaktion, die von einer Enzymklasse katalysiertwird.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 117

Die benutzerfreundliche Oberfläche ermöglicht eine gezielte Suche nach den gewünschten De-tails. Man kann nach einzelnen Begriffen suchen, oder auch mehrere Begriffe miteinander kombi-nieren.

Ein völlig neues Werkzeug für die Recherche ist die interaktive Suche nach chemischen Verbin-dungen. Hiermit kann der Nutzer auf dem Bildschirm ein Molekül zeichnen und in der Datenbanknach Enzymen suchen, die mit diesem Molekül in Wechselwirkung treten können. Auf diese Weiselassen sich zum Beispiel Substrate, Hemmstoffe oder Cofaktoren (z.B. Vitamine) suchen.

(Prof. Dr. Dietmar Schomburg, E-Mail: [email protected])

5.12 CIP-Raum der Chemischen Institute

Hardwareausstattung

Arbeitsplätze

2 Windows-NT Server : Dual Pentium, 450 Mhz, 256 MB RAM, 30/50 GB Festplatte

27 Arbeitsplätze : Pentium, 400 Mhz, 128 MB, 8 GB Festplatte, ZIP-Drive

davon 25 unter Windows2000

2 unter Linux Suse 8.2

1 Notebook : Toshiba tecra T8000DVD/8,2

Peripherie

3 Drucker : 1 Hewlett Packard 4000, 20 MB, s/w

1 Hewlett Packard 8000 N, 32 MB, s/w

1 Hewlett Packard 4550 N 64 MB, Farbe

2 Scanner : Hewlett Packard 6200C

Netzwerk

1 Switch vom Typ Catalyst 5505 mit 2x24 Ports 10/100 MBit

Präsentation

Beamer NEC MultiSync MT1030, Auflösung : 1024 x 768

Software

Textverarbeitung : MSOFFICE 2000, WordPerfect Suite, TeXLive

Compiler : Visual C++

Jahresbericht 2003

118 Berichte der Institute und Fachbereiche

Grafik : CorelDraw

Desk-Top-Publishing : PageMaker, FrameMaker, Photoshop

Mathematische Anwendungssoftware : Mathematica, Maple

Chemische Editoren, etc. : ChemOffice Ultra

X-Terminal Emulator : HCL-Exceed, WinaXe

Chemische Anwendungssoftware : Origin,HyperChem, Diamond

Gaussian98W, GaussView

SpartanPlus,

Bruker XWIN-NMR, TopSpin

ACD/HNMR /ACD/CNMR Predictor 3.5

Datenbanken : Beilstein, SCI-Finder Scholar

Der zu Beginn des Jahres 1999 neu konzipierte CIP-Raum basiert auf zwei Windows-NT Servern, andie 25 Windows2000 PCs angeschlossen sind. Diese werden ergänzt durch zwei Linux-PCs (SUSE8.2), so dass die StudentInnen praktische Erfahrungen mit 2 wichtigen Betriebssystemen sammelnkönnen.

Die beiden Server dienen als Netzwerk- und Software-Server, wobei der Netzwerk-Server als Primä-rer Domänen Controller (PDC) und der Software-Server als Backup-Domänen-Controller (BDC)eingerichtet wurde. Auf dem Netzwerk-Server liegen die Server-basierten Accounts, die individu-ellen Profiles und die Home-Directories der User, sowie ein großer tmp-Bereich.

Vernetzung

Der CIP-Raum verfügt über ein eigenes Sub-Netz innerhalb des Universitäts-Netzes (UKLAN).Alle Rechner, Server und Drucker sind über FastEthernet an den Switch angeschlossen.

Räumliche Unterbringung der Geräte

Seit Oktober 2001 ist der CIP-Pool in die Fachbibliothek Chemie integriert, jedoch abgetrennt durcheine verglaste Wand, so dass einerseits die Benutzer der Bibliothek nicht gestört werden und derCIP-Raum andererseits auch für Lehrveranstaltungen genutzt werden kann. Die Öffnungszeitendes CIP-Pools entsprechen denen der Bibliothek. Der CIP-Pool steht somit den StudentInnentäglich von 9.00 - 18.45 Uhr zur Verfügung und wird intensiv genutzt.

Anzahl der Nutzer

Der CIP-Raum hat momentan ca. 300 studentische Nutzer. Hinzu kommen ca. 50 Mitarbeiter ausden einzelnen Instituten, die auf den CIP-Rechnern Übungen und Seminare vorbereiten und diechemische Anwendungssoftware pflegen.

Ausbildungsschwerpunkte der genannten Geräte

Schwerpunkt im Ausbildungsprogramm ist die Vorstellung von und die Einführung in vielgenutzteund teilweise aufwendige Chemische Anwendungen aus den Bereichen

Jahresbericht 2003

Berichte der Institute und Fachbereiche 119

• der Quantenchemie (z. B. GAMESS, Gaussian, Gaussview, Mopac93, Spartan (dieses

versehen mit einem graphischen Interface)),

• der Strukturanalyse (z. B. IREFL, SHELX97, XTAL) für die Röntgenstrukturanalyse,

• der Spektrensimulation (z.B. XWIN-NMR, DNMR5 für die Simulation von NMR Spektren),

• Datenbankrecherchen (z.B. CSD, ICSD, Beilstein, SciFinder Scholar).Die verwendeten Programmpakete sind teilweise lokal auf den Rechnern des CIP-Raumes selberinstalliert, zum anderen stehen sie über das Netz der Universität zu Köln auf den zentralen Servernzur Verfügung. Hierbei sind die zentrale Beschaffung über Campuslizenzen und die kompetenteUnterstützung des RRZK bei der Installation und Pflege von großem Nutzen für die ChemischenInstitute. Die im Frühjahr und im Herbst abgehaltenen mehrtägigen Kurse eines am Rechenzent-rum angestellten Chemikers zur Vorstellung sowohl der lokal installierten Anwendungssoftwareals auch der auf den Servern des RRZK zur Verfügung stehenden Software sind gut besucht undfester Bestandteil des Kursprogramms.

Die während der Seminare und Übungen im CIP-Raum erlangten Kenntnisse über die verfügbarenProgrammpakete bilden eine gute Grundlage, auf der die Studenten im Verlaufe Ihrer Diplom- undDoktorarbeiten aufbauen können. Dies bringt einen erheblichen Zeitgewinn für den weiteren Aus-bildungsweg.

Weiterhin eröffnet die Ausstattung des CIP-Raumes jedem Studierenden den Zugriff auf interna-tionale Datenbanken und bietet die Möglichkeit zur computergestützten Literaturrecherche.

Ausblick

Der im Jahre 1999 installierte CIP-Pool erreicht mittlerweile zunehmend die Grenzen seiner Einsatz-fähigkeit. Dies gilt sowohl für die Hardware als auch für die Software. Die Rechner laufen nichtmehr stabil und werden immer reparaturanfälliger, Ersatzteile sind kaum noch verfügbar; Speicherund Rechenleistung der PCs reichen nicht mehr aus, um aktuelle Softwarepakete mit akzeptablenLaufzeiten auszuführen. Deshalb werden wir im Jahre 2004 einen CIP-Antrag stellen um dasEquipment des CIP-Pools komplett zu erneuern.

(Birgitt Börsch-Pulm, E-Mail: [email protected])

5.13 Botanisches Institut

Ein Bericht über Molekulare Phylogenie und Systematik der Gattung Cryptomonas ist in KapitelC Abschnitt 9 nachzulesen.

5.14 Geologisches Institut: Abteilung Erdbebengeologie

Homepage: http://www.erdbebenstation.de sowie http://www.seismo.uni-koeln.de

Messdatenerfassung

Die Abteilung Erdbebengeologie betreibt in den nördlichen Rheinlanden ein Messnetz zur seismo-logischen Überwachung. Um Erdbeben im Untersuchungsgebiet lokalisieren zu können, sind Mes-sungen an Außenstationen erforderlich. Den gegenwärtigen Status des Netzwerkes zeigt Bild 1.Bei den α-Stationen handelt es sich um kurzperiodische, empfindliche Stationen, die über digitale

Jahresbericht 2003

120 Berichte der Institute und Fachbereiche

Bild 1: Stationsnetz der Abteilung Erdbebengeologie mit dem Stand Feb. 2004.

Bild 2: Die MitarbeiterInnen der Abt. Erdbebengeologie im Februar 2004 vor dem Stations-gebäude in Bensberg (C.Fleischer, B.Weber, J.Mackedanz, Dr. K.-G. Hinzen, Dr. S. K. Reamer,

R.Simon, K.Weber, W. Rolshofen)

Jahresbericht 2003

Berichte der Institute und Fachbereiche 121

Telefonleitungen an der Zentralstation in Bensberg angeschlossen sind. Die β-Stationen habennur analoge Telefonanschlüsse. Die strong-motion Stationen dienen im Falle starker Beben derverzerrungsfreien Messung von Bodenbeschleunigungen. Ein Sub-Netz von 11 Stationen dientspeziell der Erfassung möglicher bergbau-induzierter Beben im Bereich der rheinischen Braunkohlen-tagebaue.

Mit Ausnahme der strong-motion-Stationen wird an allen Messorten mit einem selbst entwickel-ten PC-basierten Datenaquisitionssystem gearbeitet, das auf einem kommerziellen 24 Bit AD-Wand-ler beruht. Bei den PC’s handelt es sich um Industrie PC’s (DSM München). Sie verfügen übereinen 700 MHz Prozessor und 128 MB RAM. Zusätzlich eingebaut wurden eine ISDN Karte undeine Meinberg DCF-Funkuhr, die regelmäßig die Systemzeit synchronisiert. Die analogenMesssignale der Dreikomponentenseismometer jeder Station werden mit einer Abtastrate von 125Samples pro Sekunde digitalisiert. Ein Treiberprogramm erstellt Rohdatenfiles in einer temporärenDatei. Diese Rohdaten werden mit dem Zeitstempel versehen und in ein gängiges seismologischesDatenformat gewandelt. Die Daten werden kontinuierlich in einen Ringspeicher mit einem MonatKapazität geschrieben. Zusätzlich werden für jeden Tag Datenfiles mit reduzierter Abtastrate ge-speichert, die später für die Erstellung von Übersichtsplots verwendet werden. Ein automatischerKurzzeit/Langzeit-Detektor sucht nach transienten Signalen und füllt eine Detektionsliste.

Routineauswertung

Während der Nachtstunden werden die Übersichtsdateien und die Detektionslisten aller Statio-nen in die Zentrale übertragen. Anhand dieser Daten lassen sich Zeitfenster festlegen, für diekomplette Wellenformdaten übertragen werden. Eine Übertragung aller Messdaten ist aus Kosten-gründen nicht möglich. Die Übertragung wird über eine speziell erstellte Benutzeroberfläche, diedas kommerzielle Programm pcAnywhere steuert, realisiert. Nach der Klassifikation der übertrage-nen Ereignisse in Erdbeben mit natürlicher Ursache, bergbaulich induzierte Beben, Sprengungenund sonstige Ereignisse werden die Beben lokalisiert und die Stärke nach der Richterskala ermitteltund anschließend in die BENS-Datenbank eingebracht. Die Ergebnisse der Routineauswertungwerden täglich auf der Webseite veröffentlicht und die Details der Ortungen den FachkollegInnenzur Verfügung gestellt. Im Falle stärkerer Beben, die gespürt werden, etwa ab der Magnitude 3,werden die Beben sofort ausgewertet und die entsprechenden Lagezentren des Katastrophen-schutzes und Medien informiert. Zur Zeit wird ein System erprobt, das eine automatische Alarm-meldung erstellt.

Bild 3 zeigt die Breitbandregistrierung des Iran-Erdbebens am 26.12.03 um 1:56:56 Uhr UTC. 29.01°N,58.27°E, Tiefe: 33 km, Magnitude: 6.7

Die ersten Erdbebenwellen erreichten die Seismometer in Bensberg um 2:04:48 Uhr UTC, ca. 8Minuten nach der Herdzeit.

Netzwerk und Anbindung der Zentralstation

Die Zentrale in Bensberg ist seit Anfang 2002 mit einem DSL Anschluss und über einen kombinier-ten Router, VPN-Concentrator mit ISDN-Backup an das Universitätsnetz angeschlossen. Nachanfänglichen Schwierigkeiten ist mittlerweile ein stabiler Betrieb mit guter Performance gewährleis-tet. An das hausinterne Netzwerk, das durch einen Fast-Ethernet- und ein Ethernet-Switch ver-netzt ist, sind vierzehn Workstations, die unter WIN 2000 und NT betrieben werden, angeschlos-sen. Die Daten werden auf einem File- und Printserver gespeichert, der über ein Hardware Raid

Jahresbericht 2003

122 Berichte der Institute und Fachbereiche

level 1 verfügt und zwei Laserdruckern als Spooler dient, sowie Faxe empfängt. Ein A3-Farb-drucker ist lokal an den Auswerterechner angeschlossen, auf dem im Wesentlichen das seismischeAuswertesystem SeisAn läuft. Ein dritter Laserdrucker ist auch lokal angeschlossen. Zwei seismi-sche Stationen in der Zentrale werden über TCP/IP angesprochen. Das Datenübertragen wird vonzwei reinen „Datensaugern“ erledigt. Außerdem sind drei PCs mit SuSe Linux ins Netz integriert.

Bild 4 zeigt ein Blockdiagramm des Rechnernetzwerkes an der Abt. Erdbebengeologie.

Bild 3: Dreikomponentenseismogramme des Iran-Erdbebens vom 26.12.03

Datenmengen

Die Tagesübersichten haben eine Größe von 2102 KB pro Station, also ca. 42 MB pro Tag für dasNetz. Im Jahr entspricht das etwas mehr als 15 GB für die Übersichten. Dazu kommen die Wellen-formdaten der ausgewählten Ereignisse, die pro 2 Minutenfile 180 KB groß sind. Die zu archivie-renden Wellenformdaten machen etwa 2-3 GB pro Jahr aus. Zusätzlich zu den eigenen Datenwerden für Beben der nördlichen Rheinlande auch Daten benachbarter Stationsnetze, insbesondereaus Belgien und den Niederlanden, gespeichert. Die Archivierung der Daten erfolgt auf DVD+RWim Wechsel.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 123

Bild 4: Blockschaltbild des Rechnernetzwerkes an der Zentralstation in Bensbergund der angeschlossenen Außenstationen.

(Dr. Klaus-G. Hinzen, Claus Fleischer, E-Mail: [email protected])

Jahresbericht 2003

124 Berichte der Institute und Fachbereiche

5.15 Geographisches Institut

Homepage des Geographischen Instituts(http://www.geographie.uni-koeln.de)

Hardware-Ausstattung (CIP-Raum des Geographischen Instituts)

Arbeitsplätze:

· 2 Windows-NT Server: Dual Pentium 500 MHz, 256 MB RAM, 20 GB

· 12 studentische Arbeitsplätze: Pentium III, 600 MHz, 512 MB RAM, 20 GB, Windows-NT, 1

Dozentenrechner

Peripherie

· 2 Drucker

· A0 Digitalisierstation Summagraphic (incl. Rechner)

· A0 Plotter (incl. Rechner)

· A0 Scanner (incl. Rechner)

· 1 Touchboard mit Beamer

Software

· MS Office 2000

· ArcGIS 8.2

Jahresbericht 2003

Berichte der Institute und Fachbereiche 125

· ArcView 3.2

· Photoshop

· Freehand

· TNT-Lite

· FAP (Bildverarbeitung / Eigenentwicklung)

Die CIP Arbeitsplätze wurden im Jahre 2001 komplett ersetzt. Sie dienen der grundlegenden EDV-Ausbildung insbesondere im Bereich computer-gestützter geographischer Arbeitsmethoden (GIS,Statistik, grundlegende Bildverarbeitungsverfahren).

Hardware-Ausstattung in den Arbeitsgruppen

In den Arbeitsgruppen im geographischen Institut stehen Windows-NT PC-Systeme unterschied-lichster Ausstattung zur Verfügung. Diese reichen von einfachen Office-Systemen (Pentium II undälter für Textverarbeitung, Tabellenkalkulation etc) über Pentium III-Rechner mit 800/850 MHzProzessor und 256 MB Speicher bis hin zu 5 Pentium IV-Systemen für die digitale Bildverarbeitung(2 GHz, 512 MB RAM, 80GB).

Räumliche Unterbringung

Die CIP Arbeitsplätze sind in einem zentralen Rechnerraum, die Server und gemeinsam genutztePeripherie in besonderen Arbeitsräumen untergebracht. Die weiteren Bildschirmarbeitsplätze be-finden sich in den Arbeitsräumen der jeweiligen Arbeitsgruppe. Alle Rechner sind vernetzt.

Personelle Betreuung

Die personelle Betreuung des CIP-Labors erfolgt durch einen wissenschaftlichen Mitarbeiter (miteinem Teil seiner Arbeitszeit) und durch studentische Hilfskräfte, die Betreuung der Arbeitsgruppen-rechner wird durch die Mitarbeiter der jeweiligen Arbeitsgruppe realisiert.

Anzahl der Nutzer

Z. Zt. sind ca. 500 Studenten sowie 25 Mitarbeiter eingetragene Nutzer des CIP-Raums

Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung

Kooperation mit dem ZAIK/RRZK

· Backup durch die ADSM-Server des ZAIK / RRZK

· Beratung in Soft- und Hardwarefragen

· Nutzung der schnellen Datenleitungen zum Download von Umweltdaten

· Unterstützung bei WAP-Antrag

Ausbildungsschwerpunkte im Bereich EDV

· Geographische Informationssysteme

· Statistische Verfahren

Jahresbericht 2003

126 Berichte der Institute und Fachbereiche

· Umweltmodelle

· Fernerkundungsmethoden

· Luftbildauswertung

Forschungsschwerpunkte

· Quartärforschung

· Paläoklimatologie

· Geographie der Trockengebiete

· Hydrogeographie

· Umweltmodelle

· Metropolenforschung

· umweltbezogene Wirtschafts- und Industriegeographie

· Stadt- und Regionalentwicklung

(Prof. Dr. Karl Schneider, E-Mail: [email protected])

5.16 Institut für Geophysik und Meteorologie

5.16.1 Bereich Geophysik

5.16.1.1 Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.geophysik.uni-koeln.de/

Im Bereich Geophysik sind zur Zeit ca. 20 Mitarbeiter und ca. 30 Diplomanden/SHKs beschäftigt.Ihnen steht folgende Rechnerausstattung zur Verfügung:

Hardware und Betriebssysteme

• 1 Compute-Server Compaq ES40 (SMP Architektur mit 4 Alpha-CPUs), 10 GB Hauptspeicher,ca. 160 GB Netto-Plattenplatz, davon ca. 100 GB auf RAID, Betriebssystem: Compaq Tru64Unix 4.0F

• 1 Compute-Server Compaq DS20E (2 Alpha-CPUs), 2.25 GB Hauptspeicher, ca. 70 GB Netto-Plattenplatz, Gigabit-Ethernet, Betriebssystem: Compaq Tru64 Unix 5.1

• 2 Digital Alpha Workstations, Betriebssystem: Compaq Tru64 Unix 4.0E• 1 Sun Sunfire V240, 8 GB RAM, Gigabit-Ethernet, Betriebssystem: Solaris 9• 2 Sun Enterprise 220R, Gigabit-Ethernet, Betriebssystem: Solaris 8• 3 Sun Workstations, Betriebssystem: Sun Solaris 2.6• 2 DEC-Alpha/DECstations, Betriebssystem: NetBSD 1.6.2• ca. 20 PCs (Pentium-III, Pentium-IV), 128 - 768 MB Hauptspeicher, 10 - 120 GB Plattenplatz,

Betriebssystem: NetBSD 1.6.2, desweiteren ca. 5 PCs (Pentium-III) mit Microsoft Windows NT/2000/XP als Betriebssystem für Office-Anwendungen

Der Compute-Server und die Workstations sind in einem klimatisierten Raum untergebracht, diePCs an den Arbeitsplätzen sowie in einem den Studenten zugänglichen Raum.

Jahresbericht 2003

Berichte der Institute und Fachbereiche 127

Netzwerk

Das Gebäude ist vollständig mit UTP Cat 5 verkabelt. Das LAN basiert auf 100 MBit/s Ethernet(Altgeräte: 10 MBit/s Ethernet), die wichtigsten Server sind via Gigabit-Ethernet angeschlossen.

Personal

Die Rechner- und Netzwerkadministration erfolgt durch eine Rechnergruppe, bestehend aus ei-nem festangestellten Wissenschaftler (leitend), einem Ingenieur, zwei Doktoranden (welche jeweilsnur einen kleinen Teil ihrer Arbeitszeit der Systemadministration widmen) und einer SHK.

Außenstelle

Die Arbeitsgruppe „Explorationsgeophysik“ hat ihre Diensträume in einer Außenstelle in derGodesberger Straße. Dort sind 4 wissenschaftliche Mitarbeiter sowie 8 SHKs/Diplomanden tätig.Die Rechnerausstattung besteht aus einem als Compute-Server betriebenen Linux-Cluster, beste-hend aus 4 Knoten (Athlon XP 1800 mit jeweils 512 MB RAM) und einem Mail- und File-Server.Desweiteren werden 8 PCs unterschiedlicher Leistungsstufen als Arbeitsplatzrechner (unterWindows und Linux) betrieben, zusätzlich gibt es einige Laptops und Feld-PCs. Das Netzwerkbesteht aus einem Thin-Wire-Ethernet (10 MB/s), an das mehrere geswitchte 100 MB/s Segmenteangeschlossen sind. Die Anbindung an das UKLAN erfolgt über eine leider viel zu schmalbandigeISDN-Standleitung.

Forschungsschwerpunkte

Die Forschungsgebiete des Bereichs Geophysik teilen sich auf zwei Schwerpunkte auf: AngewandteGeophysik und Extraterrestrische Geophysik.

Im Schwerpunkt Angewandte Geophysik werden folgende Forschungsthemen bearbeitet:

• Umwelt- und Ingenieurgeophysik mit Radiomagnetotellurik (RMT) und Geo-Radar• Induzierte Polarisation im Zeitbereich• Transientenelektromagnetik mit der Central-Loop Anordnung• Elektromagnetische Tiefenerkundung mit LOTEM (in der Außenstelle Explorationsgeophysik)

Im Schwerpunkt Extraterrestrische Geophysik liegt das Hauptinteresse bei folgenden Forschungs-themen:

• Interplanetares Plasma und Sonnenwind• Magnetosphäre der Erde• Magnetosphären anderer Planeten (Jupiter, Saturn, Uranus, Neptun)• Kometenplasmaphysik• Wechselwirkungen der Galileischen Monde mit der Jupitermagnetosphäre• Plasmawechselwirkungen der Eissatelliten des Saturn und des Titan mit ihrer Umgebung• Physik extraterrestrischer Atmosphären

Zusammenarbeit innerhalb der kooperativen, verteilten Informationsverarbeitung

Der Bereich Geophysik betreibt eine eigene AFS-Zelle (geo.uni-koeln.de), eigene (redundant aus-gelegte) eMail-Server, FTP-Server, DNS-Server (secondary), etc.

Jahresbericht 2003

128 Berichte der Institute und Fachbereiche

Vom Rechenzentrum wird vor allem die via Vol-Baum bzw. AFS zur Verfügung gestellte Softwarebenutzt. Beim Rechenzentrum zentralisierte Dienste, wie z. B. die des Hostmasters werden laufendin Anspruch genommen. Als Backup-System wird das vom Rechenzentrum betriebene ADSMverwendet, mit dem wir sehr gute Erfahrungen gemacht haben.

Der Gebäudeverantwortliche für die Zülpicher Str. 49 (Dr. Wennmacher) ist im Bereich Geophysikangesiedelt und übernimmt bestimmte Servicefunktionen (v. a. die Netzwerkadministration im Haus)für die anderen im Hause befindlichen Geo-Institute Geographie und Geologie.

5.16.1.2 Anwendungen der LOTEM-Methode in der Explorationsgeophysik

In der Gruppe „Explorationsgeophysik“ des Institutes für Geophysik und Meteorologie wird haupt-sächlich die Long-Offset-Transient ElectroMagnetics (LOTEM) Methode weiterentwickelt. Dabeihandelt es sich um ein Messverfahren, mit dem die elektrische Leitfähigkeit im Untergrund in einerTiefe von 200-5000 m erkundet werden kann. Das Verfahren wurde ursprünglich für dieKohlenwasserstoffexploration eingesetzt. Hierbei sucht man Zonen niedriger Leitfähigkeit (Öl) ineinem ansonsten gut leitenden Medium. Allerdings kann die LOTEM-Methode auch auf eineVielzahl anderer Fragstellungen angewandt werden. In den letzten Jahren wurde z. B. damit eineGrundwasserfragestellung in Israel („Wo befindet sich gut leitendes Salzwasser?“), eineMesskampagne am Vulkan Merapi in Indonesien („Wie ist die Verteilung gut leitenden Magmas?“)sowie eine Untersuchung der Krustenstruktur in Jordanien angegangen.

Bei einer Messung wird dazu ein Sender in der Form eines etwa einen Kilometer langen, geerdetenDipols aufgebaut. Über diesen wird Strom in den Boden eingespeist, der in regelmäßigen Abstän-den umgepolt wird. Dieses Umpolen erzeugt im Untergrund sekundäre Ströme, die von der Vertei-lung der elektrischen Leitfähigkeit (bez. ihrem reziproken Wert, dem spezifischen Widerstand) inder Erde abhängig sind.

Die von diesen sekundären Strömen erzeugten elektromagnetischen Felder werden an der Erdo-berfläche an Empfängerstation, die sich in einigen Kilometern Entfernung vom Sender befinden,aufgezeichnet. Diese „Transienten“ genannten Signale tragen die Informationen über den Aufbaudes Untergrundes mit sich. Die elektromagnetischen Felder werden in bis zu fünf Komponentenregistriert und zwar die elektrischen Felder senkrecht und parallel zum Sender sowie die magneti-schen Felder in allen drei Raumrichtungen.

Nach den Messkampagnen stehen umfangreiche EDV-Arbeiten an. Zunächst müssen die aufge-zeichneten Daten (typischerweise 5 GB) für die Interpretation aufbereitet werden. Als erstes wirdeine Analyse der Störungen durch natürliches und anthropogenes elektromagnetisches Rauschendurchgeführt. Speziell die sinusförmigen Störungen durch die Stromversorger (50 Hz und höhereHarmonische) und das Stromnetz der Deutschen Bahn (16 2/3 Hz) sind meist um mehrere Größen-ordnungen stärker als das eigentliche Messsignal. Vor der weiteren Verarbeitung müssen sie daheraus den aufgezeichneten Zeitreihen entfernt werden. Dies geschieht mit in der Arbeitsgruppeentwickelten, speziell auf das Sendesignal abgestimmten digitalen Filtern. Weitere wichtige Arbeits-schritte sind eine Gleichspannungswertkorrektur, die selektive Mittelung der einigen tausendEinzelmessungen, sowie eine wiederum auf das Signal abgestimmte Glättung der Daten.

Der nächste Schritt ist, aus den gemessenen Transienten Leitfähigkeitsmodelle zu erstellen. Es istnicht möglich, aus den gemessenen Kurven direkt die Widerstandsverteilung in der Erde abzulei-ten. Statt dessen wird eine Inversion durchgeführt. Dabei wird ein Erdmodell gesucht, über demman den Messdaten entsprechende Transienten messen würde. Dazu wird ein Vorwärtsalgorithmusbenötigt, ein Programm, das bei gegebener Leitfähigkeitsverteilung und Messgeometrie entspre-

Jahresbericht 2003

Berichte der Institute und Fachbereiche 129

chende Transienten simuliert.

Für eindimensionale Modelle (dies sind in den meisten Fällen Modelle, bei denen mehrere horizon-tal gelagerte Schichten übereinanderliegen) existieren seit vielen Jahren Programme, die die Inver-sion automatisch durchführen. Dazu muss der Benutzer ein Startmodell vorgeben, das dann vomProgramm selbstständig iterativ verbessert wird, idealerweise bis mit dem Modell Daten erzeugtwerden, die mit den gemessenen im Rahmen der Fehlerabschätzungen übereinstimmen. Dazu sind- je nach Methode - viele hundert bis tausend Vorwärtsrechnungen nötig. Für den einfachen Falleines geschichteten Halbraums sind diese aber wenig rechenintensiv.

In der Arbeitsgruppe werden derzeit Programme entwickeln, die eine automatische Inversion auchfür komplexere Modelle durchführen können, bei denen sich die Leitfähigkeit in zwei oder dreiRaumrichtungen ändern kann (2D- bzw. 3D-Inversion). Dazu wird der Untergrund meist in vieleQuader eingeteilt, in denen eine konstante Leitfähigkeit angenommen wird.

Die obige Abbildung zeigt ein Beispiel für eine Testinversion mit einem synthetischen Datensatz.Im oberen Teil der Abbildung ist das ursprüngliche Erdmodell abgebildet. In einem Schichtmodellist jeweils ein gut (links) und ein schlecht leitender Block (rechts) eingebettet. Das schwarzeDreieck kennzeichnet die Lage des senkrecht zur Bildebene laufenden Dipolsenders. Auf beidenSeiten des Senders befinden sich insgesamt 22 Empfängerstationen. Dabei wurden hier sowohlDaten für die vertikale magnetische Komponente (pinke Dreiecke) als auch die elektrische Kompo-nente parallel zum Sender (grüne Dreiecke) simuliert. Die Transienten wurden verrauscht undinvertiert. Das Startmodell war ein homogener Halbraum mit 15 Ohm-Metern, der in insgesamt1.034 Zellen eingeteilt wurde. Im unteren Teil der Abbildung wird das Ergebnis der Inversion nach22 Iterationsschritten gezeigt. Die Grenzen der Diskretisierung des Ursprungsmodells sind weiß

Jahresbericht 2003

130 Berichte der Institute und Fachbereiche

gekennzeichnet. Man sieht, dass die ersten beiden Schichten sehr gut wiedergefunden werden.Auch der gut leitende Block wird reproduziert, während sich der schlecht leitende nur schwachabzeichnet. Auch die unteren beiden Schichten werden nicht aufgelöst. Da die sich für diesesModell ergebenden Transienten aber gut mit den ursprünglich simulierten übereinstimmen, schei-nen sich diese Bereiche des Erdmodells nicht deutlich in den Transienten niederzuschlagen. Dem-entsprechend hat der Inversionsalgorithmus in diesem Fall seine Aufgabe gut erfüllt, ein Modellzu finden, das die „gemessenen“ Daten gut reproduziert.

Obwohl das Grundproblem der mehrdimensionalen Inversion das gleiche wie im eindimensionalenFall ist und auch mit den gleichen Strategien gelöst werden kann, ergeben sich einige Probleme.Die dazu benötigten 3D-Vorwärtsalgorithmen sind weitaus rechenintensiver. Die Inversions-programme sind daher so ausgelegt, dass die Vorwärtsrechnungen parallel von verschiedenenProzessoren eines Multiprozessorrechners oder eines Clusters bearbeitet werden können. Weiterhinwerden in der Gruppe Strategien entwickelt, um die Anzahl der benötigten Vorwärtsrechnungenmöglichst klein zu halten.

Auch sind die Modellparameter so zahlreich (1.000-100.000), dass die zu bearbeitenden Matrizenenorme Größen aufweisen können. Derzeit werden die Programme an kleinen Problemen mit bis zu1.500 Parametern am arbeitsgruppeninternen Cluster mit vier PCs (jeweils 512 MB RAM) erprobt.Mittelfristig sollen jedoch auch größere Probleme angegangen werden. Diese würden Maschinenmit 2 GB Hauptspeicher oder mehr erfordern. Daher wurden die Programme für die Verwendung aufden Compute-Servern des Instituts und des Rechenzentrums portiert.

(Dr. Lex Wennmacher, E-Mail: [email protected])

5.16.1.3 Weitere Berichte

Zwei weitere Berichte über 3D-Modellierung und Inversion von Radiomagnetotellurik Datensowie Assimilation von Spurengasmessungen in ein Chemie-Transport-Modell nach derVariationsmethode sind in Kapitel C Abschnitt 8 nachzulesen.

5.16.2 Bereich Meteorologie

5.16.2.1 Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.meteo.uni-koeln.de/

Beschaffungen 2003

1 Notebook

5 PCs für Linux

1 Hardware-RAID

Art der Vernetzung

Ein geswitchtes 100Base-T Ethemet mit Anschluss an den UKLAN-Backbone über den phiIgw-Router (Catalyst 4006).

Jahresbericht 2003

Berichte der Institute und Fachbereiche 131

Räumliche Unterbringung der Geräte

Die Rechner, sowie Peripheriegeräte (wie z.B. Drucker, Scanner, DAT-Laufwerke) sind in insgesamt20 Arbeitsräumen mit maximal je 6 Arbeitsplätzen dezentral untergebracht. Zusätzlich existiert einServerraum, in dem sich die lokalen Server des Instituts befinden.

Personelle Betreuung

Das lokale Netz wird von einem wissenschaftlichen Mitarbeiter sowie von 2 SHKs betreut.

Nutzer

20 wissenschaftliche Mitarbeiter und 60 Studenten

Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung

Besonders die zentrale Softwarebereitstellung mit Hilfe des Andrew-File-Systems wird vom Insti-tut für Geophysik und Meteorologie intensiv genutzt. Die Meteorologie verwendet dafür OpenAFSund unterhält eine eigene AFS-Zelle (meteo.uni-koeln.de). Neben den gängigen Betriebssystemen(Sun Solaris 9, Windows 2000) und Programmiersprachen (Fortran 77, Fortran 90, C, C++) kommtauch Spezialsoftware, wie z. B. die geophysikalischen Grafiktools Vis5d, GMT, GrADS, undNCARGraphics zu einem vielfältigen Einsatz. Aufgrund des intensiven Informations- und Daten-austausches innerhalb der Meteorologie sind die beteiligten Wissenschaftler im hohen Maße voneinem leistungsfähigen und zuverlässigen Netzwerk, sowie dem weiterführenden Anschluss andas Internet abhängig. Dies wird zum einen durch die im Jahre 1997 durchgeführte Neuverkabelungdes Instituts, sowie durch die hervorragende Betreuung und Instandhaltung des Netzes durch dieMitarbeiter des RRZK gewährleistet. Die wissenschaftlichen Berechnungen werden zum größtenTeil auf den institutseigenen Workstations und PCs erstellt. Besonders rechenintensive Program-me werden auf leistungsstarke Computer, wie z. B. die Sun Compute Server des RRZK, ausgelagert.Die Sicherung und Archivierung anfallender Daten erfolgt zum überwiegenden Teil in dem ADSM-Backup- und Archivsystem des Rechenzentrums. Es ist geplant, am Institut Linux einzuführen,zusätzlich zu den bereits verwendeten Systemen Solaris und Windows. Dabei hilft das Rechenzen-trum beratend mit.

Forschung- und Ausbildungsschwerpunkte unter Einsatz der genannten Geräte

Am Institut für Geophysik und Meteorologie werden vielfältige Aktivitäten im Rahmen atmosphä-rischer Umwelt- und Klimaforschung initiiert und durchgeführt. Hierbei wird besonderer Wert aufnationale und internationale Kooperation gelegt. Die Forschungsschwerpunkte umfassen hierbeifolgende Themen:

• Tropenmeteorologie• Meteorologie der mittleren Breiten• Ozon in der Troposphäre (Troposphärisches Ozon; Austausch Stratosphäre-Troposphäre;

Tropopausenfaltungen; Austausch freie Troposphäre-Grenzschicht)• WITRAK - Prognose und Diagnose anthropogener Klimamodifikationen in der Mikro- und

MesoskalaNeben dem wissenschaftlichen Arbeiten erlernen die Studenten während ihres Studiums denUmgang mit verschiedenen Betriebssystemen, Programmiersprachen und Anwendungssoftware.

Jahresbericht 2003

132 Berichte der Institute und Fachbereiche

Veröffentlichungen

Eine Auflistung der jährlichen Veröffentlichungen des Instituts befindet sich im WWW unter derURL: http://www.meteo.uni-koeln.de/meteo.php?show=De_Fo_Pu

(Daniel Tiggemann, Email: [email protected])

5.16.2.2 Weitere Berichte

Ein weiterer Bericht über Lokale Modellierung sekundärer Schadstoffe im Großraum Köln mitHilfe eines genesteten Modellsystems und dynamischer Verkehrssimulation ist in Kapitel C Ab-schnitt 8 nachzulesen.

5.16.3 Außenstelle EURAD

Homepage: http://www.eurad.uni-koeln.de

5.16.3.1 Bericht über die Kooperative Informationsverarbeitung

Rechner-Ausstattung Ende 2003

3 Sun Blade100, Solaris 8, SunPCI II-PC-Karte, Windows 2000 Professional

1 Linux-Cluster bestehend aus 3 Dual Athlon MP Systemen, 1 Single Athlon PC (Master)

1 Linux-Cluster bestehend aus 2 Dual Xeon Systeme, 2 Intel P4 PC, 1 Single Athlon PC(Master)

5 Suse und Redhat Linux PC, Intel Celeron CPU

3 Windows 2000 Professional PC, Intel Celeron CPU

1 SGI Indigo 2

8 Sparc Workstations, Solaris 2.6

Durchgeführte Beschaffungen 2003

2 Dual Xeon Systeme

2 Intel P4 PC

1 Athlon PC

2 RAID-IDE Systeme mit jeweils 900 GB Kapazität

Art der Vernetzung

Der überwiegende Teil der Rechnersysteme und der Laserlink zum Rechenzentrum sind mit Fast-Ethernet, ältere Systeme mit 10 MBit Ethernet verbunden. Ein Linux Cluster ist an einem Gigabit-Switch angeschlossen.

Räumliche Unterbringung

Die meisten Rechner inklusive angeschlossener Peripherie und die beiden Linux Cluster befindensich zentral in einem klimatisierten Rechnerraum. Die Bildschirmarbeitsplätze an den Sun Worksta-

Jahresbericht 2003

Berichte der Institute und Fachbereiche 133

tions sind in den Arbeitsräumen über Monitor- und Tastaturverlängerungen mit dem Rechnerraumverbunden. Die Linux Rechner sowie Windows 2000 Professional Systeme stehen dezentral an denArbeitplätzen der Mitarbeiter.

Personelle Betreuung

Die Systemadministration erfolgt durch zwei wissenschaftliche Mitarbeiter (mit einem Teil ihrerArbeitszeit) und einer studentischen Hilfskraft.

Anzahl der Nutzer

15 Wissenschaftler u. Studenten.

Zusammenarbeit innerhalb der kooperativen, verteilten Datenverarbeitung

Das ZAIK/RRZK bietet mit dem Rechner uk-web2 als Webserver für das EURAD-Projekt bzw. RIU(Rheinisches Institut für Umweltforschung an der Universität zu Köln) seit Ende des Jahres 2001die Möglichkeit, aktuelle Schadstoffvorhersagen und Wetterprognosen für Mitteleuropa, Deutsch-land und NRW sowie eine dazugehörige Prognosedatenbank im Internet unter der oben genann-ten Webadresse zu veröffentlichen.

Dieser Service wird m Rahmen des Datenbank-Projekts intensiv genutzt. So wurde zum BeispielAnfang August 2003 während einer Episode mit hohen Ozonkonzentrationen über Deutschlandan mehreren Tagen mehr als 2000 Zugriffe auf unsere Webseite gezählt.

Damit hängt das EURAD Projekt/RIU im großem Maße von einer funktionierendenInternetverbindung ab. Hier leistet das ZAIK/RRZK wertvolle Unterstützung imNetzwerkmanagment und in der Bereitstellung einer leistungsfähigen Netzwerkverbindung.

Weiterhin wird auch das ADSM/TSM Backup durch das Rechenzentrum intensiv genutzt. Eineweitere Zusammenarbeit besteht durch die Nutzung der mittels AFS zur Verfügung gestelltenSoftware und durch Betriebssystem Updates und Fortran Compiler im Rahmen des Sun CampusVertrages.

Simulationsrechnungen, die einen besonderes hohen Bedarf an Hauptspeicher haben, werden aufden Compute-Servern (z.B. suns15k) des ZAIK/RRZK ausgeführt.

Ausbildungsschwerpunkte

- atmosphärische Umweltforschung

- Luftchemie

- Numerik

- Transportmechanismen

- Parallelrechner, Scientific Computing

Forschungsschwerpunkte

- atmosphärische Umweltforschung

- Simulation der Ausbreitung von Schadstoffen in der Atmosphäre

- Entwicklung von Strategien zur Luftreinhaltung

Jahresbericht 2003

134 Berichte der Institute und Fachbereiche

Veröffentlichungen

Details können dem aktuellen Forschungsbericht der Universität zu Köln und den EURAD Web-seiten entnommen werden.

(Georg Piekorz, E-mail: [email protected])

5.16.3.2 Beispielhaftes Projekt:Beschreibung des EURAD/RIU Vorhersagesystems

Seit Anfang des Jahres 2001 wird am Rheinischen Institut für Umweltforschung an der Universitätzu Köln ein System zur Vorhersage der Schadstoffkomponenten in der Atmosphäre getestet. Seit1. Juni 2001 läuft dieses Vorhersagesystem täglich in einer quasi-operationellen Form. Ab dem 1.Januar 2004 wurde das System auf eine Prognose von 3 Tagen erweitert. Das Vorhersagesystembasiert auf dem EURAD Modellsystem. Lediglich werden die meteorologischen Anfangs- undRandgrößen von einer globalen numerischen Wettervorhersage vorgegeben. Die Prognose glie-dert sich wie folgt:

Meteorologische Anfangs- und Randbedingungen

Zur Initialisierung des mesoskaligen meteorologischen Modells werden aktuelle vorhergesagteFelder der meteorologischen Größen benötigt. Dazu wird täglich die globale 00 UTC Vorhersagedes GFS (vormals AVN) des National Center for Environmental Protection (NCEP) von einemanonymen FTP-Server auf den lokalen Rechner übertragen. Die globale GFS Vorhersage steht inder Regel um 03:30 UTC auf dem FTP-Server bereit. Diese Anfangs- und Randfelder, die auf Stan-

Abbildung 1: Modellkonfiguration für das EURAD Vorhersagesystem

Jahresbericht 2003

Berichte der Institute und Fachbereiche 135

darddruckflächen mit einer horizontalen Auflösung von 1 Grad vorliegen, werden dann auf dasregionale Gebiet des Vorhersagesystems interpoliert.

Modellgebiet des Vorhersagesystems

Die obige Abbildung1 zeigt die Modellkonfiguration für das EURAD Vorhersagesystem. Das Ge-biet CO (DOMAIN1) überdeckt nahezu ganz Europa und hat in der horizontalen Ebene 35 x 33Gitterpunkte mit einer Gitterlänge von 125 km. Darin ist ein Gebiet N1 (DOMAIN2) eingebettet, daszentrale Regionen Europas inklusive Deutschland überdeckt. Dieses Gebiet hat in der horizontalen56 x 51 Gitterpunkte mit einer Gitterlänge von 25 km. Ein weiteres Gebiet N2 (DOMAIN3) mit einerGitterlänge von 5 km, das das Bundesland Nordrhein-Westfalen überdeckt, wurde in das Prognose-system eingebaut. Das Modell erstreckt sich in der vertikalen über 23 Schichten mit einer Schicht-dicke von ca 40 m in der bodennahen Schicht.

Die folgende Abbildung illustriert das gesamte Modellsystem mit seinen einzelnen Komponenten:

Abbildung 2: das gesamte Modellsystem mit seinen einzelnen Komponenten

Außerdem wurde in das System die Vorhersage von Aerosolen aufgenommen. Damit ist es zumersten Mal möglich, Staubpartikel in komplexer Form vorherzusagen. Besonders im Winter beiaustauscharmen Wetterlagen führt der Feinstaub (Partikel mit Durchmesser kleiner als 10 µm;PM10) zu starken Belastungen der Atmosphäre in Ballungsgebieten.

Jahresbericht 2003

136 Berichte der Institute und Fachbereiche

Das meteorologische Modell MM5

Mit den Eingangsdaten der GFS Vorhersage wird das mesoskalige meteorologische Modell MM5(PennState/NCAR mesoscale model) angetrieben. Die Abbildung zeigt schematisch den Programm-ablauf des Modellsystems MM5 mit seinen Präprozessoren:

Abbildung 3: schematisch den Programmablauf des Modellsystems MM5

Im Präprozessor TERRAIN werden globale Orographie- und Landnutzungsdaten auf das jeweiligeModellgebiet interpoliert. Die folgenden Abbildungen zeigen als Beispiel die Orographie und dievorherrschende Landnutzungsart auf dem jeweiligen Gitterpunkt für das Gebiet N1 (DOMAIN2):

Abbildung 4: Orographie und vorherrschende Landnutzungsart auf dem jeweiligen Gitter-punkt für das Gebiet N1 (DOMAIN2)

Jahresbericht 2003

Berichte der Institute und Fachbereiche 137

Im Präprozessor REGRID werden die globalen GFS Vorhersagedaten gelesen und auf das gewähltehorizontale Gitter interpoliert. INTERP führt eine vertikale Interpolation von den Standarddruck-flächen auf die geländefolgenden Sigma-Koordinaten des MM5 durch und stellt MM5 sämtlicheAnfangs- und Randbedingungen im Abstand von 6 Stunden zur Verfügung. MM5 rechnet dannzuerst auf dem Gebiet CO (DOMAIN1) eine Vorhersage über 72 Stunden. Danach interpoliert dasProgramm NESTDOWN stündliche vorhergesagte meteorologische Größen in dem Gebiet CO(DOMAIN1) auf das Gebiet N1 (DOMAIN2), um danach MM5 auf dem Gebiet N1 (DOMAIN2)rechnen zu können. Die gleiche Prozedur wiederholt sich bei der Nestung des Gebietes N2(DOMAIN3) in das Gebiet N1 (DOMAIN2).

Das Chemie-Transport Modell EURAD-CTM

Direkt im Anschluss an die Vorhersage der meteorologischen Felder wird der Transport, die chemi-sche Umwandlung und die Deposition der atmosphärischen Konstituenten berechnet. Der Prä-prozessor PPC bereitet die meteorologischen Größen für das EURAD-CTM vor und berechnetzusätzliche wichtige Größen wie die Höhe der planetaren Grenzschicht, Depositions-geschwindigkeiten der einzelnen Species etc. Die anthropogenen Emissionen wurden offline imPräprozessor EEM für die jeweilige Stunde berechnet. Dabei fand außerdem noch eine Unterschei-dung zwischen Werktag- und Wochenendemissionen statt. Die biogenen Emissionen werdenonline im EURAD-CTM berechnet und hängen im wesentlichen von der Temperatur in derboden-nahen Schicht und vom Landnutzungstyp ab. Mit diesen Eingangsdaten startet dann dasEURAD-CTM und prognostiziert die atmosphärischen Schadstoffkomponenten für einen Zeit-raum von 72 Stunden sukzessive auf den Gebieten CO (DOMAIN1), N1 (DOMAIN2) und N2(DOMAIN3). Die Prognose wird auf einem Cluster von 2 LINUX PCs (Intel Dual Xeon mit 2667MHz) gerechnet.

Täglicher Vorhersage-Zyklus

Wie bereits erwähnt, stehen die globalen GFS Vorhersagen etwa um 3:45 UTC (4:45 MEZ) auf demFTP-Server zur Verfügung. Der Prognose-Zyklus startet dann automatisch gegen 05:00 MEZ undca 09:00 MEZ sind alle Vorhersagen fertig und werden dann graphisch aufbereitet. Die Graphik-Dateien werden anschließend in die Prognosedatenbank abgespeichert und sind seit 1. November2001 für jeden Tag verfügbar.

(Dr. Hermann Jakobs, E-Mail: [email protected])