RADAR...nachnutzbar bleiben, bedarf es entsprechender Infrastrukturen für die Archivierung und...

18
RADAR Research Data Repositorium Antrag auf Gewährung einer Sachbeihilfe im Rahmen der Ausschreibung „Neuausrichtung überregionaler Informationsservices“ Themenfeld 4: Forschungsnahe Informationsinfrastruktur

Transcript of RADAR...nachnutzbar bleiben, bedarf es entsprechender Infrastrukturen für die Archivierung und...

RADAR

Research Data Repositorium

Antrag auf Gewährung einer Sachbeihilfeim Rahmen der Ausschreibung

„Neuausrichtung überregionaler Informationsservices“

Themenfeld 4:

Forschungsnahe Informationsinfrastruktur

2

Verantwortlich für die Durchführung des Vorhabens sowie für die Bewirtschaftung und

Abrechnung der Mittel:

- Technische Informationsbibliothek (TIB) Hannover (AP 1, AP 3, AP 5)- FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur (AP 1, AP 4, AP 6)- Ludwigs-Maximilians-Universität (LMU) München (AP 2, AP 3, AP 7)- Leibniz-Institut für Pflanzenbiologie (IPB) (AP 2, AP 3, AP 7)- Karlsruher Institut für Technologie (KIT)/SCC (AP4, AP 6)

1.2 Thema

Etablierung eines Research Data Repositoriums (RADAR) als Basisdienstleistung für wissenschaftliche Institutionen zur Archivierung und Publikation von Forschungsdaten

1.3 Förderprogramm / Fach- und Arbeitsrichtung

Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS),Förderbereich „Informationsmanagement“Ausschreibung „Neuausrichtung überregionaler Informationsservices“ (15.10.2012)Themenfeld 4: Forschungsnahe Informationsinfrastruktur

1.4 Voraussichtliche Gesamtdauer

Vorgesehene Gesamtdauer: 36 Monate; vorgesehene Förderung durch die DFG: 36 Monate.

1.5 Antragszeitraum

36 Monate, gewünschter Beginn der Förderung: 01.04.2013.

1.6 Zusammenfassung

Die digitale Datenproduktion hat in den letzten Jahren rasant zugenommen, ein Ende des Wachstums ist nicht absehbar. Damit diese Datenmengen auch für nachfolgende Generationen verfügbar und nachnutzbar bleiben, bedarf es entsprechender Infrastrukturen für die Archivierung und Publikation von Forschungsdaten. RADAR zielt auf den Aufbau und die Etablierung einer solchen Infrastruktur, um dasin vielen Disziplinen noch fehlende Forschungsdatenmanagement zu unterstützen. Damit trägt RADAR in erheblichem Maß zur verbesserten Verfügbarkeit und nachhaltigen Bewahrung von Forschungsdaten bei.

RADAR verfolgt dabei einen zweistufigen Ansatz mit einem (nicht disziplinspezifischen) Einstiegs-angebot zur Archivierung von Forschungsdaten und einem höherwertigen Angebot mit integrierter Datenpublikation. Das vorgesehene Geschäftsmodell mit Einmalzahlungen in Abhängigkeit von Datenumfang und Haltefristen bildet die Voraussetzung für einen nachhaltigen Betrieb des Daten-archivs. Die Angebote richten sich sowohl an Wissenschaftler11, die Forschungsanträge stellen und darin direkt Mittel zur Archivierung ihrer Daten vorsehen, als auch an Forscher (auch aus der Industrie), die an der Nachnutzung der Daten interessiert sind. Die enge Zusammenarbeit mit Wissenschaftlern, Fachgesellschaften und Verlagen ermöglicht die bedarfsgerechte Entwicklung der Infrastruktur.

2. Ausgangslage / Stand der Forschung bzw. Entwicklung

2.1 Darstellung

Die Verfügbarkeit wissenschaftlicher Daten ist einer der Schlüsselfaktoren für die weitere Entwicklung der (empirischen) Wissenschaften. Ungeachtet der mittlerweile zahlreichen politischen Vorgaben und Richtlinien (z.B. durch die OECD12, UNESCO13 , EU14 oder die DFG15) ist jedoch nur ein geringer Teil

11 Die Verwendung der männlichen oder weiblichen Sprachform schließt die jeweilig andere nicht aus und soll lediglich der besseren Lesbarkeit dienen12

OECD Principles and Guidelines for Access to Research Data from Public Funding, 2007, 2-5 13 Charta zur Bewahrung des digitalen Kulturerbes: http://www.unesco.de/444.html14 High Level Expert Group on Scientific Data: Riding the wave – How Europe can gain from the rising tide of scientific data, 2010.

3

der produzierten Daten tatsächlich verfügbar, da eine auf Dauerhaftigkeit angelegte und verlässlicheInfrastruktur zur Erschließung, Archivierung, Bereitstellung und Nach-nutzung von Forschungsdaten in vielen Fachdisziplinen fehlt. Die folgenden fünf Abschnitte zeigen den aktuellen Stand und die bestehenden Herausforderungen und Defizite auf.

2.1.1 Infrastrukturbedarf (AP 4, AP 7)

Sowohl international wie auch national gibt es erfolgreiche Beispiele für Forschungsdaten-Repositorien, etwa das World Data System der International Council of Science (ICSU)16 mit seinen mehr als 50 weltweit verteilten disziplinspezifischen Datenzentren oder GESIS – Leibniz-Institut für Sozialwissen-schaften17 mit seinen archivierten Studien und empirischen Primärdaten aus den Sozialwissenschaften.Auch Fachdatenbanken wie z.B. die Protein Data Bank (PDB)18 nehmen Forschungsdaten auf. Gerade letztere zeigt aber auch, dass diese existierenden Angebote oft nur einen Ausschnitt der insgesamt anfallenden Forschungsdaten erfassen. Um Nachvollziehbarkeit und Reproduzierbarkeit von For-schungsergebnissen zu gewährleisten, muss ihr Entstehungsprozess nachvollziehbar erhalten bleiben, inklusive der Rohdaten und Zwischenergebnisse. Diesem Ziel haben sich die meisten disziplin-spezifischen Datenzentren bewusst nicht verschrieben. In manchen Disziplinen fehlen entsprechende Repositorien sogar vollständig. Dem Mangel an einer entsprechenden Forschungsdateninfrastruktur stehen die enormen Zuwächse an digitalen Forschungsdaten gegenüber, dies betrifft sowohl ihr Volumen als auch die Art, Verwendung und Nachnutzungswert. Was letztlich relevante erhaltenswerte Forschungsdaten sind, ist dabei häufig abhängig vom Kontext, der Zeit und nachfolgenden zukünftigen Erkenntnissen und Entdeckungen, kann also nicht notwendigerweise bereits zum Zeitpunkt ihres Entstehens bewertet werden.

2.1.2 Heterogenität (Daten, Metadaten und Formate) (AP 2, AP 3)

In seinen Empfehlungen zur Weiterentwicklung der Informationsinfrastruktur in Deutschland bis 2020 unterscheidet der Wissenschaftsrat sechs Forschungsformen: experimentierende, beobachtende, auf Simulation beruhende, hermeneutisch-interpretierende, begrifflich-theoretische und gestaltende.19 Nicht für alle Forschungsformen besitzen (digitale) Forschungsdaten schon heute den gleichen hohen Stellenwert. Experimentelle Daten entstehen z.B. in Beschleunigern, chemischen, biologischen oder medizinischen Laboren und sind oft gekennzeichnet durch große Datenmengen und vielfach proprietäre Datenformate. Simulationsdaten entstehen durch Berechnungen mit Hilfe von Computern. Hier stellen eher die Ausgangsdaten sowie die verwendeten Simulationsalgorithmen und deren Parametrisierung die Herausforderung für die Archivierung dar. Beobachtungsdaten entstehen z.B. durch Teleskope, Mikroskope, Satelliten, aber auch durch Interviews oder durch Audio- und Videoaufzeichnungen und können oftmals nur schwer reproduziert werden, da es sich teilweise um singuläre Ereignisse handelt. Darüber hinaus sind als weitere Datengruppe Referenzdaten zu nennen, wie z.B. Genomdatenbanken, die disziplinübergreifend von Wissenschaftlern genutzt werden. Hinzu kommt begleitendes Material, wie Kalibrierungsdaten, Parameter des Experimentes, Laborbücher etc.,die die eigentlichen Daten in einen Kontext setzen und damit erst verständlich machen. Die enorme disziplinabhängige Vielfalt der Datenformen und -typen ist kaum einzuschränken: sie reichen von proprietären Formaten über Audio- und Videostreams, Textkorpora bis hin zu Webarchiven20 und Datenbanken. Neben der großen Vielfalt an Datentypen und der zu ihrer Speicherung eingesetzten Datenformaten kommen noch auf die disziplinspezifischen Anforderungen hin abgestimmte beschreibende Metadaten hinzu. Diese stellen die Vielzahl der Datenobjekte oft erst in einen Zusammenhang, machen ihre Genese nachvollziehbar und machen sie überhaupt erst auffindbar.

Wissenschaftler stellen auf ihrem jeweiligen Fachgebiet individuelle und höchstspezifische Anforderungen an das Forschungsdatenmanagement. Großforschungseinrichtungen wie z.B. CERN

15 Deutsche Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme: Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten, 200916 http://www.icsu-wds.org/17 GESIS - Leibniz-Institut für Sozialwissenschaften, http://www.gesis.org/18 Die PDB wird vom Research Collaboratory for Structural Bioinformatics (RCSB) unterhalten, http://www.rcsb.org19 „Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020“, Wissenschaftsrat, Berlin, 2012, S. 36f.20 Die Library of Congress archiviert die Daten des Microblogdienstes Twitter u.a. zu Forschungszwecken (http://blogs.loc.gov/loc/2010/04/the-library-and-twitter-an-faq/)

4

oder „big data“-Disziplinen wie z.B. die Klimaforschung pflegen einen anderen Umgang mit ihren Forschungsdaten und sehen sich mit anderen Herausforderungen konfrontiert21 als z.B. kleine Forschergruppen in der Archäologie. Dementsprechend unterschiedlich ist der Grad der Standardisierung von Datenformaten und Metadatenformaten. Gleichwohl können vier Ansätze22 in Hinblick auf den Umgang der unterschiedlichen Fachdisziplinen mit der Formatvielfalt und -heterogenität unterschieden werden:

1. die Formate können durch Richtlinien der Institution oder 2. durch Fakten (z.B. Standards, Geräteabhängigkeiten) eingeschränkt sein, 3. es hat u.U. noch keine Standardisierung in dieser Fachdisziplin stattgefunden,4. die Formate können nicht eingeschränkt werden, da dies z.B. innovationshemmend wäre.

Die enorme Vielzahl der Daten- und Metadatenformate stellt für die langfristige Nachnutzbarkeit der Daten eine große Herausforderung insbesondere für die funktionale Langzeitarchivierung dar.23 Die Beobachtung der sich entwickelnden Technologie der digitalen Langzeitarchivierung und der Anforde-rungen der relevanten Zielgruppen haben einen großen Einfluss auf notwendige Preservation Policies und Datenmanagementpläne. Viele dieser Fragestellungen sind zurzeit noch Gegenstand der For-schung.24 Um das hier beantragte Projekt nicht zu überfrachten, verzichtet RADAR vorerst bewusst auf eine funktionale Langzeitarchivierung der Daten, beobachtet aber relevante Projekte25 und Initiativen.26

2.1.3 Lebenszyklus von Forschungsdaten (AP 2)

Die Nachnutzung von Forschungsdaten kann zum Zwecke der Kooperation, zum Austausch mit anderen Wissenschaftlern, für eine wissenschaftliche Publikation oder für eine an die Allgemeinheit gerichtete Veröffentlichung erfolgen. Die Veröffentlichung von Forschungsdaten sollte ein integraler Bestandteil des Forschungsprozesses sein27, jedoch kennt die klassische wissenschaftliche

Abbildung 1: Lebenszyklus von Forschungsdaten

Publikationsweise kaum Standards, wie mit den zugrundeliegenden Forschungsdaten zu verfahren ist. Forschungsdaten entstehen zu einem anderen Zeitpunkt als klassische Publikationen und durchlaufen

21 Bicarregui, J., Gray, N., Henderson, R., Jones, R., Lambert, S. und Matthews, B., DMP Planning for Big Science Projects, 2012. S. 6f. Online: http://arxiv.org/abs/1208.3754v122 Neuroth, H., Strathmann, S., Oßwald, A., Scheffel, R., Klump, J., Ludwig, J. [Hrsg], Langzeitarchivierung von Forschungsdaten – Eine Bestandsaufnahme, 2012 . Online: http://www.nestor.sub.uni-goettingen.de/bestandsaufnahme/nestor_lza_forschungsdaten_bestandsaufnahme.pdf23 Seeing Standards: A Visualization of the Metadata Universe, http://www.dlib.indiana.edu/~jenlrile/metadatamap/24 Becker, C. Vertrauenswürdige Planung in der digitalen Langzeitarchivierung, 2011. Online: http://hdl.handle.net/10760/1624825 z.B. SCAPE – Scalable Preservation Environments (http://www.scape-project.eu/) oder bwFLA (http://bw-fla.uni-freiburg.de/)26 z.B. NESTOR (http://www.langzeitarchivierung.de/)27 EU-GRDI2020 Roadmap Report, Global Scientific Data Infrastructures: The Big Data Challenges, 2011

5

einen eigenen „Lebenszyklus“. Zur Illustration dieser Prozesse im Forschungsdatenmanagement legen wir das Domänenmodell von Treloar28 und Klump29 zugrunde (siehe Abbildung 1). Demzufolge werden die Forschungsdaten durch den Wissenschaftler (private Domäne) erzeugt und analysiert. Zur Diskussion der Ergebnisse mit ausgewählten Kollegen innerhalb und außerhalb seiner Institution macht er diese – meist in bereits bearbeiteter Form – über geeignete Systeme eingeschränkt zugreifbar (kollaborative Domäne).

2.1.4 Datenpublikation (AP 5)

Sollen Teile von Forschungsdaten Bestandteil einer wissenschaftlichen Publikation werden, sei es als Ergänzung zu einer klassischen Publikation („supporting material“) oder als eigenständige Datenpublikation, so müssen sie zwei elementare Anforderungen erfüllen: eindeutige und persistente Identifizierbarkeit und verlässlicher dauerhafter Zugriff. Das Domänenmodell sieht hierfür den Übergang in die öffentliche Domäne vor. Doch was im Domänenmodell der logisch nächste Schritt ist, stellt Wissenschaftler und Verlage in vielen Disziplinen vor große Probleme. Wer übernimmt für sie die Identifizierung und Speicherung der Daten weit über die Dauer ihrer Forschungsprojekte hinaus? Wissenschaftliche Verlage widmen sich in jüngster Zeit selbst diesem Thema und suchen neue Wege der Publikation von Forschungsergebnissen und der zugrundeliegenden Daten.30 Darüber hinaus wurde eine Kooperation zwischen STM-Verlagen31 und DataCite vor kurzem beschlossen.32

2.1.5 Vertrauenswürdigkeit und Nachhaltigkeit (AP 6, AP 1)

Ein verlässlicher dauerhafter Zugriff auf Forschungsdaten muss von Datenzentren garantiert werden.33

In der Vergangenheit wurden hierfür unterschiedliche Kriterienkataloge entwickelt und Zertifizierungs-stellen geschaffen (z.B. World Data System34, TRAC35, Nestor36, DCC37, DINI38 und Data Seal of Approval39). Dadurch erlangen Archive das Siegel der Vertrauenswürdigkeit. Die Harmonisierung der Kriterienkataloge und die Klärung von Zuständigkeiten sind jedoch noch offen.

Neben den technischen, organisatorischen und juristischen Aspekten des Forschungsdaten-managements ist die wirtschaftliche Sicht ebenfalls wichtig. Dem ökonomischen Aspekt des Datenmanagements widmete sich zum ersten Mal umfassend der BRTF Final Report.40 Für den Bereich des Forschungsdatenmanagements spricht der Report fünf Empfehlungen für Institutionen und Geldgeber aus. Weitere Publikationen auf diesem Gebiet sind „Keeping Research Data Safe”41 und„Aligning National Approaches to Digital Preservation”.42 Belastbare Zahlen und Geschäftsmodelle fehlen aber bis dato.

28 Treloar, A.; Harboe-Ree, C., Data management and the curation continuum. How the Monash experience is informing repository relationships. VALA2008 14th Biennial Conference. Melbourne, 200829 Klump, J., Managing the Data Continuum, 2009 . Online: http://oa.helmholtz.de/fileadmin/user_upload/Data_Continuum/klump.pdf30 http://blogs.wiley.com/publishingnews/2012/07/02/research-data-%E2%80%93-an-update-on-new-initiatives/31 Unter dieser Abkürzung werden Verlage aus dem Bereich Science, Technology und Medicine zusammengefasst32 http://datacite.org/node/65 und http://www.stm-assoc.org/industry-news/crossref-joins-stm-datacite-statement/33 Klump, J., Criteria for the Trustworthiness of Data Centres, D-Lib Magazine, Vol. 17, Number 1-2, 201134 http://icsu-wds.org/images/files/WDS_Certification_Summary_11_June_2012.pdf35 Ambacher, B., Trustworthy Repository Audit & Certification: Criteria and Checklist (TRAC)36 Dobratz, S. et. al., Catalogue of Criteria for Trusted Digital Repopsitories, nestor materials, 200637 Digital Curation Center (DCC), and Digital Preservation Europe (DPE), 2007, Audit Method Based on Risk Assessment (DRAMBORA)38 DINI AG Elektonisches Publizieren, DINI-Certificate Document and Publication Services, 200739 Sesink L., van Horik R., Harmsen H., Data Seal of Approval, Data Archiving and Networked Services (DANS), 200840 Sustainable Economics for a Digital Planet: Ensuring Long Term Access to Digital Information, Final Report of the Blue Ribbon Task Force on Sustainable Digital Preservation and Access, 2010 http://brtf.sdsc.edu/biblio/BRTF_Final_Report.pdf41 Beagrie, N. et al., Keeping Research Data Safe, A Cost Model and Guidance forUK Universities, JISC, Final Report, 2008,http://www.jisc.ac.uk/media/documents/publications/keepingresearchdatasafe0408.pdf42 McGovern, N. Y. (Volume Editor), Aligning National Approaches to Digital Preservation,EDUCOPIA INSTITUTE PUBLICATIONS, Atlanta, Georgia, 2012

6

2.2 Vorarbeiten der Partner

Technische Informationsbibliothek Hannover

Für die Identifizierung, eindeutige Referenzierung und Sicherung der Zitierfähigkeit von Forschungs-daten hat die in der Leibniz-Gemeinschaft vertretene Technische Informationsbibliothek (TIB), die zentrale Fachbibliothek für Technik sowie Architektur, Chemie, Informatik, Mathematik und Physik seit dem Jahr 2005 als weltweite erste nicht-kommerzielle Registrierungsagentur43 durch die DOI-Vergabe sowohl die nötige Infrastruktur als auch inhaltliche Kompetenzen in diesem Bereich aufgebaut, die letztlich in 2009 zur Gründung des internationalen Vereins DataCite,44 führte.45 Dessen Geschäftsstelle ist an der TIB ansässig. Der DOI (Digital Object Identifier) als persistenter Identifier dient zur Referen-zierung und dauerhaften Verfügbarkeit von Forschungsdaten. Gleichzeitig ist er als Qualitätsmerkmal für die referenzierten Objekte und für die Publikation von Daten ein unabdingbarer Bestandteil.

In GetInfo, dem Fachportal für Technik und Naturwissenschaften, können zudem nicht nur herkömm-liche Publikationen verzeichnet und bereitgestellt werden, sondern auch Forschungsdaten, 3D-Objekte und AV-Medien. Diese erweiterte Dienstleistung ermöglicht in einem ersten Schritt den auf Metadaten basierenden Nachweis von archivierten und referenzierten Forschungsdaten in einem Fachportalgemeinsam mit Publikationen.

Anhand der im Jahr 2010 erstellten DFG-geförderten Konzeptstudie „Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie“, die grundlegend den Umgang mit Forschungs-daten in wissenschaftlichen Prozessen analysierte, kann der aktuelle Bedarf zur Archivierung und Publikation von Forschungsdaten in der chemischen Wissenschaft abgelesen werden. Aufbauend auf diesen Erkenntnissen kann in diesem Projekt bedarfsgerecht die notwendige Infrastruktur entwickelt und implementiert werden.

Das ebenfalls von der DFG geförderte Kompetenzzentrum für Forschungsdaten aus Erde und Umwelt, „KomFor“,46 welches als Bindeglied zwischen wissenschaftlichen Einrichtungen, Verlagen, Bibliotheken und einem bestehenden Archivnetzwerk für Daten aus Erd- und Umweltforschung geplant ist, erzeugtSynergieeffekte für den Aufbau einer generischen Forschungsdatenmanagement-Infrastruktur.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur

FIZ Karlsruhe arbeitet seit mehreren Jahren intensiv und erfolgreich an e-Science-Lösungen für dieWissenschaft. Grundlage für die im vorliegenden Projektantrag vorgesehene Software bildet die e-Science-Infrastruktur eSciDoc, die gemeinsam mit der Max-Planck-Gesellschaft (MPG) in einem vom BMBF geförderten Projekt zwischen 2004 und 2009 entstanden ist und seitdem kontinuierlich weiterentwickelt wird.

FIZ Karlsruhe hat in mehreren Projekten die Einbindung einer Dateninfrastruktur in virtuelle Forschungsergebnisse erfolgreich umgesetzt. Zum einen wurden in den von Baden-Württemberg geförderten Projekten BW-eLabs (2009-2011) und BW-eSci(T) (2009-2012) erste Schritte in ein durchgängiges Forschungsdatenmanagement getan. Diese Ergebnisse wurden im DFG-geförderten Projekt e-Kinematix (2009-2012) nachgenutzt und generalisiert. Im EU-Projekt SCAPE (Scalable Preservation Environments, 2011-2014) befasst sich FIZ Karlsruhe mit den Herausforderungen der digitalen Langzeitarchivierung sehr großer Repositorien.

Mitte 2010 wurde FIZ Karlsruhe vom Kompetenznetzwerk “Deutsche Digitale Bibliothek“ als Betreiber ausgewählt. Die im Rahmen des wettbewerblichen Auswahlprozesses dargestellten Qualitäten als zuverlässiger und vertrauenswürdiger Betreiber komplexer IT-Infrastrukturen und Softwaresysteme sowie darauf aufsetzender Geschäftsprozesse qualifizieren FIZ Karlsruhe auch als Betreiber eineszertifizierten Datenzentrums.

43 Vgl. http://www.tib-hannover.de/de/die-tib/doi-registrierungsagentur/44 http://datacite.org/45 Vgl. Senat der Leibniz Gemeinschaft, Stellungnahme zur Technischen Informationsbibliothek Hannover (TIB), 2011. Besonders hervorzuheben ist dabei der Betrieb der nationalen DOI-Registrierungsagentur zur Referenzierung von Forschungsdaten. „Mit ihr bietet die TIB einen innovativen und bedeutenden Dienst an, der auch international wahrgenommen wird.“ (Ebd. S. B-9).46 http://www.komfor.net/home

7

Karlsruher Institut für Technologie (KIT), Steinbuch Centre for Computing (SCC)

Das Karlsruher Institut für Technologie (KIT) wurde durch den Zusammenschluss des Forschungs-zentrums Karlsruhe und der Universität Karlsruhe durch die Bundesrepublik Deutschland und das Land Baden-Württemberg gegründet. Das Steinbuch Centre for Computing (SCC) ist das Information Tech-nology Centre des KIT und betreibt, neben den für ein IT-Service-Center spezifischen Aufgaben, eigene Forschung und nimmt dabei eine führende Rolle in den Gebieten High Performance Computing (HPC) & Data Intensive Computing (DIC), Scientific Computing und Simulation, Grid und Cloud Computing sowie Large Scale Data Management & Analysis (LSDMA)47 ein. Das SCC entwickelte und betreibt seit 2009 die Large Scale Data Facility (LSDF), die zu einer der größten Einrichtungen Europas für die Speicherung, Analyse und Archivierung von Forschungsdaten aus Physik-, Bio- und Geisteswissen-schaften heranwächst. Dazu werden am SCC seit 2011 im Rahmen des DFG Projekts „Beweissicheres elektronisches Laborbuch“ (BeLab) praxisnahe Lösungen für die beweiswerterhaltende Archivierung von Forschungsdaten umgesetzt. Das SCC kann in seiner Rolle als Dienstleister für Datenspeicherung in Baden-Württemberg und in der Helmholtz-Gemeinschaft umfangreiche Erfahrungen einbringen.

LMU München – Department Chemie

Das Department Chemie bildet zusammen mit den Departments Biochemie (mit angeschlossenem Genzentrum) und Pharmazie die traditionsreiche Fakultät Chemie und Pharmazie der LMU. Zahlreiche interdisziplinäre Arbeitsgruppen haben sich als Projektpartner in DFG- und sonstigen Forschungs-projekten in exzellenter Forschung ausgezeichnet. Diese Forschergruppen werden an der Fakultät –neben gruppeneigenen Messwerterfassungssystemen – durch eine zentrale Analytik-Abteilung mit verschiedenen, hochmodernen Methoden unterstützt. Die anfallenden Daten reichen von physiko-chemischen Datenpunkten über Spektren hin zu Bildern aus dem Life-Science Bereich und reflektieren damit die breite Datenvielfalt in chemischen Publikationen. Die nachhaltige Bereitstellung der Daten stellt dabei eine immer größer werdende Herausforderung für die Fachbereiche dar. RADAR bietet für das Department Chemie der LMU erstmalig einen Ansatz, das Thema Forschungsdatenmanagement anzugehen.

Leibniz-Institut für Pflanzenbiochemie (IPB)

Das Leibniz-Institut für Pflanzenbiochemie (IPB), Halle, betreibt als Mitglied der Leibniz-Gemeinschaft anwendungsorientierte Grundlagenforschung. Im Mittelpunkt des einzigartigen Forschungsprofils steht die umfassende Analyse pflanzlicher und pilzlicher Naturstoffe, die im Rahmen einer multidisziplinären Strategie mit chemischen, spektroskopischen, biochemischen, zellbiologischen, physiologischen und genetischen Methoden bearbeitet werden. Die Schwerpunkte der Arbeiten liegen in der Analyse von Naturstoffen, der Erforschung molekularer Interaktionen komplexer biologischer Prozesse in Pflanzen und der Aufklärung von Genfunktionen. Zunehmende Bedeutung erlangen Arbeiten auf den Gebieten von Proteomik und Metabolomik. Ein integraler Bestandteil aller dieser Aktivitäten ist die Chemo- undBioinformatik. Die fächerübergreifenden Forschungsansätze und das damit verbundene vielfältige Methodenspektrum führen zur Erzeugung sehr großer Datenmengen von hoher Komplexität und Diversität. Speicherung, Auswertung, Verknüpfung und Nutzung dieser Daten erfordern den Einsatz angepasster Informatikwerkzeuge. Die dazu am IPB in einem abteilungsübergreifenden Forschungs-und Kompetenzschwerpunkt begonnenen Arbeiten würden durch das RADAR-Projekt wesentlich unterstützt und ergänzt werden.

2.3 Verzeichnis projektspezifischer Publikationen

Potthoff, J., Rieger, S., und Johannes, P. C. (2012). “Enhancing the Provability in Digital Archives by Using a Verifiable Metadata Analysis Web Service,” Proc. 7th ICIW 2012, 27. Mai –1. Juni 2012, Stuttgart.

Potthoff, J. (2012). „Beweiswerterhaltendes Datenmanagement im elektronischen Forschungsumfeld“. In: Bonn Gesellschaft für Informatik e.V., P. Müller, B. Neumair, H. Reiser und G.D. Rodosek (Hrsg.): Proceedings 203 5. DFN-Forum Kommunikationstechnologien: Fachtagung Regensburg 21.-22.05.2012, Köllen (S. 109 – 118).

47 http://www.helmholtz-lsdma.de/

8

Hackel, S., Johannes, P.C., Madiesh, M., Potthoff J. und Rieger, S. (2011). „Scientific Data Lifecycle – Beweiswerterhaltung und Technologien“. In: BSI (Hrsg.): Sicher in die digitale Welt von morgen - Tagungsband zum 12. Deutschen IT-Sicherheitskongress, SecuMedia (S. 403 –418).

Brase, J. (2011). Access to Research Data , D-Lib Magazine, Volume 17, Number 1/2,

doi:10.1045/january2011-braseBrase, J., Farquhar, A., Gastl, A., Gruttemeier, H., Heijne, M., Heller, A., Piguet, A., Rombouts, J., Sandfaer, M., Sens, I. (2009). Approach for a joint global registration agency for research data, Information Services and Use, 29 (1) (S. 13-27).

Razum, M., Einwächter, S., Fridman, R., Herrmann, M., Krüger, M., Pohl, N., et al. (2010). Research Data Management in the Lab. 5th International Conference on Open Repositories.

Madrid, Spanien.

Razum, M., Schwichtenberg, F., Wagner, S., & Hoppe, M. (2009). eSciDoc Infrastructure: A Fedora-Based e-Research Framework. In M. Agosti et al., ECDL 2009, LNCS 5714: Springer, (S. 227-238).

Jeschke, S., Burr, B., Hahn, J. U., Helmes, L., Kriha, W., Krüger, M., et al. (2009). Networking Resources for Research and Scientific Education in BW-eLabs. 10th ACIS International

Conference on Software Engineering, Artificial Intelligences, Networking and

Parallel/Distributed Computing , London, UK: IEEE Computer Society (S. 47-52).

TIB, FIZ Chemie, Universität Paderborn (2010). Konzeptstudie „Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie“, Hannover, TIB [u.a.].

3. Ziele und Arbeitsprogramm

3.1 Ziele

Das Ziel von RADAR ist es, in einem Zeitraum von drei Jahren eine Infrastruktur für die Datenarchi-vierung und -publikation (Datenzentrum) aufzubauen, der ein sich selbsttragendes, zweistufiges Geschäftsmodell zu Grunde liegt. Der Aufbau und die Etablierung einer solchen Infrastruktur umfasst Werkzeuge und Prozesse, um Forschungsdaten

systematisch zu erschließen,dauerhaft in einem Datenarchiv zu bewahren und der Öffentlichkeit zugänglich zu machen,

durch DOI-Vergabe verfügbar, zitierfähig und verlinkbar zu machen sowiefür die Nachnutzung qualitätsgesichert bereitzustellen.

Je mehr man sich dem Arbeitsplatz der Wissenschaftler annähert (siehe Abb. 1, kollaborative bzw. private Domäne), desto offensichtlicher wird die Vielfalt der Forschungsprozesse und die Heterogenitätder damit verbundenen Datentypen, Formate und Metadaten (vgl. 2.1.2). Daher ist es zielführend, denSchwerpunkt von RADAR zuerst auf die dritte, öffentliche Domäne (vgl. 2.1.3) zu legen, da dies die einzige Stelle ist, an der sich eine generische, disziplinübergreifende Dienstleistung etablieren lässt. Gleichzeitig wirkt ein verlässliches und auf Dauerhaftigkeit ausgelegtes Datenarchiv dem Defizit einer fehlender Infrastruktur (vgl. 2.1.1) entgegen. Das Datenarchiv bildet eine wesentliche Grundlage für dieNachnutzung und Publikation von Forschungsdaten (vgl. 2.1.4) und bringt allein dadurch bereits einen erheblichen Nutzen für Forschende (auch in der forschenden Industrie), Wissenschaft und Gesellschaft. Die Datenarchivierung ermöglicht Transparenz und schnellere Überprüfbarkeit von Forschungsergeb-nissen in der Wissenschaft. Die Wiederverwertbarkeit von Daten schafft Vergleichsmöglichkeiten und verringert redundante Datenerhebungen, wodurch sich Zeit und Kosten in erheblichem Maß einsparen lassen.

Für den Aufbau und Betrieb eines disziplinübergreifend nutzbaren Forschungsdatenarchivs verfolgenwir einen zweistufigen Ansatz, der sich auch im geplanten Umfang der angebotenen Dienstleistung niederschlägt. Das Einstiegsangebot zeichnet sich durch formatunabhängige Archivierung, Bitstream Preservation sowie einem minimalen Metadatensatz mit einem standardisierten Kern aus. Sie erlaubt

9

eine Verknüpfung von Daten mit Metadaten, die Verwaltung von Zugriffsrechten und gewährleistet den öffentlichen Zugang zu den Daten. Dieses Angebot richtet sich an Wissenschaftler aus den „small sciences“, die primär an der Einhaltung von empfohlenen Haltefristen48 interessiert sind. Darüber hinaus eignet es sich aber auch für andere Daten wie z.B. Negativdaten49, die man nicht als Teil einer Publikation verwenden möchte, die aber für andere von hohem Interesse sein können. Das Einstiegs-angebot unterscheidet sich von kommerziellen Diensten wie z.B. Dropbox50 oder figshare51 durch das hinter ihm stehende Betreiberkonsortium aus wissenschaftsnahen Gedächtnisorganisationen und Infrastruktureinrichtungen, die deutschem Recht unterliegen und keine kommerziellen Interessen verfolgen, sowie in dem gegenüber diesen Diensten gebotenen Mehrwert wie die Überwachung von Haltefristen, die Vergabe von persistenten Identifiern (Handles) und der zugesicherten Bitstream Preservation. Darüber hinaus ist bei entsprechender Aufbereitung der Daten ein Übergang aus dieser Stufe in eine höherwertige Angebotsstufe, wie im nächsten Absatz beschrieben, jederzeit möglich.

Die zweite, höherwertige Angebotsstufe eignet sich für die dauerhafte Datenarchivierung mit (optio-naler) Datenpublikation. Neben den Diensten des Einstiegsangebots ist hier die Vergabe von format-und disziplinspezifischen Metadaten sowie von dauerhaften DOI-Namen in den Publikationsprozess implementiert. Bei der Ausgestaltung der Metadatenprofile kann über eine Kooperation mit dem Projekt LSDMA auf umfangreiche Vorarbeiten zurückgegriffen werden. Der Fokus von RADAR wird vorerst auf der Publikation von Forschungsdaten liegen, die im Zusammenhang mit einer (traditionellen) wissen-schaftlichen Publikation stehen.52 Dafür sollen Workflows für den Archivierungs- und Publikations-prozess von Forschungsdaten erarbeitet und die Wissenschaftler bei der Speicherung und Identifizierung ihrer Daten auch über den Zeitraum eines Forschungsprojekts hinaus unterstützen werden (vgl. 2.1.4).

Das vorgesehene Geschäftsmodell baut auf Einmalzahlungen für die Archivierung der Forschungs-daten in Abhängigkeit von Datenumfang und Haltedauer auf. Damit können Wissenschaftler die zu erwartenden Kosten schon während der Antragstellung ihrer Forschungsprojekte abschätzen und mit beantragen. Wissenschaftliche Ergebnisse bleiben sowohl im Rahmen der „Regeln guter wissenschaft-licher Praxis“ der DFG überprüfbar als auch für nachfolgende Generationen auffindbar und für andere Forschungsfragen verfügbar. Forschungsdaten können somit nachgenutzt und von anderen Forschungsgruppen nachvollzogen werden. Dadurch wird in den wissenschaftlichen Communities die notwendige Transparenz in den Forschungsaktivitäten und gleichzeitig die Voraussetzung für die eigenständige Publikation der Daten geschaffen. Das Datenzentrum übernimmt die dauerhafte und zuverlässige Speicherung der Daten und garantiert dies gegenüber den Wissenschaftlern mittels einer geeigneten Zertifizierung.

RADAR will bewusst nicht in Konkurrenz zu existierenden Datenzentren und Fachdatenbanken treten, sondern diese ergänzen und komplettieren. Es deckt auch das Vorhalten nicht publizierter Daten für eine spezifizierte Haltefrist ab (etwa 10 Jahre nach Projektende gemäß DFG-Empfehlung) und hilft damit das Dilemma aufzulösen, dass Forschungsförderer einerseits ein Vorhalten der Daten fordern, andererseits aber keine verlässliche Infrastruktur dafür bereitsteht. Das geplante Datenzentrum hilft, die bisherige, oft wenig organisierte Speicherung der Daten (im Extremfall auf dem Speicherstick des Wissenschaftlers) zu überwinden.

Die angeschlossene DOI-Registrierung ermöglicht die Vergabe von eindeutigen und persistenten Identifikatoren (DOI-Namen) für Forschungsdaten und damit eine eindeutige Referenzierbarkeit. Die Vergabe von DOI-Namen für Forschungsdaten gilt zudem als Qualitätsmerkmal für die Referenzierung vor allem auch durch die Verknüpfung der Daten mit dem dazu gehörigen wissenschaftlichen Artikel. Durch die zusätzliche Publikation und Referenzierbarkeit der Daten ergibt sich weiterhin die Möglichkeit die wissenschaftliche Reputation der (Daten-)Autoren in ihrer jeweiligen Fachcommunity zu erhöhen.Die enorme Relevanz der Themen Referenzierung und Reputation spiegeln sich auch bei dem Aufbau

48 Deutsche Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme: Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten, 200949 Daten, die zu keinem Ergebnis geführt haben50 https://www.dropbox.com/51 http://figshare.com/52 Vgl. TIB, FIZ Chemie, Universität Paderborn, Konzeptstudie „Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie“, 2010. Online: http://www.tib-hannover.de/fileadmin/projekte/primaer-chemie/Konzeptstudie_Forschungsdaten_Chemie.pdf

10

des Data Citation Index in Thomson Reuters Web of Science wider, der das Auffinden von Forschungs-daten und ihrer Urheber deutlich verbessert.53 Die Möglichkeit zur Zitierung von Forschungsdaten erhöht somit nicht nur die Anerkennung von Datenproduzenten sondern auch die Sichtbarkeit und damit die Verfügbarkeit ihrer Forschungsergebnisse.54

In Zusammenarbeit mit dem Thieme Verlag und dem GDCh/Wiley-VCH Verlagsbeirat werden exem-plarisch für den naturwissenschaftlichen Sektor mögliche Workflows entwickelt, die den Wissenschaftler bei der Publikation von Forschungsdaten unterstützen. Dabei müssen sowohl Autorenrichtlinien, Zitier-standards und Datenmanagementpläne definiert als auch Modelle für mögliche Kosten erstellt werden(vgl. auch AP 5). Die erarbeiteten Workflows sollen an zwei Beispielen, der NMR-Spektroskopie und 2D/DIGE-Bildern,55 getestet, evaluiert und die Ergebnisse anschließend mit Hilfe eines im Projekt ent-wickelten Leitfadens (vgl. AP 2.2 und AP 4.2) auf andere Disziplinen übertragen werden. Dadurch wird RADAR den Anforderungen an eine generische Infrastruktur gerecht und gibt anderen wissenschaft-lichen Disziplinen die Möglichkeit, durch entsprechende Aufbereitung ihrer Daten das höherwertige Dienstleistungsangebot zur Publikation ihrer Daten in Anspruch zu nehmen. Dabei ist eine Analyse bestehender und Identifizierung neuer, auch fachspezifischer Datenformate sowie die Erarbeitung datentechnischer und fachspezifischer Metadatenschemata (vgl. AP 3) für den Umgang mit der vorhandenen Heterogenität in diesem Bereich unabdingbar (vgl. 2.1.2).

Perspektivisch sieht RADAR auch eine eigenständige Datenpublikation ohne deren Verknüpfung mit einem wissenschaftlichen Artikel vor. Hierfür können sowohl die publizierten als auch weitere im Rahmen der Forschungsansätze dokumentierten Daten in Betracht gezogen werden, die somit den gesamten Forschungsprozess nachvollziehbar machen. Die Fachwissenschaftler müssen dazu in Zusammenarbeit mit Fachgesellschaften beispielhaft (Qualitäts-)Standards etablieren und Kriterien für die Auswahl publikations- und damit auch archivierungswürdiger Daten entwickeln56 (vgl. AP 2 und 5).Besonderes Augenmerk muss hierbei auf den gegenwärtigen, aber auch zukünftigen Nutzen der zu archivierenden Daten für die jeweilige Fachcommunity gelegt werden. Auch aus diesem Grund ist es wichtig, die Auswahlkriterien und -prozesse in Kooperation mit übergeordneten Organisationen wie denFachgesellschaften als jeweilige Interessensvertretung einer Fachwissenschaft, zu erarbeiten.57

Die Archivierung von Forschungsdaten ist ein zentraler Baustein im übergreifenden Forschungs-datenmanagement und somit unabdingbar für die Publikation von Forschungsdaten sowie deren persistente Identifizierung und Referenzierung. Sie stellt gleichzeitig einen generalisierbaren Baustein einer übergreifenden Infrastruktur dar. Vor diesem Hintergrund bildet ein Archiv perspektivisch den Nukleus für weitere Dienste wie:

fachspezifische Datenportale zur Dissemination und Nachnutzung der Daten, die Verknüpfung mit institutionellen Systemen des Forschungsdatenmanagements über eine weitergehende Automatisierung der (Meta-)Datenübernahme und die möglichst zeitnahe Erfassung der Forschungsdaten während oder nach ihrer Entstehung in einer Dateninfrastruktur und (teil-)automatische Erfassung kontextueller Informationen (als Metadaten).

Die vorgesehene, offene Systemarchitektur des Datenzentrums und seine offenen Programmierschnitt-stellen (API) erlauben es den Systembetreibern und Dritten, über die im Antrag beschriebenen Grundfunktionen von RADAR hinaus derartige Dienste aufzubauen (vgl. AP 4). Damit kann RADAR perspektivisch als Backend für weitere disziplinspezifische Angebote dienen.

53 Vgl. auch http://thomsonreuters.com/content/press_room/science/68611254 Vgl. Kotarski, R., Reilly, S., Schrimpf, S., Smit, E., und Walshe, K., Report on Best Practices for Citability of Data and Evolving Roles in Scholarly Communication. 2012. Online: http://www.alliancepermanentaccess.org/wp-content/uploads/downloads/2012/08/ODE-ReportBestPracticesCitabilityDataEvolvingRolesScholarlyCommunication.pdf55 2D-/DIGE steht für "Differential In-Gel Electrophoresis", einem bildbasierten Verfahren aus den Lebenswissenschaften zur Proteinanalyse 56 Vgl. hierzu auch Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020, Wissenschaftsrat, Berlin, 2012, S. 14.57 Vgl. Sustainable Economics for a Digital Planet: Ensuring Long-Term Access to Digital Information, Blue Ribbon Task Force, Final Report, Feb. 2010, S. 2f. und 75f.; http://brtf.sdsc.edu/biblio/BRTF_Final_Report.pdf

11

Für die Akzeptanz des Datenarchivs in den Fachcommunities ist eine eindeutige und transparente Definition der Verantwortlichkeiten der verschiedenen Akteure unabdingbar, um die Qualität der archivierten Daten und damit auch die des Datenzentrums zu sichern. Dies beinhaltet die kooperative Entwicklung von Policies zur Datenerhaltung (vgl. AP 6) zwischen den Akteuren der Datenproduktion und Datenarchivierung, um archivierungswürdige, qualitativ hochwertige Daten als nationales Kulturgutlangfristig zu erhalten und nachhaltig auch über institutionelle Grenzen hinweg verfügbar zu machen.58

Auch die Zertifizierung des Datenarchivs sowie ein transparentes Geschäftsmodell (vgl. AP 6) zur Gewährleistung von Nachhaltigkeit dienen der Vertrauenswürdigkeit gegenüber den Wissenschaftlern.

Damit deckt RADAR in seiner ersten Ausbaustufe zunächst nur einen – gleichwohl essentiellen –Teilaspekt des überregionalen Forschungsdatenmanagements ab, bietet jedoch einen evolutionären Ansatz zur Erweiterung. In Folgeprojekten können wissenschaftliche Institutionen ihr fach- und gruppenspezifisches Datenmanagement in die hier geschaffene generische Infrastruktur integrieren.

3.2 Arbeitsprogramm

Das Arbeitsprogramm ist in sieben Arbeitspakete (AP) gegliedert (s. a. Kapitel 4: Beantragte Mittel). Die Reihenfolge der im Folgenden aufgeführten Arbeitspakete und -schritte entspricht dabei nicht der tat-sächlichen geplanten zeitlichen Durchführung im Projektverlauf. In der Regel werden die Arbeitspakete und -schritte parallel bearbeitet.

Um die Einbindung einer breiteren Fachöffentlichkeit über die Pilotdisziplinen hinaus sicherzustellen, sehen die Antragsteller zum Abschluss der Konzeptionsphase der AP 2/3, AP 4 und AP 5 jeweils einen Workshop mit Vertretern aus den Fachwissenschaften, Bibliotheken und Rechenzentren vor, auf dem die bis dahin erzielten Ergebnisse vorgestellt und diskutiert werden. Das so gesammelte Feedback sollin die finale Spezifikation mit einfließen. Organisiert werden die Workshops im Rahmen von AP 1.

AP 1: Projektmanagement

Leitung: TIB und FIZ

Ziele

Leitung und Erfolgskontrolle des Projekts.

Aufgaben

Das Projektmanagement gewährleistet die Zusammenarbeit und den Informationsfluss im verteilten Projektteam. Dazu gehören die Organisation regelmäßiger Telefonkonferenzen sowie die Durchführung von Projekttreffen. Darüber hinaus stellt es in enger Abstimmung mit allen Projektpartnern eine angemessene Dissemination der Projektergebnisse in Form von Publikationen, Konferenzbeiträgen und Workshops sicher.

Ein Konzept zur Nachhaltigkeit und Verstetigung der Infrastruktur ist hier zunächst exemplarisch mit den kooperierenden wissenschaftlichen Partnern aus den Natur- und Lebenswissenschaften zu entwickeln und umzusetzen, wobei ein Erfolg maßgeblich vom zugrunde liegenden Geschäftsmodell (s. a. AP 6) abhängig ist. Die gewonnenen Erkenntnisse sollen anschließend auf andere Fachgebiete ausgeweitet und übertragen werden.

Ein weiterer Schwerpunkt des Projektmanagements wird in der Beobachtung anderer relevanter Projekte auf diesem Gebiet, wie z.B. Radieschen59 oder auch re3data60 liegen. Die dort erarbeiteten Ergebnisse sollen in die Konzeption des Datenzentrums und des zugehörigen Geschäftsmodellseinbezogen werden. Dadurch sollen Synergien genutzt und Doppelarbeit vermieden werden. Weiterhin stellt das Arbeitspaket die Zusammenarbeit und Abstimmung mit existierenden Datenzentren und entsprechenden Kompetenzzentren sicher.

58 Vgl. Sustainable Economics for a Digital Planet: Ensuring Long-Term Access to Digital Information, Blue Ribbon Task Force, Final Report, Feb. 2010, http://brtf.sdsc.edu/biblio/BRTF_Final_Report.pdf59 http://www.forschungsdaten.org/60 http://www.re3data.org/

12

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 1.1 Koordinierung der arbeitspaketübergreifenden Aktivitäten der Projektpartner 2 PM61

AP 1.2 Dissemination der Projektergebnisse (Workshops, Publikationen) 2 PMAP 1.3 Nachhaltigkeits- und Verstetigungskonzept 2 PMAP 1.4 Kooperation mit anderen relevanten Projekten, Daten- und Kompetenzzentren

und Einbeziehung der dort gewonnenen Erkenntnisse und Ergebnisse in das Konzept von RADAR

2 PM

AP 1.5 Abschlussbericht 1 PMSumme AP 1: 9 PM

AP 2: Anforderungsanalyse

Leitung: IPB und LMU

Ziele

Erhebung der fachwissenschaftlichen Anforderungen an Datenarchivierung und -publikation

Aufgaben

Die moderne wissenschaftliche Forschung ist mit der Erzeugung zunehmend komplexer digitaler Informationen verbunden, für die eine adäquate, forschungsnahe Informationsinfrastruktur noch weitgehend fehlt (vgl. 2.1.1). In diesem Arbeitspaket wird der Ist-Zustand analysiert und mit den erforderlichen und von den Forschern gewünschten Möglichkeiten verglichen, Forschungsdaten betriebssystemneutral und datenformatunabhängig zu sammeln, langfristig, sicher und wiederauffindbar zu speichern sowie für eine disziplinübergreifende Nachnutzung bereitzustellen. Die wissenschaftlichen Partner – Leibniz-Institut für Pflanzenbiochemie (IPB), Halle und Department Chemie der LMU München – erfassen im Rahmen einer Anforderungsanalyse beispielhaft für die durch sie vertretenen Disziplinen diese Parameter, beschreiben bereits etablierte oder zukünftige Prozesse für die Datenpublikation (in Kombination mit herkömmlichen Publikationen oder eigenständig, vgl. AP 5), spezifizieren gewünschte Ablieferungsprozesse, für die Nachnutzung notwendige Suchoptionen und weitere relevante Eigenschaften wie (abgestufte) Zugriffsrechte.

Die Anforderungsanalyse untersucht Arbeitsschritte von der Erzeugung der Forschungsdaten unmittelbar am Entstehungsort bis zur Ablage in generisch nutzbaren Informationsinfrastrukturen. Die gewählten Beispiele der NMR-Spektroskopie und bildgebenden Verfahren zeichnen sich dabei durch eine große Diversität und Komplexität der Daten und Formate aus. Daher können mit den im Projekt gewonnenen Erfahrungen und Erkenntnisse auch andere nicht-textuelle Informationen wie Audio- und Video-Daten leichter erschlossen werden. Die erarbeiteten Anforderungsanalysen, Leitfäden und Prozesse sind somit auf das Datenmanagement anderer Wissenschaftsdisziplinen übertragbar.

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 2.1 Ausarbeitung von allgemeinen Richtlinien für erhaltungswürdige Primärdaten 2 PMAP 2.2 Erarbeitung eines Leitfadens mit Auswahlkriterien für die Nutzung des

Einstiegs- bzw. des höherwertigen Angebots für die Speicherung von Forschungsdaten

2 PM

AP 2.3 Analyse bestehender Datenformate und zugehöriger Software für die exemplarisch ausgewählten datenproduzierenden Prozesse aus der NMR-Spektroskopie und bildgebenden Verfahren

2 PM

AP 2.4 Evaluierung bestehender Prozesse für die Sammlung und Registrierung von Forschungsdaten (s. auch AP 5)

3 PM

AP 2.5 Ausarbeitung prototypischer Workflows für die Sammlung und Registrierung von Forschungsdaten

4 PM

AP 2.6 Dokumentation der Ergebnisse 1 PMSumme: 14 PM

61 geplanter Aufwand in Personenmonaten (PM)

13

AP 3: Metadatenprofile

Leitung: IPB und LMU, Mitarbeit von TIB

Ziele

Erarbeitung von fachspezifischen Metadatenprofilen für Archivierung und Publikation anhand zweier beispielhafter Datentypen.

Aufgaben

Um archivierte Forschungsdaten wiederfinden (und damit nachnutzen) zu können, benötigen diese eine systematische und standardisierte Beschreibung durch Metadaten. Dabei sind sowohl allgemeine als auch fachspezifische Anforderungen zu berücksichtigen. Da Fachwissenschaftler und Informatiker/Programmierer z.T. ein unterschiedliches Vokabular benutzen, ist auch eine Zusammenstellung und Erläuterung der verwendeten Begriffe (Glossar) Teil dieses Arbeitspaketes. Metadaten im informationswissenschaftlichen Kontext beschreiben datentechnische Aspekte innerhalb der Dateninfrastruktur (wie Datentyp, Nutzungsrechte). Diese Metadaten sind standardisiert und haben einen fachübergreifenden Charakter. Sie dienen einer übergeordneten Suche in Fachportalen, Datenbanken und Katalogen und sind auch die Grundlage um Forschungsdaten so zu beschreiben, dass sie eindeutig zitiert werden können (vgl. AP 5).

Fachspezifische Metadaten beschreiben sowohl experimentelle Einzelheiten der Datenerzeugung und Verknüpfung zwischen Daten (wie NMR-Spektrum eines Pflanzenrohextraktes und Pflanzenart) als auch aus den Primärdaten abgeleitete Informationen und Erkenntnisse (wie aus der Strukturaufklärung anhand von NMR-Spektren ermittelte chemische Struktur). Diese Metadaten sind oft sehr spezifisch und weisen eine hohe Diversität auf, sind aber zum Verständnis und zur Analyse der Forschungsdaten unbedingt notwendig.

Die wissenschaftlichen Partner IPB und LMU definieren im Arbeitspaket Metadatenprofile anhand ihrer Analyse der fachspezifischen Anforderungen (AP 2) geeignete Metadatenterme und Metadatenstandards für alle relevanten Datentypen. Die beiden wissenschaftlichen Partner gehen dabei sowohl arbeitsteilig als auch kooperativ vor, der Schwerpunkt für den Partner LMU liegt bei nicht-textuellen Daten (Bildern) und den spezifischen universitären Anforderungen, der Partner IPB bearbeitet schwerpunktmäßig spektroskopische Daten (NMR) und berücksichtigt die besonderen Anforderungen außeruniversitärer Forschungsinstitute.

Die wissenschaftlichen Partner IPB und LMU erarbeiten für exemplarisch ausgewählte spektroskopische und bildgebende Experimente und damit verbundenen Datentypen (gemäß Anforderungsanalyse) adäquate Metadatenprofile. Die Profile bestimmen für jedes Metadatenelement dessen Kardinalität und dokumentieren die Bedeutung und Anwendung im fachwissenschaftlichen Kontext.

Die entwickelten Metadatenprofile werden in den Workflow (vgl. AP 2.5 und 5.1) integriert.Insbesondere der Ausarbeitung des internen Metadatenschemas in Zusammenarbeit mit den Wissenschaftlern für die ausgewählten experimentellen Verfahren kommt große Bedeutung zu, da diese die Grundlage für eine Übertragbarkeit der Konzepte der ausgewählten Pilotdatenformate auf andere Verfahren und Bereiche darstellen.

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 3.1 Entwicklung eines Metadatenschemas für datentechnische Metadaten von Forschungsdaten

4 PM

AP 3.2 Entwicklung eines Metadatenschemas für fachspezifische Metadaten von Forschungsdaten

4 PM

AP 3.3 Einbindung der Metadatenschemata in den Workflow 2 PMAP 3.4 Technische Realisierung der Metadatenschemata (RDF, XML-Derivate, etc.) 4 PMSumme: 14 PM

14

AP 4: Datenmanagement

Leitung: FIZ und SCC

Ziele

Erstellung einer technischen Anforderungsanalyse für das Datenarchiv sowie die Implementierung der notwendigen Software.

Aufgaben

Die Speicherung der Forschungsdaten in einem vertrauenswürdigen, zertifizierten Datenzentrum (in der „öffentlichen“ Domäne) ist die Grundlage für die Publikation und Nachnutzung dieser Daten. Das Rechenzentrum (SCC) des KIT und FIZ Karlsruhe, beides Infrastruktureinrichtungen, befassen sich im Arbeitspaket Datenmanagement mit der Konzeption und der Bereitstellung entsprechender Systeme und Prozesse. Das Datenmanagement umfasst auch Werkzeuge zum einfachen Ingest der Daten, eineauch für Gelegenheitsnutzer intuitiv verständliche Benutzungsoberfläche zur Provisionierung von Speicherplatz im „self- service“, Rechte- und Lizenzverwaltung sowie ein aussagekräftiges Reporting. In Hinblick auf die Zugriffsrechte stellt sich hier die Anforderung, diese über unterschiedliche Institu-tionen und Anwendungen hinweg nachhaltig zu gewährleisten. Hierfür sind u. a. für die Langzeitarchi-vierung geeignete Authentifizierungs- und Autorisierungsverfahren zu berücksichtigen, die auch nach einer Migration der Daten an verschiedene Standorte den Zugriff sicherstellen.

Die Konzeption des Gesamtsystems erfolgt in zwei Schritten. In einem ersten Schritt erfolgt eine Anforderungsanalyse für das Einstiegsangebot, das mit den wissenschaftlichen Partnern abgestimmt und im Rahmen eines Workshops mit einer breiteren Fachöffentlichkeit diskutiert wird. Dabei spielt die Untersuchung bestehender Systeme hinsichtlich ihrer Eignung für die Datenarchivierung eine zentrale Rolle. Im zweiten Schritt folgt dann die Berücksichtigung der fachspezifischen Anforderungen (vgl. AP 2 und AP 3) für das höherwertige Angebot. Wichtig ist dabei die Sicherstellung der Übertragbarkeit der gewählten Ansätze auf andere Fachdisziplinen, um das Angebot später über die Pilotdisziplinen Chemie/Biochemie hinaus für weitere Fachdisziplinen öffnen zu können.

Die Konzeption des Gesamtsystems berücksichtigt die vorhandenen Speichersysteme am SCC sowie die dort etablierten Prozesse für das Datenmanagement. Zwischen der Software und Hardware müssen geeignete Schnittstellen entworfen werden, die die konkreten Speichersysteme abstrahieren und so für Zukunftssicherheit der Architektur sorgen. Gleichzeitig müssen die vorhandenen Prozesse untersucht und gegebenenfalls an die Anforderungen aus AP 2 und AP 3 sowie die Kriterien eines zertifizierten Datenzentrums adaptiert werden.

Durch eine enge Zusammenarbeit mit den wissenschaftlichen Partnern während der Entwurfsphase wird eine bedarfsgerechte Entwicklung sichergestellt. Dies geschieht insbesondere durch die Erstellung von Anwendungsfällen (vgl. AP 2), die die definierten Prozesse formal beschreiben und die Grundlage für den Systementwurf bilden. Gleichzeitig soll ein Leitfaden entstehen, der die Besonderheiten bei der Umsetzung fachspezifischer Anforderungen festhält und die notwendigen Schritte für die Berücksichti-gung weiterer Disziplinen für das höherwertige Angebot dokumentiert.

RADAR ist als offenes System geplant, das sich in die nationale und internationale Informations-infrastruktur einfügt. Deshalb gilt dem Design geeigneter, öffentlich zugänglicher Programmier-schnittstellen ein besonderes Augenmerk, um die Integration mit Diensten Dritter möglichst einfach zu gestalten. Primär zählen dazu die Anbindung an den DOI-Service bei der TIB Hannover (DataCite) und die e-Journal-Systeme der Verlage, potenziell aber auch die Verwendung von RADAR als Backend für Fachportale und als Andockpunkt für Datenmanagementsysteme in der ersten und zweiten Domäne („privat“ und „kollaborativ“). Des Weiteren ist die systemeigene Schnittstelle zwischen dem nieder-schwelligen und höherwertigen Angebot zu definieren, um Daten im Verlauf ihres Lebenszyklus z.B. zu Publikationszwecken überführen zu können.

In einer abschließenden Testphase (vgl. AP 7) setzen die wissenschaftlichen Partner definierte Abläufe (Ingest, Anreicherung mit Metadaten, Datenpublikation, etc.) um und überprüfen so die Funktionalität und Praxistauglichkeit des Gesamtsystems. Sich daraus ergebende Anpassungen werden in einer abschließenden Projektphase umgesetzt.

15

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 4.1 System- und Prozessanalyse 6 PMAP 4.2 Konzeption und Entwicklung eines Leitfadens 2 PMAP 4.3 Realisierung von Schnittstellen zwischen Speicher- und Softwaresystemen 10 PMAP 4.4 Realisierung des generischen Systems („Einstiegsangebot“) 22 PMAP 4.5 Realisierung der fachspezifischen Sicht („höherwertiges Angebot“) 12 PMAP 4.6 Testphase und Anpassung 4 PMSumme: 56 PM

AP 5: Datenpublikation

Leitung: TIB

Ziele

Veröffentlichung von Daten als Bestandteil einer klassischen, wissenschaftlichen Publikation oder als eigenständige Publikation zu ermöglichen und dauerhaft zu gewährleisten.

Aufgaben

Die Anreicherung einer wissenschaftlichen Publikation durch die ihr zugrunde liegenden Forschungs-daten erhöht die Transparenz, Vertrauenswürdigkeit und Nachvollziehbarkeit wissenschaftlicher Kommunikation. Die Publikation von Forschungsdaten ermöglicht den Wissenschaftlern eine zeitnahe Veröffentlichung ihrer Forschungsergebnisse sowie einen schnelleren Austausch in der Wissenschaft,wie es vergleichsweise auf dem Preprint-Server arXiv62 bereits umgesetzt ist. Damit wird im Vergleich zum klassischen Publikationsprozess ein Mehrwert für die Wissenschaftler geschaffen. InZusammenarbeit mit dem Thieme Verlag und dem GDCh/Wiley-VCH Verlagsbeirat werden dafür mögliche Workflows entwickelt, die die Wissenschaftler beim Publikationsprozess von Forschungsdatenunterstützen. Dabei sind Autorenrichtlinien sowie Zitierstandards zu definieren und transparent nachvollziehbare Kostenmodelle für die Publikation zu erarbeiten, die sich auch im zu erarbeitenden Geschäftsmodell widerspiegeln (vgl. AP 6). Zusätzlich soll die Datenablegung in die Arbeitsprozesseder Wissenschaftler soweit integriert werden, dass ein kaum spürbarer Mehraufwand für den gesamten Arbeits- und Publikationsprozess entsteht. Deshalb muss das Datenmanagement und seine zu erarbeitende Infrastruktur (vgl. AP 4) auf die Arbeitsprozesse der Wissenschaftler abgestimmt und gleichzeitig so einfach wie möglich gehalten werden.

Voraussetzung für eine Publikation ist ihre Referenzierbarkeit. Damit Forschungsdaten eindeutig identifizierbar und dauerhaft wiederzufinden sind, benötigen sie einen persistenten Identifier. Durch die Vergabe eines DOI werden Daten eindeutig zitierfähig und referenzierbar gemacht. Die Vergabe von DOIs für Forschungsdaten gilt als Qualitätsmerkmal für deren Referenzierung vor allem auch durch die Verknüpfung der Daten mit dem dazu gehörigen wissenschaftlichen Artikel. Die qualitätsgesicherte Zitierung von Forschungsdaten ermöglicht den Wissenschaftlern einen Reputationsgewinn in ihrer Fachcommunity auch durch eine nachgewiesene Steigerung der Zitierhäufigkeit von Forschungs-ergebnissen.63 RADAR wird die DOI-Registrierung in Kooperation mit den Verlagen in bestehende Publikationsprozesse einbinden und dazu ein Verfahren entwickeln, das bei einer integrativen Publikation die DOI-Namen der Artikel und Daten miteinander verknüpft. Die mit der DOI-Registrierung erstellten Metadaten (s. a. AP 3) werden sowohl für den Nachweis der Publikation im Fachportal der TIB GetInfo als auch für die Archivierung im Datenzentrum abgelegt. Durch Kooperation des DOI-Service an der TIB mit dem internationalen Verein DataCite können die Forschungsdaten nicht nur national in der eigenen Fachcommunity, sondern auch weltweit und fachübergreifend zugänglich gemacht werden.

Durch Kooperation der Fachwissenschaftlern mit ihrer jeweiligen Fachgesellschaft sollen (Qualitäts-)Standards erarbeitet und etabliert werden. Anhand dieser (fach-)spezifischer Kriterien entscheiden die

62 http://arxiv.org/63 Piwowar H.A., Day R.S., Fridsma D.B., Sharing Detailed Research Data Is Associated with Increased Citation Rate. PLoS ONE 2(3), 2007 e308. Online: doi:10.1371/journal.pone.0000308

16

Datenproduzenten, welche Forschungsdaten publikations- und damit auch archivierungswürdig sind(AP 2.1-2.2). Damit wird ein Mindestmaß an Qualität der Daten gewährleistet.

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 5.1 Entwicklung eines Workflows zur Erweiterung des wissenschaftlichen Publikationsprozesses

6 PM

AP 5.2 Erarbeitung von Autorenrichtlinien, Zitierstandards und transparenten Kostenmodellen

6 PM

AP 5.3 Etablierung exemplarischer Verfahren zur Einreichung elektronischer Manuskripte mit Forschungsdaten

5 PM

AP 5.4 Entwicklung von Qualitätsstandards zur Datenpublikation 4 PMAP 5.5 Automatisierte Integration der DOI-Registrierung in den Publikationsprozess 5 PMAP 5.6 Entwicklung von Schnittstellen zur Interaktion von DOI-Registrierung und

Datenarchiv5 PM

AP 5.7 Schnittstellen zur Integration in TIB Infrastruktur 3 PMSumme: 34 PM

AP 6: Geschäftsmodell und Rahmenbedingung

Leitung: FIZ, Mitarbeit SCC

Ziele

Entwicklung eines selbsttragenden Geschäftsmodells für die Archivierung von Forschungsdaten und die Schaffung eines organisatorischen Rahmens.

Aufgaben

Die Speicherung und vor allem Archivierung von Forschungsdaten ist eine auf Dauerhaftigkeit angelegte Dienstleistung. Im Arbeitspaket Geschäftsmodell und Rahmenbedingungen erarbeiten FIZ Karlsruhe und KIT/SCC die dafür notwendigen ökonomischen, juristischen und organisatorischen Grundlagen. Das anvisierte Geschäftsmodell berücksichtigt die aktuellen Gegebenheiten des Wissenschaftsbetriebs mit seiner starken Ausrichtung auf geförderte Projekte mit einer begrenzten Laufzeit und ohne Möglichkeit, nach Projektende für die Datenarchivierung zu bezahlen. Trotzdem soll ein Großteil der bei der Archivierung entstehenden Kosten auf die wissenschaftlichen Nutzer des Datenzentrums umgelegt werden. Eine direkte Förderung des Datenzentrums wird bei dem angedachten Geschäftsmodell weitgehend vermieden.

Erreicht werden soll dieses Ziel durch ein System von Einmalzahlungen: bei der Hinterlegung der Daten können die Nutzer festlegen, ob sie die Daten für eine Haltefrist von zehn Jahren („Einstiegsangebot“)oder aber „ad infinitum“ („höherwertiges Angebot“) archivieren wollen. Letzteres ist insbesondere für publizierte und mit einem DOI versehene Daten (vgl. AP 5) interessant. Für beide Angebote wird RADAR einen Festpreis anbieten, der zum Anfang der Haltefrist bei Hinterlegung der Daten fällig wird. Damit ist es den Wissenschaftlern möglich, bei der Planung ihrer Projekte bereits die Kosten für die Archivierung der entstehenden Forschungsdaten abzuschätzen und bei der Budgetierung zu berücksichtigen, also z.B. in Förderanträge mit aufzunehmen. Den Kern für dieses Geschäftsmodellbildet die Ausarbeitung eines Kostenmodells, das die benutzten Speichermodalitäten sowie zukünftige technische Entwicklungen berücksichtigt. Hier kann auf umfangreiche Vorarbeiten Dritter zurückgegriffen werden.64

Das vorgesehene Geschäftsmodell befördert zwei wichtige Aspekte: Zum einen erhalten die Wissenschaftler durch die Kostentransparenz einen Anreiz, aus ihren Rohdaten nur die für die Archivierung relevanten Daten auszuwählen, zum anderen muss das Datenzentrum durch den marktorientierten Ansatz fortwährend eine am Bedarf der Wissenschaft orientierte Dienstleistung anbieten.

64 z.B. Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020, Wissenschaftsrat, Berlin, 2012, S. 14 und S. 61; Beagrie, N., Chruszcz, J. und Lavoie B., Keeping Research Data Safe. Final Report, 2008. Online: http://www.jisc.ac.uk/media/documents/publications/keepingresearchdatasafe0408.pdf

17

Über das Geschäftsmodell hinaus sind in diesem Arbeitspaket vertragliche und rechtliche Regelungen für den Betrieb und das Dienstleistungsangebot des Datenzentrums zu erarbeiten, sowohl im Verhältnis zu den Wissenschaftlern wie auch zu wissenschaftlichen Verlagen. Dazu gehören insbesondere die Frage geeigneter Lizenzen (hier ist die enge Abstimmung mit weiteren Projekten im Bereich Forschungsdatenmanagement und dem Zentrum für Angewandte Rechtswissenschaft (ZAR) des KIT vorgesehen), die Klärung von Fragen der Haftung und der Weiterverwertung der Daten durch Drittesowie die Erstellung geeigneter Allgemeiner Geschäftsbedingungen (AGB) für das Angebot des Datenzentrums.

Zum Ende der Projektlaufzeit wird eine Zertifizierung des Datenzentrums angestrebt (z.B. nach den Vorgaben von DINI e.V.65 oder des Data Seal of Approval66). Da eine Vielzahl von Zertifizierungen auf diesem Gebiet existieren, befasst sich das Projektmanagement auch mit der Bewertung dieser Zertifikate und der Auswahl eines geeigneten Verfahrens für RADAR. Die Zertifizierung umfasst sowohl das Datenarchiv als auch die Datenpublikation.

Um das Angebot von RADAR im wissenschaftlichen Umfeld bekannt zu machen, ist es geplant, in einem ersten Schritt auf Bibliotheken und Rechenzentren an Hochschulen mit Informationsmaterial und im Rahmen von Vorträgen zuzugehen, die als „Multiplikatoren“ die Wissenschaftler auf RADAR aufmerksam machen können.

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 6.1 Entwicklung eines tragfähigen Geschäftsmodells 8 PMAP 6.2 Evaluierung relevanter Lizenzen für Forschungsdaten; Einbindung in RADAR 2 PMAP 6.3 Erstellung allgemeiner Geschäftsbedingungen für RADAR 2 PMAP 6.4 Erstellung von Informationsmaterial 2 PMAP 6.5 Auswahl eines geeignetes Zertifizierungsverfahrens für das Datenzentrum und

Durchführung der Zertifizierung2 PM

Summe: 16 PM

AP 7: Evaluierung

Leitung: IPB und LMU

Ziele

Sicherstellung eines praxisnahen Angebots, das die Anforderungen der Wissenschaft abdeckt und sich in bestehende Arbeitsabläufe einfügt.

Aufgaben

Das Datenzentrum mit seinem Geschäftsmodell, seinen Werkzeugen und vorgesehenen Prozessen für eine fachübergreifende Datenablieferung, -aufbereitung und –publikation kann nur dann langfristig erfolgreich sein, wenn die Prozesse den Anforderungen der Wissenschaft gerecht werden. Die wissenschaftlichen Partner IPB und LMU überprüfen im Arbeitspaket Evaluierung laufend die Arbeitsergebnisse aus den AP 4, 5 und 6 auf ihre Praxistauglichkeit. Sie stellen so bereits frühzeitig sicher, dass die gewählten Ansätze in der späteren Betriebsphase (nach Projektende) tragfähig sind und zur Akzeptanz des Datenzentrums und der damit verbundenen Dienstleistungen in der wissenschaftlichen Community führen.

Um die Praxistauglichkeit insbesondere auch des Einstiegsangebots zu evaluieren, streben die Antragsteller noch während der Projektlaufzeit an, über die beiden wissenschaftlichen Partner hinaus weitere Kunden aus anderen Fachdisziplinen zu gewinnen. In Anlagen 6 und 7 finden sich dazu zwei „Letter of Intent“ des Hornemann-Instituts der HAWK, Hildesheim, und des Georg-Eckert-Instituts für Internationale Schulbuchforschung, Braunschweig, die bereits ihr Interesse an dem geplanten Service bekundet haben.

65 http://www.dini.de/dini-zertifikat/66 http://datasealofapproval.org/

18

Die Ergebnisse der projektbegleitenden Evaluierung finden Berücksichtigung bei der weiteren Erarbeitung des Forschungsdatenmanagements in den AP 2 – 6 und ermöglichen so in einem iterativen Prozess die Etablierung eines optimalen, nutzerfreundlichen, fachübergreifenden Research Data Repositoriums (RADAR).

Arbeitsschritte

Schritt Beschreibung Aufwand

AP 7.1 Überprüfung der Anwendungsfälle und des Konzepts für das Datenzentrum 1 PMAP 7.2 Inhaltliche Aufbereitung der konzeptionellen Ergebnisse auf AP 2 und AP 3 für

einen Workshop und Auswertung des Feedbacks1 PM

AP 7.3 Testläufe für das Ablegen und Wiederabrufen wissenschaftlicher Daten 2 PMAP 7.4 Testläufe für die Datenpublikation 2 PMAP 7.5 Akzeptanzstudien der entwickelten Workflows im wissenschaftlichen

Arbeitsprozess2 PM

AP 7.6 Umfrage unter Nutzer aus Produzenten- und Konsumentensicht 2 PMSumme: 10 PM

Zeitplan

3.3 Umgang mit den im Projekt erzielten Forschungsdaten bzw. anderen

Ergebnissen

Die im Rahmen des Projekts entwickelten Software-Komponenten werden unter einer Apache 2.0 Software-Lizenz (ASL) als Open Source veröffentlicht. Bei der Einbindung von Komponenten Dritter wird nach Möglichkeit darauf geachtet, dass deren Lizenzen kompatibel zur ASL sind.

Alle erstellten Dokumente (wie z.B. Leitfäden) werden unter einer Creative-Commons-Lizenz veröffentlicht. Die durch die wissenschaftlichen Partner und weiteren Kunden zur Archivierung eingebrachten Forschungsdaten sind nicht notwendigerweise frei zugänglich, auch obliegt den Datenproduzenten die Wahl einer geeigneten Lizenz für ihre Daten.

Die Nachhaltigkeit des Forschungsdatenzentrums ist durch das vorgesehene Geschäftsmodell gewährleistet.