Neues Leben für alte Daten
Bei der Entwicklung gemeinsamer Standards für Foschungsdaten ist Zusammenarbeit unerlässlich.
05.04.2018
Wissenschaftlerinnen und Wissenschaftler erzeugen eine enorme Vielfalt an Forschungsdaten. Durch nachhaltige Verarbeitung und Archivierung werden diese Daten auch für andere Forscherinnen und Forscher nutzbar.
Bildquelle: Felix Schuhmann
In den Natur- und zunehmend auch in den Geisteswissenschaften sind gut und nachhaltig verarbeitete und archivierte Daten ein wichtiger Baustein für Forschungserfolge im digitalen Zeitalter. Zusammenarbeit ist dabei besonders wichtig: Damit einmal erhobene Forschungsdaten auch von anderen Wissenschaftlerinnen und Wissenschaftlern weiter genutzt und überprüft werden können, muss sich die Community auf gemeinsame Standards verständigen.
Die Berliner Open-Access-Strategie und die Pläne für eine nationale Forschungsdateninfrastruktur waren das Thema des Open Science Forums im Januar 2018 im Jacob-und-Wilhelm-Grimm-Zentrum der Humboldt-Universität. Es wurde von Professor Andreas Degkwitz, Leiter der Universitätsbibliothek der Humboldt-Universität, und Malte Dreyer, Direktor des Computer- und Medienservice der Hochschule organisiert.
Claudia Draxl, Professorin für Theoretische Festkörperphysik an der Humboldt-Universität zu Berlin stellte im Rahmen des Open Science Forum das Projekt Nomad vor.
Bildquelle: Ralf Bergel
Ein Best-Practice-Beispiel für den Umgang mit Forschungsdaten stellte Claudia Draxl, Professorin für theoretische Physik an der Humboldt-Universität, vor.
Sie forscht zu Materialeigenschaften und ist auf der Suche nach neuen, unbekannten Materialien, die beispielsweise Abwärme von Flugzeugen oder Rechnern wieder in Energie umwandeln. Kein leichtes Unterfangen, unter anderem wenn es darum geht, sich widersprechende Eigenschaften wie gute elektrische Leitfähigkeit und schlechte Wärmeleitfähigkeit unter einen Hut zu bringen. „Wir erzeugen dabei sehr viele, sehr heterogene Daten, um am Ende eine einzige Zahl oder eine Graphik als Ergebnis zu publizieren“, erklärte sie. Warum sollten nicht andere Wissenschaftlerinnen und Wissenschaftler von diesen Daten profitieren, anstatt diese erneut berechnen zu müssen? Zusammen mit ihrem Kollegen, Professor Matthias Scheffler vom Fritz-Haber-Institut der Max-Planck-Gesellschaft, rief Draxl deshalb das Nomad Repository ins Leben. Es ist mittlerweile zum Vorzeigeprojekt geworden, wenn es um die Frage geht, wie man große Mengen an digitalen Rohdaten bewahrt, weltweit zur Verfügung stellt und andere Forschende partizipieren lässt. Zurzeit sind im Repository rund 45 Millionen Berechnungen zu finden, viele Forschergruppen wirken weltweit mit. Die wichtigsten Vorteile: Forschungsergebnisse können nachgerechnet und Daten für andere Zwecke weiterverwendet werden. Was sich einfach anhört, erforderte jedoch viel Vorarbeit: „Wir haben es mit Daten zu tun, die in 30 unterschiedlichen Computercodes erhoben wurden und vereinheitlicht werden müssen. Diese vergleichbar zu machen und eine formale Beschreibung der Daten zu erreichen, hat anderthalb Jahre gedauert und 15 Postdoktorandinnen und -doktoranden beschäftigt.“
Die abschließende Paneldiskussion (v.l.): Malte Dreyer (Computer- und Medienservice, Humboldt-Universität) Martin Grötschel (Berlin-Brandenburgische Akademie der Wissenschaften) Claudia Draxl (Humboldt Universität) Gerd Graßhoff (Sprecher Topoi)
Bildquelle: Ralf Bergel
Was passiert mit der Nomad-Datenbank ab 2019, nach Auslaufen der vierjährigen Förderung durch das Horizon 2020-Programm der Europäischen Union? Die Max-Planck-Gesellschaft garantiert, dass die archivierten Daten zehn Jahre lang nach dem letzten Upload zur Verfügung stehen. Für einen längerfristigen Erhalt könnte sich das Projekt bei der nationalen Forschungsdaten-Infrastruktur (NFDI) bewerben – dieses Projekt ist allerdings erst in der Entstehungsphase: Den Startschuss für das noch zu etablierende Bund-Länder-Programm muss die neue Bundesregierung geben. Im Koalitionsvertrag haben sich CDU, CSU und SPD dafür die Weichen gestellt. Mit der Einrichtung einer nationalen Forschungsdaten-Infrastruktur wolle man „unser Wissenschaftssystem auch für den internationalen Wettbewerb” stärken.
Ursprünglich war die Gründung der NFDI vom Rat für Rat für Informationsinfrastrukturen (RfII) angeregt worden. Sie soll der Wissenschaft eine Grundversorgung an Speichermöglichkeiten und Services anbieten. Ziel ist es, unter Einbeziehung der wissenschaftlichen Nutzerinnen und Nutzer die vielen, deutschlandweit bereits vorhandenen Aktivitäten zu vernetzen, zu ergänzen und zu erweitern. „Die Forscher einzelner Communities und Fachgemeinschaften sollen sich zu Konsortien zusammenschließen und -arbeiten“, erklärte Prof. Dr. Stefan Liebig, Soziologe an der Universität Bielefeld und Vize-Vorsitzender des RFII. Denkbar sind Verbünde zwischen Unis, außeruniversitären Forschungseinrichtungen, Instituten und Arbeitsgruppen. Eine nationale Dateninfrastruktur sei auch eine Voraussetzung, um europäische Datenmanagement-Systeme wie die „European Cloud-Initiative“ zu nutzen.
Interessenten für ein Programm stehen schon in den Starlöchern. So sähen die Wissenschaftsakademien einen dringenden Bedarf für eine Forschungsdateninfrastruktur für ihre geisteswissenschaftliche Forschung und brächten selbst Know-how für die digitale Erschließung, Bereitstellung und Pflege der Forschungsdaten mit, sagte Prof. Dr. Martin Grötschel, Mathematiker und Präsident der Berlin-Brandenburgischen Akademie der Wissenschaften, auf der Veranstaltung. „Was mit öffentlichen Mitteln produziert wird, muss auch öffentlich sein.“ Er betonte unter anderem, dass die nachhaltige Bereitstellung digitaler Forschungsdaten und -ergebnisse nach Abschluss von Forschungsprojekten nach den FAIR-Prinzipien (Findable, Accessible, Interoperable, Re-Usable; also findbar, zugänglich, interoperabel,
Stefan Liebig, Soziologieprofessor an der Universität Bielefeld und Mitglied des Rats für Informationsinfrastruktur sprach in seinem Vortrag über die Entstehung und die Bedingungen einer nationalen Dateninfrastruktur.
Bildquelle: Ralph Bergel
Nach diesen Prinzipien funktioniert nicht nur Nomad, sondern etwa auch die „Edition Topoi“, die Publikationsplattform des altertumswissenschaftlichen Exzellenzclusters Topoi der Freien Universität und der Humboldt-Universität, auf der neben Monographien und Sammelbänden auch große Datensammlungen von Sonnenuhren in der Antike, digitalen Modellen des Pantheons oder vorderasiatischer Rollsiegel publiziert wurden. Ein neues, innovatives Instrument der Edition und wichtiges Instrument für die Einhaltung der FAIR-Prinzipien ist das Citable. „Es handelt sich hier um ein Beschreibungsformat einer Publikation“, berichtete Topoi-Sprecher Gerd Graßhoff, Professor für Wissenschaftsgeschichte der Antike an der Humboldt-Universität auf dem Forum. „Das Citable liefert Metadaten wie Autor, Titel und Erscheinungsort mit einer Beschreibung des Inhalts, es benennt Nutzungslizenz und Archiv-Referenzen – bei uns DOI – über die das Werk lange zugänglich ist.“ So kann aus einmal erhobenen Forschungsdaten wieder ein neues Forschungsprojekt entstehen und – indem die Daten zitiert werden – bleiben auch deren Urheberinnen und Urheber benannt. Wissenschaftlerinnen und Wissenschaftler können so in Zukunft mit bekannten Daten ganz neue Forschungsfragen in den Altertumswissenschaften lösen – Fragen, die sich diejenigen, die die Daten erhoben haben, noch gar nicht vorstellen konnten.