Research Data Managment
Der LRF legt Wert auf ein effizientes Forschungsdatenmanagement (RDM), das die Qualität, Nachvollziehbarkeit und Wiederverwendbarkeit unserer Forschungsdaten sicherstellt. Kern unseres Ansatzes ist die frühzeitige und strukturierte Datenplanung vor Beginn der Versuchsphase. Wir definieren dabei gemeinsam mit den Forschungsteams Datentypen, Datenstrukturen und Dokumentationsstrategien. Die konsequente Erfassung und Versionierung von Metadaten parallel zur Datenerhebung gewährleistet eine transparente Datenhistorie und ermöglicht die umfassende Dokumentation der Datenentstehung.
Wir nutzen ein abstraktes JSON-Datenmodell, das von unserem Data-Stewardship-Team betreut und kontinuierlich weiterentwickelt wird, um die Interoperabilität unserer Daten zu gewährleisten. Dieses Modell bildet die Grundlage für unsere institutsweite Datenstruktur und ermöglicht eine effiziente Datenverwaltung über den gesamten Forschungsprozess.
Durch dieses Vorgehen ist unser RDM auf die Anforderungen der Deutschen Forschungsgemeinschaft (DFG) zugeschnitten und orientiert sich an den FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable).
Datenplanung
Basierend auf der Datenplanung zu Beginn des Forschungsprojektes legen wir eine klare Datenhierarchie fest, die den gesamten Lebenszyklus der Forschungsdaten berücksichtigt.
Rohdaten werden hauptsächlich auf lokalen Laufwerken gespeichert, die regelmäßig mit für den Lehrstuhl zugänglichen Netzwerkspeichern synchronisiert werden. Je nach Datentyp (z.B. Code von Modellen oder Auswertungstools) erfolgt die Verwaltung zusätzlich über ein Git-Repository.
Im Zuge der Finalisierung des Projekts werden die Rohdaten prozessiert, wodurch die Datenqualität steigt und die Quantität sinkt. Alle prozessierten und langfristig zu speichernden Daten werden auf dem DataHubder RPTU abgelegt.
Nach Abschluss des Projekts erfolgt die Publikation des Zieldatensatzes und der dazugehörigen wissenschaftlichen Ergebnisse. Wir streben eine Open-Access-Veröffentlichung an, die über Konferenzbeiträge, Preprints und die Einreichung des Datensatzes in einem Zenodo-Repository erreicht wird. Im Fall besonders großer Datensätze, die aufgrund ihrer Größe nicht vollständig veröffentlicht werden können (z.B. umfangreiche Bilddaten von Hochgeschwindigkeitskameras), stellen wir die verwendeten Auswertungsalgorithmen mit einem repräsentativen Rohdatensatz zur Verfügung. Abschließend erfolgt die Publikation der Ergebnisse in einem peer-reviewten Journalartikel.
Datenhistorie
Die Eigenschaften der Daten werden konsequent in Metadatensätzen (JSON-Templates) erfasst. Diese strukturierte Beschreibung ermöglicht eine eindeutige Identifizierung und Referenzierung von Datensätzen.
Datenerhebungen und relevante Prozessierungsschritte werden soweit möglich über eindeutige Identifikatoren mit einem elektronischen Laborbuch (eLabFTW) verknüpft, das zusätzlich als Schnittstelle zur Labororganisation dient. Auf diese Weise werden Herkunft, Verarbeitungsschritte und verwendete Hilfsmittel – beispielsweise Sensorik, Software, Versuchsaufbauten, Modelle oder Kalibrierverfahren – nachvollziehbar über die Datenhistorie dokumentiert.
Die Metadaten bilden damit sowohl die einzelnen Verarbeitungsschritte als auch die eingesetzten Methoden und Werkzeuge entlang der Datenentstehungskette ab. Speicherorte und Archivierungszeiten werden systematisch erfasst und verwaltet.
Strukturierung

Unser Forschungsdatenmanagement basiert auf einem institutseigenen Metadatenmodell, das als hierarchisches JSON-Template umgesetzt ist. Die Struktur orientiert sich konzeptionell an der ISA Modellierung und verbindet eine feste Projektordnerstruktur mit maschinenlesbaren Metadaten.
Projektstruktur
Für jedes Forschungsprojekt wird eine feste Ordnerstruktur angelegt, in der alle Mitarbeitenden arbeiten. Im Projektordner befinden sich:
- ein Administrationsordner (Project_Administration),
- mehrere thematische Unterprojekte (Subproject_1, Subproject_2, …),
- ein Python-Skript (Assembler.py)
- und alle zum Projekt gehörenden Meta-Informationen in der Datei MetaData.json.
Die Unterprojekte (Subproject_1, Subproject_2, …) enthalten wiederum Datenordner für Rohdaten und prozessierte Daten.
Metadaten-Snippets
Die Metadaten werden dezentral als JSON-Snippets in den jeweiligen Projektordnern abgelegt. Dadurch ist eine niederschwellige und übersichtliche Pflege der Metadaten möglich.
Im Administrationsordner befinden sich Metadaten zur Projektorganisation, die sich an den Anforderungen der DFG orientieren:
- Datenbeschreibung
- Dokumentation und Datenqualität
- Speicherung und technische Sicherung
- Rechtliche Rahmenbedingungen
- Datenaustausch und langfristige Zugänglichkeit
- Verantwortlichkeiten und Ressourcen
In den Unterprojekten liegen zusätzliche Metadaten zu:
- Projektinhalten und Verantwortlichen
- Datensätzen (Rohdaten, Simulationen, Modelle, abgeleitete Daten)
- verwendeter Sensorik, Software, Modelle oder Kalibrierungen
- Referenzen zu Publikationen oder externen Datensätzen.
Automatische Metadatenaggregation
Das Python-Skript Assembler.py durchsucht rekursiv die gesamte Projektstruktur und identifiziert alle vorhandenen JSON-Snippets. Diese werden automatisiert zu einer vollständigen Metadatendatei zusammengeführt. Die resultierende MetaData.json wird gemeinsam mit dem Projekt archiviert und dokumentiert auch dann noch die vollständige Datenhistorie, wenn einzelne Rohdaten aus Speicher- oder Datenschutzgründen nicht mehr verfügbar sind.
Daten-Template
- MetaData.jsonDownload 5 KB
Data Stewardship
Unser Data Steward verantwortet die strategische Weiterentwicklung des institutseigenen Forschungsdatenmanagements. Die Konzeption und Pflege des Metadatenmodells sowie die Entwicklung strukturierter Datenprozesse tragen maßgeblich zur Nachvollziehbarkeit und langfristigen Nutzbarkeit der Forschungsdaten bei.
Zu seinen Aufgaben gehören die Koordination von Datenmanagementplänen, die Weiterentwicklung der institutsweiten Dateninfrastruktur sowie die Anleitung bei der Strukturierung, Dokumentation und Archivierung von Forschungsdaten. Darüber hinaus begleitet er die Publikation wissenschaftlicher Datensätze. Ziel ist die Sicherstellung etablierter Standards auf Basis der DFG-Richtlinien und der FAIR-Prinzipien.
Kontakt
PD Dr.-Ing. habil. Thomas Reviol
Aufgaben
- Betreuung des institutseigenen Metadatenmodells
- Unterstützung bei der Erstellung der Datenmanagementpläne (DMP)
- Beratung zu den DFG Richtlinien
- Beratung zu FAIR-Prinzipien
- Unterstützung bei Datenpublikation und DOI-Vergabe
- Qualitätssicherung von Metadaten
- Schnittstelle zu IT-Infrastruktur und Repositorien
- Abgleich der Datenmodelle mit der Datenschutz-Grundverordnung (DSGVO)

