English Intern
IZKF Core Unit FDM

Standardformate und -Pipelines

Standardformate und Analysepiplines sind aus mehreren Gründen integrale Bestandteile von FDM:

  • Verbesserte Zugänglichkeit und gemeinsame Nutzung: Standardformate stellen den einfachen Zugang und die Verständlichkeit durch andere aus dem Forschungsfeld sicher, was die Zusammenarbeit und den Datenaustausch fördert.
  • Datenqualität: Standards spielen eine entscheidende Rolle bei der Verbesserung der Datenqualität, indem sie Regeln und Richtlinien für die Darstellung von Daten durchsetzen.
  • Datenaufbewahrung: standardisierte Datenformate helfen bei der langfristigen Aufbewahrung und stellen sicher, dass Daten auch in Zukunft genutzt und verstanden werden können.
  • Compliance und ethische Überlegungen: viele Fördermittelstellen und Journals verlangen die Einhaltung bestimmter Datenmanagement-Standards, um sicherzustellen, dass Daten ethisch erhoben, gespeichert und weitergegeben werden.
  • Reproduzierbarkeit und Validierung: konsistente Analysepipelines ermöglichen die Reproduktion von Forschungsergebnissen, einem Eckpfeiler der wissenschaftlichen Validierung.

Standardformate im FDM

Mehrere Standardformate werden in verschiedenen Bereichen häufig zur Datenspeicherung und -weitergabe verwendet:

  • CSV/TSV: einfache, textbasierte Formate, ideal für tabellarische Daten.
  • JSON/XML/GRAPHML: nützlich für hierarchische oder verschachtelte Daten, weit verbreitet in Webanwendungen und Diagrammen.
  • TIFF/NIfTI/DICOM/OME-ZARR in der Bildgebung: TIFF wird häufig für hochwertige Grafiken verwendet, NIfTI für Bilddaten des Gehirns, DICOM für standardisierte medizinische Bildgebung über verschiedene Modalitäten hinweg und OME-ZARR zum Speichern und Teilen großer mehrdimensionaler Datensätze wie z.B. Bioimaging-Daten.
  • FASTQ/BAM/GFF/HDF5 in der Sequenzierung: FASTQ speichert biologische Sequenzen und Qualitätsbewertungen, BAM komprimiert und indiziert Sequenzausrichtungen, GFF beschreibt genomische Merkmale und HDF5 organisiert große Mengen komplexer Daten bei der Sequenzierung und der wissenschaftlichen Forschung.
  • STL (Stereolithographie) für 3D-Druckmodelle, die im Gerüstdesign verwendet werden, und das OBJ-Format zur Darstellung komplexer Gewebegeometrien in 3D-Modellierungssoftware werden im Bereich Tissue Engineering und Gewebevirtualiserung verwendet.

Analysepipelines im FDM

Forschungsanalyse-Pipelines dienen als grundlegender Rahmen für verschiedene wissenschaftliche Disziplinen und gewährleisten die Reproduzierbarkeit und Robustheit von Studien in Bereichen wie Genomik, Bildgebung, und mehr. Forscher entwickeln maßgeschneiderte Pipelines mithilfe von Programmiersprachen wie Python, R, Matlab und spezieller Software (z.B. Fiji für Bildgebung und Cell Ranger für Sequenzierung), die präzise Verarbeitung und Analyse komplexer Datensätze ermöglichen.

Sowohl proprietäre als auch öffentliche Datenbanken (wie IDR, GEO, Ensembl, PRIDE) stellen wichtige Datensätze bereit, die nahtlos integriert und über diese Pipelines verarbeitet werden. Moderne Tools für das Forschungsdatenmanagement (FDM) wie SODAR, OMERO, und MySQL verfügen über APIs in weit verbreiteten Programmiersprachen und erleichtern so die automatisierte und integrierte Analyse dieser Datensätze.

Die Einführung von Standarddateiformaten ist entscheidend für die Reproduzierbarkeit wissenschaftlicher Erkenntnisse und die breitere Anwendbarkeit von Forschungsmethoden. Vorgefertigte Pipelines bieten optimierte Lösungen für Forscher, die nach Effizienz streben, während Plattformen wie Bioconductor, Galaxy und FSL den Zugang zu fortschrittlichen Analysetools einem breiteren Spektrum von Forschern zugänglich machen.

Pipeline-Wrapper-Software, wie Nextflow und Snakemake, automatisieren die Integration unterschiedlicher Softwaretools und vereinfacht so den Analyseprozess. Dieser Ansatz fördert die offene Wissenschaft, indem er sicherstellt, dass Methoden genauso gemeinsam genutzt werden können wie ein weit verbreitetes Protokoll, und fördert so die Zusammenarbeit und die Innovation in der gesamten wissenschaftlichen Gemeinschaft.

 

Ein typisches Beispiel: der NWB-Datenstandard in der Neurophysiologie

Die Neurodata Without Borders (NWB) ist ein Beispiel für Standardisierungsrahmen im Bereich der grundlegenden Neurophysiologie. Das NWB-Projekt ist bestrebt, sowohl neurophysiologische Daten als auch Metadaten zu standardisieren. Das übergeordnete Ziel ist die Förderung des Datenaustausches und der Zusammenarbeit innerhalb der Neurowissenschaften. NWB konzentriert sich insbesondere auf die Schaffung eines gemeinsamen Formats für die Speicherung und den Austausch von Daten aus neurophysiologischen Experimenten und versucht, die Reproduzierbarkeit, Interoperabilität und Gesamteffizienz im Bereich der Neurophysiologie zu verbessern. Der erste Schritt zur Erfüllung der FAIR-Konformität besteht in der Bereitstellung gemeinsamer Datenstandards, auf deren Grundlage die Daten zwischen verschiedenen Benutzern und Plattformen geteilt werden können. Dies würde erfordern, dass die Labore unterschiedliche Datenquellen produzieren, um ihre Daten schließlich in der angepassten Struktur auf der Grundlage der vereinbarten Standards mit der Gemeinschaft zu teilen. Die Vielfalt der Experimente und der sehr unterschiedlichen Erfassungsstrukturen (z.B. unterschiedliche Dateierweiterungen und Software) in verschiedenen Laboren auf der ganzen Welt macht Konvertierungspipelines erforderlich. Diese konvertieren die laborspezifischen Erfassungen automatisch in interoperable und wiederverwendbare Formate (entsprechend der Standards). In Zusammenarbeit mit dem Defence Circuits Lab des UKW entwickelt die Core Unit FDM Pipelines für die Konvertierung spezifischer Datenformate in das standardisierte NWB-Format.