Glossar Forschungsdatenmanagement & Open Access
Dieses Glossar erläutert zentrale Begriffe rund um Forschungsdatenmanagement und Open Access.
Es dient als Orientierungshilfe und wird fortlaufend erweitert.
A-D
Archivierung bezeichnet im Kontext des Forschungsdatenmanagements die langfristige und nachvollziehbare Aufbewahrung von Forschungsdaten in geeigneten, möglichst langlebigen Dateiformaten und in einem dafür vorgesehenen Speicherort. Ziel ist es, die Daten auch über längere Zeiträume hinweg zugänglich, lesbar und überprüfbar zu halten.
Im Sinne der Guten wissenschaftlichen Praxis hat sich eine Aufbewahrungsfrist von in der Regel zehn Jahren etabliert.
Für die dauerhafte Speicherung digitaler Forschungsdaten werden häufig spezialisierte Repositorien genutzt, die eine strukturierte Ablage, Dokumentation und gegebenenfalls Veröffentlichung der Daten ermöglichen.
Article Processing Charges (APC) sind Publikationsgebühren, die bei der Veröffentlichung eines wissenschaftlichen Artikels im Open Access anfallen können. Sie werden in der Regel vom Verlag erhoben und decken Kosten für Begutachtung, Redaktion, Produktion sowie die dauerhafte Bereitstellung des Beitrags.
APC fallen insbesondere bei Gold-Open-Access-Zeitschriften sowie bei Open-Access-Optionen in Hybrid-Zeitschriften an. Die Höhe der Gebühren variiert je nach Verlag und Fachgebiet teils erheblich.
Viele Hochschulen unterstützen ihre Autor:innen durch Open-Access-Fonds oder Transformationsverträge, über die APC ganz oder teilweise übernommen werden können.
Backup (Datensicherung) bezeichnet die Erstellung von Sicherheitskopien digitaler Daten, auf die im Falle eines Systemausfalls, technischer Defekte oder versehentlichen Datenverlusts zurückgegriffen werden kann. Ziel ist es, die ursprünglichen Daten zuverlässig wiederherzustellen.
Bewährt hat sich die sogenannte 3-2-1-Backup-Regel: Es sollten mindestens drei Kopien der Daten auf zwei unterschiedlichen Speichermedien vorliegen, wobei eine Kopie räumlich getrennt (z. B. in einer Cloud-Infrastruktur) gespeichert wird.
Für Backups können sowohl institutionelle Speicherdienste (z. B. Nextcloud oder vergleichbare Hochschuldienste) als auch spezielle Backup-Programme wie Duplicati genutzt werden.
Book Processing Charges (BPC) sind Publikationsgebühren, die bei der Veröffentlichung einer wissenschaftlichen Monografie oder eines Sammelbandes im Open Access anfallen können. Sie decken in der Regel Kosten für Lektorat, Herstellung, digitale Aufbereitung und dauerhafte Bereitstellung des Werkes.
BPC kommen vor allem bei Open-Access-Buchpublikationen wissenschaftlicher Verlage zum Einsatz. Die Höhe der Gebühren variiert je nach Verlag, Umfang und Fachgebiet teilweise erheblich.
Einige Förderprogramme, institutionelle Publikationsfonds oder spezielle Open-Access-Initiativen unterstützen Autor:innen bei der Finanzierung von BPC.
CARE-Prinzipien stehen für Collective Benefit, Authority to Control, Responsibility und Ethics. Sie wurden als Ergänzung zu den FAIR-Prinzipien entwickelt und sollen Forschende dafür sensibilisieren, die Rechte und Interessen indigener Völker in allen Phasen des Forschungsprozesses zu berücksichtigen und zu wahren.
Die vier Prinzipien bedeuten im Einzelnen:
- Collective Benefit (Kollektiver Nutzen): Daten über indigene Völker sollen so erhoben, verwaltet und bereitgestellt werden, dass die betroffenen Gemeinschaften selbst davon profitieren können.
- Authority to Control (Recht auf Kontrolle): Bereits bei der Datenerhebung ist zu berücksichtigen, wie die betreffenden Gemeinschaften Kontrolle über die sie betreffenden Daten ausüben können, um ihre Rechte und Interessen zu schützen.
- Responsibility (Verantwortung): Forschende tragen die Verantwortung, Daten so aufzubereiten und bereitzustellen, dass sie für die betroffenen Gemeinschaften zugänglich, nachvollziehbar und nutzbar sind.
- Ethics (Ethik): Die Rechte und das Wohlergehen indigener Bevölkerungsgruppen sollen in allen Phasen des Datenlebenszyklus im Mittelpunkt stehen.
Creative Commons-Lizenzen (CC-Lizenzen) sind standardisierte, international verbreitete Lizenzmodelle, mit denen Urheber:innen Nutzungsrechte einfach und rechtssicher vergeben können. Sie legen fest, unter welchen Bedingungen Inhalte genutzt, weitergegeben oder bearbeitet werden dürfen.
Sowohl im Open-Access-Kontext als auch bei der Publikation von Forschungsdaten fördern CC-Lizenzen die Nachnutzbarkeit und Wiederverwendbarkeit im Sinne von FAIR und Open Science.
Weitere Informationen und eine Übersicht aller Lizenzvarianten finden Sie auf der Website von Creative Commons.
Data Literacy (Datenkompetenz) bezeichnet die Fähigkeit, Daten kritisch, reflektiert und verantwortungsvoll zu erheben, zu analysieren, zu interpretieren und zu nutzen. Sie gilt als eine zentrale Schlüsselkompetenz des 21. Jahrhunderts.
Im Kontext des Forschungsdatenmanagements umfasst Data Literacy grundlegende Kenntnisse und Fertigkeiten in allen Phasen des Datenlebenszyklus – von der Planung und Datenerhebung über die Aufbereitung und Analyse bis hin zur Dokumentation, Archivierung und Nachnutzung. Ziel ist es, Forschungsdaten qualitätsgesichert, transparent und nachvollziehbar zu verarbeiten.
Data Stewards sind Experten im Bereich des Forschungsdatenmanagements (FDM). Sie fungieren an Forschungseinrichtungen als Schnittstelle zwischen zentraler Infrastruktur (z. B. Rechenzentrum, Bibliothek, IT-Services) und den Forschenden.
Zu ihren Aufgaben zählen unter anderem die Entwicklung und Umsetzung lokaler Richtlinien, die Beratung bei der Erstellung von Datenmanagementplänen, die Unterstützung bei Fragen zu Speicherung, Archivierung und Publikation von Forschungsdaten sowie die Durchführung von Schulungen und Informationsangeboten. Ziel ist es, einen professionellen, nachhaltigen und regelkonformen Umgang mit Forschungsdaten zu fördern.
Dateiformat bezeichnet die festgelegte Struktur, in der digitale Daten gespeichert werden. Es definiert, wie Informationen innerhalb einer Datei organisiert sind, sodass Anwendungsprogramme deren Inhalt korrekt interpretieren und verarbeiten können.
Grundsätzlich wird zwischen proprietären und offenen Formaten unterschieden: Proprietäre Formate sind häufig an bestimmte Software gebunden und lassen sich nur mit entsprechenden Programmen öffnen oder bearbeiten. Offene Formate hingegen sind öffentlich dokumentiert und können in der Regel mit verschiedenen Softwarelösungen genutzt werden.
Im Kontext des Forschungsdatenmanagements, insbesondere im Hinblick auf Archivierung und Datenpublikation, wird empfohlen, offene und möglichst standardisierte Formate zu verwenden. Sie fördern die langfristige Zugänglichkeit und erleichtern die Nachnutzung von Forschungsdaten.
Der Hauptzweck von Datenjournalen (Data Journals) ist die Veröffentlichung von Forschungsergebnissen in Form von qualitätsgesicherten Datensätzen. Im Gegensatz zu klassischen Fachzeitschriften stehen nicht die Interpretation oder Diskussion von Ergebnissen im Vordergrund, sondern die strukturierte Bereitstellung und Beschreibung der zugrunde liegenden Daten.
Neben dem Datensatz selbst wird eine ausführliche Dokumentation publiziert, die unter anderem Informationen zur Methodik, Datenerhebung, Datenstruktur und Qualitätssicherung enthält. Ziel ist es, Transparenz zu schaffen und die Nachnutzbarkeit der Daten im Sinne von Open Science zu fördern.
Datenlebenszyklus bezeichnet die verschiedenen Phasen, die Forschungsdaten während eines Forschungsprojekts durchlaufen. Das Modell veranschaulicht den gesamten Prozess von der Planung bis zur möglichen Nachnutzung und dient als Orientierung für ein systematisches Forschungsdatenmanagement.
Typischerweise umfasst der Datenlebenszyklus folgende Stationen:
- Planung des Forschungsvorhabens (z. B. Festlegung von Standards, Zuständigkeiten und Dokumentation)
- Datenerhebung
- Aufbereitung und Analyse der Daten
- Publikation bzw. Bereitstellung der Daten
- Archivierung zur langfristigen Sicherung
- Nachnutzung durch andere Forschende oder für weiterführende Fragestellungen
Der Datenlebenszyklus verdeutlicht, dass ein professioneller Umgang mit Forschungsdaten nicht erst am Ende eines Projekts beginnt, sondern bereits in der Planungsphase berücksichtigt werden sollte.
Datenmanagementplan (DMP) ist ein Dokument zur systematischen Planung und Beschreibung des Umgangs mit Forschungsdaten in einem Projekt. Er legt fest, wie Daten erhoben, dokumentiert, gespeichert, gesichert, veröffentlicht und archiviert werden – und welche Bedingungen für eine spätere Nachnutzung gelten.
Ein DMP begleitet idealerweise den gesamten Datenlebenzyklus und trägt dazu bei, Transparenz, Qualität und langfristige Nutzbarkeit der Daten zu gewährleisten.
Zunehmend verlangen Drittmittelgeber im Rahmen von Förderanträgen die Einreichung eines Datenmanagementplans. Damit soll sichergestellt werden, dass Forschungsdaten nachhaltig gesichert und, sofern möglich, zugänglich gemacht werden.
Weiterführende Informationen und Unterstützungsangebote finden Sie auf unserer Serviceseite zum Thema Datenmanagementplan.
Datenpublikation bezeichnet die strukturierte und dauerhafte Veröffentlichung von Forschungsdaten, um Transparenz, Nachvollziehbarkeit und Nachnutzbarkeit wissenschaftlicher Ergebnisse sicherzustellen. Sie ist eine zentrale Voraussetzung zur Umsetzung der FAIR-Prinzipien und der Guten wissenschaftlichen Praxis.
Forschungsdaten werden hierfür in geeigneten Repositorien archiviert oder in spezialisierten Datenjournalen veröffentlicht. In beiden Fällen werden die Datensätze mit aussagekräftigen Metadaten beschrieben, in geeigneten Formaten bereitgestellt und in der Regel mit einem persistenten Identifier (z. B. DOI) versehen.
Das Directory of Open Access Journals (DOAJ) ist ein internationales Verzeichnis qualitätsgeprüfter Open-Access-Zeitschriften. Es bietet einen frei zugänglichen Überblick über wissenschaftliche Journale, die ihre Inhalte unmittelbar und dauerhaft im Open Access veröffentlichen.
Für die Aufnahme in das DOAJ müssen Zeitschriften bestimmte Transparenz- und Qualitätskriterien erfüllen, etwa in Bezug auf Peer-Review-Verfahren, Lizenzangaben und Offenlegung von Publikationsgebühren. Das DOAJ dient somit als Orientierungshilfe für Forschende bei der Auswahl seriöser Open-Access-Zeitschriften und trägt zur Sichtbarkeit und Qualitätssicherung im Open Access bei.
E-N
Elektronisches Laborbuch (ELN, Electronic Laboratory Notebook) bezeichnet eine Softwareanwendung zur digitalen Dokumentation von Forschungsprozessen und -daten. Es stellt die elektronische Alternative zum klassischen papierbasierten Laborbuch dar.
Elektronische Laborbücher ermöglichen eine strukturierte und nachvollziehbare Erfassung von Experimenten, Messwerten, Protokollen und begleitenden Materialien. Vorteile der digitalen Variante sind unter anderem verbesserte Such- und Filterfunktionen, die Nutzung von Vorlagen und Standards, eine erleichterte Zusammenarbeit sowie ein zeit- und ortsunabhängiger Zugriff.
Durch die revisionssichere Dokumentation leisten ELN zudem einen wichtigen Beitrag zur Qualitätssicherung und zur Einhaltung der Guten wissenschaftlichen Praxis.
Ein Embargo bezeichnet einen festgelegten Zeitraum, in dem Forschungsdaten oder wissenschaftliche Publikationen noch nicht frei zugänglich sind. In dieser Phase sind in der Regel nur die beschreibenden Metadaten öffentlich einsehbar.
Im Forschungsdatenmanagement (FDM) wird ein Embargo genutzt, wenn Datensätze zwar bereits in einem Repositorium hinterlegt, jedoch erst zu einem späteren Zeitpunkt veröffentlicht werden sollen – etwa wegen laufender Auswertungen, geplanter Publikationen oder vertraglicher Vorgaben.
Im Open-Access-Kontext meint ein Embargo meist die zeitlich verzögerte Zweitveröffentlichung eines Artikels (z. B. im Green Open Access). Nach Ablauf der vom Verlag festgelegten Frist darf die Publikation frei zugänglich gemacht werden.
Embargos verbinden somit rechtliche oder strategische Anforderungen mit dem Ziel einer späteren offenen Zugänglichkeit.
FAIR-Prinzipien stehen für Findable (Auffindbar), Accessible (Zugänglich), Interoperable (Interoperabel) und Reusable (Wiederverwendbar). Sie formulieren Leitlinien für ein nachhaltiges Forschungsdatenmanagement und zielen darauf ab, Forschungsdaten so aufzubereiten, dass sie sowohl für Menschen als auch für Maschinen optimal auffindbar und nutzbar sind.
Die vier Prinzipien bedeuten im Einzelnen:
- Findable (Auffindbar): Forschungsdaten sollten mit einer eindeutigen und dauerhaften Kennung (z. B. einem persistenten Identifikator) versehen und durch aussagekräftige Metadaten beschrieben werden. So können sie zuverlässig recherchiert und identifiziert werden.
- Accessible (Zugänglich): Nach dem Auffinden – etwa über ein Repositorium – muss klar geregelt sein, wie auf die Daten zugegriffen werden kann. Dazu gehören transparente Angaben zu Zugangsbedingungen, Authentifizierungs- und Autorisierungsverfahren.
- Interoperable (Interoperabel): Daten sollten in standardisierten Formaten vorliegen und etablierte Metadatenstandards nutzen, damit sie mit anderen Datensätzen kombiniert und von unterschiedlichen Anwendungen verarbeitet werden können.
- Reusable (Wiederverwendbar): Ziel ist die möglichst umfassende Nachnutzbarkeit der Daten. Voraussetzung sind eine detaillierte Dokumentation, Angaben zur Provenienz sowie klare Nutzungsbedingungen. Letztere werden häufig durch geeignete Lizenzen, etwa Creative-Commons-Lizenzen, geregelt.
Die FAIR-Prinzipien beziehen sich in erster Linie auf die technische und strukturelle Qualität von Forschungsdaten und bilden eine zentrale Grundlage für Open Science.
FDM-Förderung bezeichnet Fördermaßnahmen, die den professionellen Umgang mit Forschungsdaten im Rahmen eines Forschungsprojekts unterstützen.
Im Zuge der Antragstellung verlangen immer mehr Forschungsförderer – etwa DFG, MWFK oder BMBF – eine detaillierte Darstellung des geplanten Umgangs mit Forschungsdaten, in der Regel in Form eines Datenmanagementplans (DMP). Darin soll beschrieben werden, wie Daten erhoben, dokumentiert, gesichert, archiviert und gegebenenfalls veröffentlicht werden.
Welche Maßnahmen konkret förderfähig sind, variiert je nach Förderprogramm. Häufig können jedoch sowohl Personalmittel (z. B. für Data Stewards oder technische Unterstützung) als auch Sachmittel (z. B. für Speicherinfrastruktur, Software oder Dienstleistungen) beantragt werden.
Forschungsdaten sind alle Daten, die im Rahmen wissenschaftlicher Arbeiten entstehen, erhoben, entwickelt, verarbeitet oder ausgewertet werden. Sie bilden die Grundlage wissenschaftlicher Erkenntnisse und dokumentieren den Forschungsprozess sowie dessen Ergebnisse.
Zu Forschungsdaten zählen je nach Disziplin sehr unterschiedliche Materialien, etwa Messwerte, Umfrageergebnisse, Interviewtranskripte, Bild- und Tondaten, Modelle, Simulationen oder Quellcodes. Auch methodische Instrumente wie Fragebögen, Software oder Testverfahren können Bestandteil von Forschungsdaten sein, wenn sie zentrale Ergebnisse wissenschaftlicher Arbeit darstellen.
Eine umfassende Definition findet sich in den Leitlinien zum Umgang mit Forschungsdaten der Deutschen Forschungsgemeinschaft (DFG).
Forschungsdatenmanagement (FDM) bezeichnet den systematischen und qualitätsgesicherten Umgang mit Forschungsdaten während des gesamten Datenlebenszyklus. Es umfasst die Planung, Erhebung, Dokumentation, Speicherung, Sicherung, Publikation und Archivierung von Daten.
Ziel des Forschungsdatenmanagements ist es, Forschungsdaten im Sinne von Open Science langfristig auffindbar, zugänglich, nachvollziehbar und – sofern möglich – nachnutzbar zu machen. Dabei sollen Daten auch über das Ende eines Projekts hinaus sowie unabhängig von einzelnen Personen strukturiert und verlässlich verfügbar bleiben.
Mit den „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ bietet die Deutsche Forschungsgemeinschaft (DFG) einen verbindlichen Orientierungsrahmen für verantwortungsvolles wissenschaftliches Arbeiten. Der sogenannte DFG-Kodex enthält Grundsätze zur Qualitätssicherung, Transparenz und Integrität in der Forschung.
Im Kontext des Forschungsdatenmanagements befasst sich der Kodex insbesondere mit der sorgfältigen Dokumentation, Aufbewahrung und Archivierung von Forschungsdaten sowie mit rechtlichen und ethischen Fragestellungen. Ziel ist es, die Nachvollziehbarkeit und – sofern möglich – die Nachnutzbarkeit wissenschaftlicher Ergebnisse sicherzustellen.
Ingest (auch Auf- oder Übernahme) bezeichnet im Datenlebenzyklus die Phase, in der Forschungsdaten in ein Archiv oder Repositorium aufgenommen werden.
In diesem Schritt wird entschieden, welche Daten in welcher Form übernommen werden, etwa hinsichtlich Dateiformaten, Metadaten und Dokumentation. An den Ingest-Prozess schließen sich in der Regel standardisierte Workflows an, die unter anderem eine formale und inhaltliche Qualitätskontrolle umfassen.
Der Ingest stellt damit eine zentrale Schnittstelle zwischen Datenproduktion und langfristiger Archivierung bzw. Bereitstellung dar.
Interoperabilität bezeichnet die Fähigkeit verschiedener Systeme, Daten und Informationen miteinander auszutauschen und weiterzuverarbeiten. Sie ermöglicht, dass Inhalte systemübergreifend genutzt und maschinell interpretiert werden können.
Im Kontext des Forschungsdatenmanagements ist Interoperabilität eines der FAIR-Kriterien. Sie wird unter anderem durch standardisierte Dateiformate, Metadatenstandards, kontrollierte Vokabulare und persistente Identifikatoren gefördert, um den Datenaustausch effizient und automatisiert zu gestalten.
Im Open-Access-Kontext bezieht sich Interoperabilität vor allem auf die technische Anschlussfähigkeit von Publikationen und Repositorien. Standardisierte Schnittstellen (z. B. für Metadatenaustausch), einheitliche Lizenzangaben und persistente Identifikatoren ermöglichen die Einbindung in Suchmaschinen, Aggregatoren, Forschungsinformationssysteme und bibliometrische Dienste.
Langzeitarchivierung (LZA) bezeichnet Maßnahmen zur langfristigen Sicherung, Zugänglichkeit und Verständlichkeit von Forschungsdaten über den Abschluss eines Projekts hinaus. Ziel ist es, Daten auch nach vielen Jahren technisch lesbar, inhaltlich nachvollziehbar und zitierfähig zu erhalten.
Für die Langzeitarchivierung werden in der Regel spezialisierte Repositorien oder Archivsysteme genutzt, die geeignete Speicher-, Sicherungs- und Dokumentationsstrukturen bereitstellen.
In vielen Disziplinen hat sich im Sinne der Guten wissenschaftlichen Praxis eine Aufbewahrungsfrist von in der Regel zehn Jahren etabliert.
Metadaten sind strukturierte Informationen, die Daten oder Publikationen beschreiben. Sie liefern Kontext und ermöglichen es, Inhalte eindeutig zu identifizieren, aufzufinden und sowohl für Menschen als auch für Maschinen interpretierbar zu machen. Damit Forschungsdaten auffindbar und lesbar sind, werden ihnen Metadaten als zusätzliche Beschreibung beigefügt.
Man unterscheidet verschiedene Arten von Metadaten:
- Bibliografische Metadaten: z. B. Titel, Verfassernamen oder Kurzbeschreibungen
- Administrative Metadaten: z. B. Dateiformate, Zugriffsrechte oder Lizenzen
- Prozessmetadaten: z. B. angewandte Methoden, Arbeitsschritte oder verwendete Software
- Inhaltsbeschreibende Metadaten: z. B. Schlagwörter, Klassifikationen oder thematische Zuordnungen
Metadaten sind eine zentrale Voraussetzung für Auffindbarkeit, Interoperabilität und Nachnutzbarkeit im Sinne der FAIR-Prinzipien sowie für die Sichtbarkeit in Repositorien und Suchsystemen.
Metadatenstandards sind festgelegte Schemata und Regeln zur strukturierten und einheitlichen Beschreibung von Daten. Sie definieren, welche Informationen (z. B. Titel, Autor:innen, Entstehungsdatum oder Methode) in welcher Form erfasst werden. Dadurch wird die Interoperabilität von Metadaten sichergestellt und ihre gemeinsame Verarbeitung sowie Verknüpfung über Systeme und Disziplinen hinweg ermöglicht.
Ein verbreiteter Standard für die Beschreibung von Forschungsdaten ist das DataCite Metadata Schema. Einen Überblick über weitere fachspezifische Metadatenstandards bieten unter anderem der Metadata Standards Catalog oder das Digital Curation Centre (DCC).
O-Z
Open Access bezeichnet den freien, unmittelbaren und dauerhaften Zugang zu wissenschaftlichen Publikationen im Internet. Die Inhalte sind kostenfrei zugänglich und in der Regel mit klar geregelten Nutzungsrechten (z. B. durch Creative-Commons-Lizenzen) versehen. Ziel ist es, Forschungsergebnisse weltweit sichtbar und nachnutzbar zu machen.
Es haben sich verschiedene Wege des Open-Access-Publizierens etabliert:
- Gold Open Access: Erstveröffentlichung unmittelbar im Open Access, etwa in einer Open-Access-Zeitschrift oder als frei zugängliche Monografie. Die Beiträge durchlaufen in der Regel ein Qualitätssicherungsverfahren (z. B. Peer Review).
- Green Open Access (Self-Archiving): Zweitveröffentlichung eines bereits erschienenen Beitrags über ein Repositorium oder eine institutionelle Website, ggf. nach Ablauf einer Embargofrist.
- Diamond Open Access: Ausprägung des Gold Open Access ohne Publikationsgebühren für Autor:innen. Die Finanzierung erfolgt durch wissenschaftliche Einrichtungen oder Förderprogramme.
Open Access ist ein zentraler Bestandteil von Open Science und fördert Transparenz und Zugänglichkeit wissenschaftlicher Ergebnisse.
Persistente Identifier (PID) sind dauerhafte, eindeutige Kennungen für digitale Objekte wie Forschungsdaten, Publikationen oder Personen. Sie ermöglichen eine stabile Identifikation und Zitierfähigkeit, auch wenn sich der Speicherort der Inhalte ändert.
Beispiele für persistente Identifier sind der DOI (Digital Object Identifier) für Datensätze und Publikationen oder die ORCID iD für Forschende.
Predatory Journals sind unseriöse Zeitschriften, die häufig mit aggressiver Werbung und einem vermeintlich professionellen Auftreten zur Veröffentlichung von Beiträgen gegen Zahlung einer Publikationsgebühr auffordern.
Im Gegensatz zu etablierten wissenschaftlichen Zeitschriften organisieren sie keine oder nur unzureichende Qualitätssicherungsverfahren, etwa in Form eines unabhängigen Peer Reviews. Ziel ist in der Regel nicht die wissenschaftliche Qualität, sondern die Generierung von Einnahmen.
Die Prüfung von Transparenz, Redaktion, Begutachtungsverfahren und Indexierung, etwa mithilfe von Verzeichnissen wie dem DOAJ, kann helfen, seriöse Angebote von Predatory Journals zu unterscheiden.
Publish & Read ist ein Finanzierungsmodell für wissenschaftliche Zeitschriften, das häufig in Transformationsverträgen zwischen Bibliothekskonsortien und Verlagen eingesetzt wird (z. B. im Rahmen des Projekts DEAL).
Teilnehmende Einrichtungen zahlen dabei nicht nur für den Lesezugriff („Read“), sondern zugleich für die Open-Access-Publikation („Publish“) ihrer Autor:innen. Der lesende Zugriff ist im Gesamtbetrag enthalten.
Die Kosten orientieren sich in der Regel am Publikationsaufkommen der jeweiligen Einrichtung und unterstützen die Umstellung von Subskriptions- auf Open-Access-Modelle.
Eine FDM-Policy formuliert Leitlinien für einen professionellen und an den FAIR-Prinzipien orientierten Umgang mit Forschungsdaten. Sie schafft einen verbindlichen Rahmen für Planung, Dokumentation, Speicherung, Archivierung und Veröffentlichung von Forschungsdaten.
An der Technischen Hochschule Brandenburg wird derzeit die „Satzung zum Umgang mit Forschungsdaten der Technischen Hochschule Brandenburg“ erarbeitet. Sie regelt die nachvollziehbare Verwaltung, sichere Archivierung und nachhaltige Veröffentlichung von Forschungsdaten und benennt die dafür vorgesehenen technisch-wissenschaftlichen Dienste und Maßnahmen.
Ein Repositorium ist ein an Universitäten oder Forschungseinrichtungen betriebener Dokumentenserver, auf dem wissenschaftliche Materialien dauerhaft archiviert und zugänglich gemacht werden. Dazu zählen sowohl Open-Access-Publikationen als auch Forschungsdaten im Rahmen des Forschungsdatenmanagements.
Im Open-Access-Bereich unterscheidet man zwischen institutionellen Repositorien (von einzelnen Einrichtungen betrieben) und disziplinären Repositorien, die institutionsübergreifend fachbezogen ausgerichtet sind.
Im FDM dienen Repositorien der strukturierten Ablage, Metadatenbeschreibung, Vergabe persistenter Identifier und langfristigen Sicherung von Datensätzen. Ein Beispiel für ein Forschungsdatenrepositorium ist RADAR-BB.
Ein Transformationsvertrag ist eine Vereinbarung zwischen Bibliothekskonsortien bzw. Forschungseinrichtungen und wissenschaftlichen Verlagen, die den Übergang vom Subskriptionsmodell zum Open Access fördert.
Dabei werden traditionelle Zeitschriften schrittweise in Open-Access-Modelle überführt. Einrichtungen finanzieren nicht mehr nur den Lesezugriff, sondern zugleich die Open-Access-Publikation ihrer Autor:innen (z. B. im Rahmen von Publish-&-Read-Modellen).
Der Begriff Transformation bezeichnet in diesem Zusammenhang die vollständige Umstellung des wissenschaftlichen Publikationswesens auf Open Access.
Im Sinne der Guten wissenschaftlichen Praxis ist es wichtig, auch Forschungsdaten korrekt zu zitieren. Eine angemessene Zitation ermöglicht Transparenz, Nachvollziehbarkeit und die Anerkennung wissenschaftlicher Leistungen.
Da bislang kein einheitlicher, fachübergreifender Standard für die Zitation von Forschungsdaten existiert, sollten die jeweiligen disziplinären oder projektspezifischen Zitationsregeln beachtet werden. Zwingend anzugeben ist in der Regel der zugehörige persistente Identifikator (z. B. DOI), der eine eindeutige und dauerhafte Referenzierung ermöglicht.