Artikel herunterladen

„Data Sharing“ bei klinischen Studien: weiterhin Verbesserungsbedarf

Aus dem Risiko, dem sich Patienten in klinischen Interventionsstudien aussetzen, ergibt sich die ethische Verpflichtung, Daten aus diesen Studien zu veröffentlichen und auch anderen Forschern für weitere wissenschaftliche Auswertungen zugänglich zu machen („Data Sharing“) – diese Auffassung vertritt u.a. das „International Committee of Medical Journal Editors“ (ICMJE; 1, 2). Das ICMJE ist eine Arbeitsgruppe, zu deren Mitgliedern leitende Redakteure renommierter medizinischer Fachzeitschriften gehören, darunter N. Engl. J. Med., Lancet, Deutsches Ärzteblatt, The British Medical Journal (BMJ) und PLOS Medicine. In den beiden letztgenannten Zeitschriften ist die Bereitschaft zum Data Sharing seit 2013 eine Voraussetzung für eine Publikation von randomisierten, kontrollierten Studien (RCT) zu Arzneimitteln und Medizinprodukten. Nun wurde von einer Gruppe um John Ioannidis in einer Untersuchung geprüft, ob die Daten aus den publizierten Studien in der Praxis auch tatsächlich verfügbar gemacht werden und ob die Ergebnisse der Publikationen reproduzierbar sind (2).

Eingeschlossen wurden alle Publikationen zu RCT, die im BMJ und bei PLOS Medicine nach Einführung der Regeln zum „Data Sharing“ eingereicht und veröffentlicht wurden. Primärer Endpunkt der Untersuchung war die Verfügbarkeit der Daten auf Nachfrage bei den Autoren, definiert als die Weitergabe von ausreichend Daten, um den primären Endpunkt der eingeschlossenen Studien zu reproduzieren. Außerdem wurden u.a. die Zeitdauer bis zum Vorliegen der Daten erhoben sowie gegebenenfalls Gründe, warum die Daten nicht verfügbar gemacht wurden.

Insgesamt wurden 37 Studien eingeschlossen, von denen 26 einen nicht-kommerziellen Sponsor hatten. 20 Studien untersuchten pharmakologische Interventionen, 9 komplexe Interventionen (z.B. psychotherapeutische Programme) und 8 Medizinprodukte.

Von 19 Studien erhielten die Autoren Daten nach im Median 4 Tagen (Spannweite 0-191 Tage). Allerdings lagen nur bei 17 Studien genügend Daten vor, um den primären Endpunkt zu reanalysieren (17/37 = 46%). Ein Studienteam von zwei weiteren Publikationen derselben Forschergruppe hätte seine Daten nur gegen Entgelt (694 €) zur Verfügung gestellt. Dies lehnten die Autoren ab, um keine Ungleichbehandlung entstehen zu lassen. Ein anderes Forschungsteam war zwar im Prinzip bereit, die Daten verfügbar zu machen – sie lagen allerdings bis zum Ende der Datenerhebungsphase nach 7 Monaten immer noch nicht vor. Bei den verbleibenden 15 Studien antworteten die Autoren nicht (n = 9) oder sie lehnten „Data Sharing“ ab (n = 6). Als Grund für die Ablehnung wurde u.a. angegeben, dass man die Ziele der vorliegenden Untersuchung nicht unterstütze oder es wurden persönliche Gründe wie Krankheit angeführt.

Von den 17 Studien, zu denen genügend Daten für eine Reanalyse vorlagen, konnten bei 14 alle primären Endpunkte reproduziert werden (14/17 = 82%). Bei einer fehlten im Methodenteil ausreichende Angaben, um die Ergebnisse nachvollziehen zu können, bei zwei weiteren fielen kleinere Abweichungen auf. Insgesamt ergaben sich bei der Reanalyse keine Ergebnisse, die der initialen Publikation widersprachen, weder hinsichtlich der Größe des Effekts noch hinsichtlich der statistischen Signifikanz. Als Hauptschwierigkeiten für das „Data Sharing“ erwiesen sich Probleme bei der Kontaktaufnahme mit den korrespondieren Autoren und deren fehlende Ressourcen bei der Erstellung der Datensätze.

In einem begleitenden Editorial führt Milton Packer diese nicht optimalen Ergebnisse auf fehlendes Vertrauen zurück (4). Packer vertritt die folgende Position: Ein Wissenschaftler, der Studien mit Menschen durchführt, stimmt implizit einem Vertrag mit der Gesellschaft zu, der auch die Verantwortung einschließt, die Rohdaten für die Untersuchung verfügbar zu machen. Er sollte daher bereit sein, Studiendaten zur Prüfung und erneuten Analyse zur Verfügung zu stellen.

Fazit: Die gemeinsame Nutzung von Studiendaten („Data Sharing“) soll Wissenschaftlern ermöglichen, die Ergebnisse von Studien zu reproduzieren oder neue Erkenntnisse zu gewinnen. Sie wird inzwischen von vielen Institutionen gefordert (z.B. WHO, EMA; 5, 6) und ist bei führenden medizinischen Fachzeitschriften Voraussetzung für eine Veröffentlichung. Eine Untersuchung von publizierten RCT in zwei dieser Zeitschriften ergab, dass bei weniger als der Hälfte der RCT tatsächlich die Daten für eine Reanalyse der Ergebnisse zur Verfügung gestellt wurden. Wurden Daten verfügbar gemacht, deckten sich die Ergebnisse der Reanalyse weitgehend mit den Ergebnissen in der initialen Publikation. Um „Data Sharing“ zu fördern, müssen Ressourcen und wissenschaftliche Anreize geschaffen sowie Standards für den Austausch der Daten etabliert werden.

Literatur

  1. Taichmann, D.B., et al.: Dtsch. Arztebl. Int. 2017, 114, 401. Link zur Quelle
  2. http://www.icmje.org/ Link zur Quelle
  3. Naudet, F., et al.: BMJ 2018, 360, k400. Link zur Quelle
  4. Packer, M.: BMJ 2018, 360, k510. Link zur Quelle
  5. Krumholz, H.: BMJ 2015, 350, h599. Link zur Quelle
  6. AMB 2014, 48, 79. Link zur Quelle