Der Zeitgeist des Überangebots mit all seinen negativen Auswirkungen auf unser Denken, Verhalten und die Umwelt macht auch vor der medizinischen Wissenschaft nicht halt. In der Pubmed-Datenbank werden derzeit rund 38 Mio. Publikationen gelistet. Allein im Jahr 2024 sind rund 1,6 Mio. hinzugekommen [1]. Täglich erscheinen > 4.000 Originalarbeiten, Reviews, Letters, Kommentare und Korrekturen in rund 30.000 biomedizinischen Journalen, darunter eine wachsende Zahl von Verlagen mit Open Access-Policy (OA). Nicht wenige dieser Journale sind „Raubtiere“ („Predatory Journals“), die qualitativ minderwertig sind und fast alles gegen Geld abdrucken (vgl. [2]). Viele Artikel stammen aus sog. „Paper mills“, d.h. kommerziellen Schreibbüros und haben nicht selten fiktive oder rein nominelle Autoren („Honorary Authorship“).
Es liegt auf der Hand, dass sich unter diesem Berg an Veröffentlichungen auch viel Unwichtiges und Uninteressantes befindet, also Ausschuss. Etwa 15-20% der in Pubmed gelisteten Publikationen werden niemals und 30-40% nur 1-5mal zitiert [3]. Sehr beunruhigend ist, dass viele Ergebnisse aus Originalarbeiten gar nicht oder nur teilweise reproduziert werden können. Das Center for Open Science (COS) ist eine gemeinnützige Organisation, die sich für Transparenz, Reproduzierbarkeit und offene Wissenschaft einsetzt. Im Rahmen des sog. „Reproducibility Project“ wurden 193 Experimente aus der Krebsbiologie aus 53 Publikationen in hochrangigen Journalen der Jahre 2010-2012 überprüft [4]. Nur 50 dieser Experimente konnten nochmals in gleicher Weise durchgeführt werden. Bei den übrigen war das veröffentlichte Protokoll unvollständig oder die Autoren antworteten nicht oder nur unzureichend auf Nachfragen zu ihrer Methodik. Wurden die Experimente wiederholt, konnten die Ergebnisse nur bei knapp der Hälfte reproduziert werden, und bei 85% waren die Effektstärken kleiner als in den Veröffentlichungen.
Vor diesem Hintergrund und mit den stetig wachsenden Möglichkeiten der sog. „digitalen Forensik“ wundert es nicht, dass die Zahl zurückgezogener Artikel („Retractions“) seit Jahren stark zunimmt: von 38 im Jahr 2000 auf zuletzt > 10.000 pro Jahr [5]. Wahrscheinlich müssten noch sehr viel mehr Artikel zurückgezogen oder zumindest mit Korrekturen versehen werden. Dem stehen jedoch psychologische, praktische und wahrscheinlich auch rechtliche Hürden im Wege.
„Retraction Watch“ ist ein durch Spenden und öffentliche Fördergelder finanziertes journalistisches Projekt, das sich auf die Dokumentation und Analyse zurückgezogener wissenschaftlicher Publikationen spezialisiert hat. Auf deren Webseite finden sich bereits > 50.000 Einträge über alle Wissenschaftsdisziplinen hinweg. Unter den zurückgezogenen Artikeln sind auch solche, die > 1.000mal zitiert wurden, von Nobelpreisträgern stammen und aus sehr renommierten Zeitschriften [6]. Die Mehrzahl der „Retractions“ findet sich aber in Zeitschriften mit niedrigem „Impact factor“.
Nach Analysen von „Retraction Watch“ gibt es hauptsächlich drei Gründe, warum Artikel zurückgezogen werden:
- Fehler: z.B. unbeabsichtigte („Honest Error“) oder methodisch unzuverlässige oder nicht nachvollziehbare Daten (Rechenfehler, fehlerhafte Statistiken etc.);
- Wissenschaftliches Fehlverhalten:B.: Manipulation und Fälschung von Daten („Fraud“: Erfindungen, Verfälschungen und Bildmanipulationen); fehlendes Ethikvotum oder Verstoß dagegen; nachträgliche Veränderungen des Protokolls oder der Endpunkte; selektive Berichterstattung; Mehrfach- (duplication) und Salami-Veröffentlichungen („slicing“); fehlerhaftes Zitieren (Plagiarismus) und Urheberrechtsverletzungen; „Ghostwriting“ und „Honorary Authorships“; Verschweigen von finanziellen oder immateriellen Interessenkonflikten bei den Autoren oder die vollständige Prozesssteuerung durch eine Firma oder ein pharmazeutisches Unternehmen („Ghost Management“);
- Fehlverhalten beim Herausgeber: B.: nicht deklarierte Interessenkonflikte; Bevorzugung bestimmter Themen, Institutionen oder Autoren; manipulierte oder komplett gefälschte Peer Reviews; Beeinflussung der Gutachter; Manipulation bei den Zitierungen („Coercive Citation“).
Wissenschaftliches Fehlverhalten ist derzeit für etwa 60% aller Rücknahmen verantwortlich, Fehler für 17% und Fehlverhalten beim Herausgeber für 9%. Bei den übrigen werden die Gründe nicht eindeutig dargelegt [7]. Eine ältere Analyse von 228 „Retractions“ wegen wissenschaftlichen Fehlverhaltens ergab, dass die beteiligten Autoren überproportional häufig Männer waren und dass das gesamte Spektrum vertreten ist, vom Praktikanten bis zum leitenden Wissenschaftler [8].
Etwa 2% der Wissenschaftler räumen in anonymen Antworten auf Umfragen ein, mindestens schon einmal Daten oder Ergebnisse frei erfunden, gefälscht oder verändert zu haben [9]. Es werden auch regelmäßig Fälle von hochproduktiven und respektierten Autoren bekannt, die über Jahre systematisch Daten fälschen. Bemerkenswert ist, dass die Kollegen im Umfeld und die oft zahlreichen Koautoren den Betrug nicht erkennen oder nicht verhindern konnten – oder wollten. Die Betrügereien werden nur selten als Systemversagen, sondern meist als Taten eines Einzelnen missverstanden, und die, die den Betrug aufgedeckt haben, oft eingeschüchtert und diffamiert.
Die Ursachen von wissenschaftlichem Fehlverhalten sind vielfältig. Nach Umfragen unter chinesischen Forschenden sind entscheidend: hoher Publikationsdruck („publish or perish“), Karriereaspekte (wachsende Konkurrenz und Globalisierung der Forschung) und moralische Mängel [10]. Als „Währung“ der Wissenschaft und als Maß von Expertise gilt nach wie vor die Zahl der Publikationen und die Häufigkeit deren Zitierung in anderen Publikationen (Impact- und H-Faktor). Dabei sind diese Parameter nur mäßig aussagekräftig für die translationale Wirkung von Forschung [11]. Andere, komplexere Modelle, die Themen, Abstracts und Metadaten einschließen, sind deutlich genauer (sog. inhaltsbasierte Impact-Modelle). In der „San Francisco Declaration on Research Assessment“ (DORA) wurden 2012 entsprechende Vorschläge unterbreitet [12], aber leider haben sich diese noch nicht durchgesetzt.
Alle sollten ein großes Interesse daran haben, dass wissenschaftliches und publizistisches Fehlverhalten eingedämmt wird. Doch wie kann die Situation verbessert werden?
Die Verantwortlichen an den Universitäten und Forschungseinrichtungen müssen dafür sorgen, dass ihre Forscher eine Ausbildung in guter wissenschaftlicher Praxis („Good Scientific Practice“ = GSP) erhalten und diese Standards auch durchgesetzt werden. Dazu zählen die Ertüchtigung interner Strukturen wie Mentoring, Fehler- und Konfliktmanagement, Ombudsstellen und ein System, in dem beobachtete oder vermutete Fehler ohne persönliche Nachteile angezeigt und überprüft werden können. Außerdem müssen Compliance- und Ethikboards präsent sein und die Möglichkeit erhalten, Stichproben zu machen.
Unabhängige und hierzu befähigte externe Institutionen wie Ethikkommissionen, Forschungsgesellschaften und Kammern müssen die Einhaltung der GSP überprüfen und Verstöße sanktionieren. Veröffentlichte Forschungsdaten sollten stichprobenartig überprüft werden. Dazu ist es erforderlich, die angewendete Methodik und die Daten vollständig offenzulegen (Transparenz). Auch automatisierte Überprüfungen von Publikationen sollten ausgeweitet werden.
Wissenschaftler sollten nur noch in Journalen veröffentlichen, die bestimmte Standards einhalten, wie z.B. die von COPE (Committee on Publication Ethics; [13]). Diese Verlage müssen die Transparenz der Daten gewährleisten und das Peer-Review-System ertüchtigen (Honorierung, Beschleunigung). Korrekturen und Retraktionen müssen da, wo Fehler erkannt worden sind, als wissenschaftlich notwendiger Bestandteil des Diskurses verstanden werden.