Kann ChatGPT als Co-Autor von wissenschaftlichen Arbeiten aufgeführt werden?
- Daniela Ovadia
- Medizinische Nachrichten
Kernbotschaften
Nach ersten Fällen der „synthetischen Co-Autorenschaft“ wehren sich Verleger, und Ethiker denken über Art und Zweck wissenschaftlicher Publikationen nach.
Die Nachricht, dass OpenAI (das Konsortium, das Systeme mit künstlicher Intelligenz wie ChatGPT entwickelt hat) von einigen Wissenschaftlern als Autor wissenschaftlicher Arbeiten aufgeführt wurde, hat umgehend Reaktionen aus der Forschergemeinschaft und von Verlegern von Fachzeitschriften mit Peer-Review ausgelöst.1 ChatGPT ist jedoch nicht das erste System mit künstlicher Intelligenz, das als Co-Autor eines wissenschaftlichen Artikels geführt wird. Letztes Jahr erschien ein Artikel auf einer Preprint-Website, die von dem Bot GPT-3 verfasst wurde, einem Vorläufer des Systems, das seit einigen Wochen viele journalistische und wissenschaftliche Urheber gleichzeitig fasziniert und beunruhigt.2
ChatGPT ist nicht einmal der merkwürdigste "Autor", denn die Chronik wissenschaftlicher Abhandlungen führt unter den Co-Autoren wissenschaftlicher Arbeiten gleich mehrere Tiere und erfundene Figuren mit lustigen oder ironischen Namen auf. Ein Beispiel ist der berühmte Fall des amerikanischen Physikers William Hoover, der in einigen seiner Artikel den „Kollegen“ Stronzo Bestiale als Co-Autor angibt, einen derben Ausdruck, den er auf einer seiner Reisen nach Italien aufgeschnappt hatte und der, etwas geschönt, „kompletter Idiot“ bedeutet.3
Verantwortlichkeiten von Autoren
Warum herrscht also so viel Aufregung über eine technologische Entwicklung, die sich weitgehend abzuzeichnen scheint? Die Antwort findet sich in der Definition eines Autors von wissenschaftlichen Artikeln, im Ergebnis jahrelanger Beurteilungsverfahren auf dem Gebiet der Forschungsethik und in den vielen Fällen von wissenschaftlichem Betrug, die (in den schlimmsten Fällen) auf vollständig erfundenen Daten beruhten.4
Wissenschaftlicher Betrug wird oft nur von einzelnen Forschungspartnern begangen, aber das Vorliegen mehrerer Autoren erschwert die genaue Zuordnung der Verantwortung dafür. Aus diesem Grund wird heute die Regel anerkannt, dass alle Autoren eines wissenschaftlichen Artikels für jeden Teil verantwortlich sind und sich gegenseitig überprüfen müssen. Es gibt einige Ausnahmen von dieser Regel, wie z. B. große Konsortien, die klinische Studien mit Tausenden von Namen unterzeichnen, oder die immer weiter verbreitete Anforderung, am Ende des Artikels die tatsächlichen Beiträge aller Autoren ungeachtet ihrer Position in der Liste der Co-Autoren anzugeben.
Anforderungen an die Urheberschaft
In der neuesten Version der Leitlinien des International Committee of Medical Journal Editors (ICMJE), die seit 1979 etwa 20-mal aktualisiert wurden, wird empfohlen, dass Beurteilungen der Urheberschaft auf der Grundlage von vier Kriterien vorgenommen werden.
Um als Autor aufgeführt zu werden, muss man Folgendes unternommen haben:
- Man muss einen wesentlichen Beitrag zur Konzeption oder Gestaltung der Arbeit oder zur Erfassung, Analyse oder Interpretation von Daten geleistet haben
- Man muss den Artikel abgefasst oder kritisch überarbeitet und wichtige intellektuelle Inhalte hinzugefügt haben
- Man muss die endgültige Freigabe der zu veröffentlichenden Version erteilt haben
- Man muss sich damit einverstanden erklärt haben, für alle Aspekte der Arbeit zur Verantwortung gezogen zu werden, um sicherzustellen, dass Fragen zur Genauigkeit oder Integrität eines beliebigen Teils der Arbeit ordnungsgemäß untersucht und beantwortet werden
Obwohl diese Regeln hauptsächlich auf dem Gebiet der Biomedizin zur Anwendung kommen, wurden sie durch Institutionen wie das Committee on Publication Ethics auch auf andere Fachrichtungen ausgeweitet.5
Ein erwähnenswertes Instrument
Kehren wir zu ChatGPT und anderen Systemen zurück, die Texte auf Grundlage der komplexen Regeln der natürlichen Sprache generieren können: Ihr Einsatz scheint den meisten Regeln zuwiderzulaufen, nach denen sie das Recht hätten, sich selbst als Autoren zu bezeichnen, und zwar hauptsächlich deswegen, weil sie für die Ergebnisse einer Studie keine Verantwortung übernehmen können. Dies ist die Richtung, die verschiedene Verlagsgesellschaften einschlagen: Nachdem Nature die Haltung eingenommen hat, KI nicht als Autor zu akzeptieren, haben andere Zeitschriften wie JAMA dieselben Schritte eingeleitet.6
Das bedeutet aber nicht, dass das Hilfsmittel nicht verwendet werden kann. Es ist zulässig, sollte aber im Abschnitt zu den Methoden im Rahmen der Studie entsprechend erwähnt werden, wie es auch für alle anderen Instrumente der Fall ist.
Damit ist das Problem aber nicht vollständig gelöst, insbesondere nicht in Bereichen, in denen die Genauigkeit von Informationen entscheidend ist.
„Die Gemeinschaft der wissenschaftlichen Verleger hat schnell Bedenken über mögliche falsche Anwendungen dieser Sprachmodelle in wissenschaftlichen Veröffentlichungen angemeldet“, schreiben die Autoren des Leitartikels in JAMA.6 „Einzelne Personen haben damit experimentiert, indem sie ChatGPT eine Reihe von Fragen zu umstrittenen oder wichtigen Themen (z. B., ob Kinderimpfungen Autismus verursachen) sowie fachspezifische und ethische Fragen im Zusammenhang mit Publikationen gestellt haben. Ihre Ergebnisse zeigten, dass die Textantworten von ChatGPT auf Fragen zwar meist gut geschrieben sind, aber auch formelhaft (was nicht leicht erkennbar war), nicht aktuell, falsch oder fabriziert, mit ungenauen oder unvollständigen Quellenangaben ausgestattet und, was noch schlimmer ist, mit erfundenen, nicht existierenden Beweisen für die aufgestellten Behauptungen oder Aussagen versehen sind.“
Darüber hinaus könnten Texte, die sich auf bereits publizierte Informationen stützen, unter die Definition des wissenschaftlichen Plagiats fallen, obwohl Tools wie ChatGPT durchaus in der Lage sind, einen Text mit einer derartigen Variabilität nachzubilden, dass er von normaler Antiplagiatssoftware nicht erkannt werden könnte, sondern nur von derjenigen, die OpenAI heute selbst zur Verfügung stellt.
Auf der anderen Seite „räumt OpenAI ein, dass das Sprachmodell an gewisse Grenzen stößt, indem es etwa ‚plausibel klingende, aber unrichtige oder unsinnige Antworten‘ liefert, und dass die jüngste Version Teil einer offenen iterativen Entwicklung ist, die vorsieht, sie durch die Verwendung durch Menschen, deren Interaktionen damit sowie deren Feedback zu verbessern.“6
Im Wesentlichen finden Experten, dass das Modell nicht bereit ist, um als zuverlässige Informationsquelle verwendet zu werden, wenn es nicht von Menschen sorgfältig überwacht und geprüft wird – zumindest im Bereich der Medizin.
Allgemeinere ethische Probleme
Es gibt jedoch noch andere ethische Probleme, mit denen sich die wissenschaftliche Gemeinschaft befassen muss, da das Instrument mit der Zeit immer besser werden dürfte. So könnte beispielsweise ein solches Instrument eine sprachliche Brücke zwischen Wissenschaftlern englischer Muttersprache und allen anderen schlagen und die Veröffentlichung von Forschungsarbeiten erleichtern, die in anderen Sprachen durchgeführt und verfasst wurden.
Andererseits gibt es ein objektives Problem der Überproduktion wissenschaftlicher Inhalte, das es einem Experten nahezu unmöglich macht, mit den Entwicklungen in seinem Fachgebiet Schritt zu halten. Es ließe sich nur schwer begründen, warum die wissenschaftliche Gemeinschaft ein Instrument unterstützen sollte, mit dem das Tempo und die Menge von Artikeln noch gesteigert würden, wenn sie eher ein Interesse daran hätten, qualitativ hochwertigere wissenschaftliche Arbeiten von größerer statistischer Signifikanz hervorzubringen.
Zu guter Letzt könnte die Vervollkommnung dieser Tools dazu führen, dass die Fähigkeit, einen wissenschaftlichen Artikel zu schreiben, keine Voraussetzung für das wissenschaftliche Arbeiten mehr ist, sondern zur Nebensächlichkeit wird, sodass der Schwerpunkt stärker auf die Aufwertung von Daten und die Überprüfung von Textstrukturen gelegt werden kann, um die menschliche Verantwortung für diese intellektuellen Erzeugnisse aufrecht zu erhalten.
In der Zwischenzeit sollten diejenigen, die vorhaben, einen Artikel mithilfe von künstlicher Intelligenz zu verfassen, den redaktionellen Empfehlungen folgen, die in den letzten Tagen herausgekommen sind:
Abschnitte, die mit KI erstellt wurden, sollten entsprechend hervorgehoben werden, und die dafür verwendete Methodik sollte im Artikel selbst erklärt werden (im Sinne vollständiger Transparenz einschließlich des Namens und der Version der verwendeten Software).
- Es wird dringend davon abgeraten, ausschließlich durch KI erstellte Arbeiten einzureichen, insbesondere, wenn es sich um systematische Literaturrecherchen handelt. Dies liegt zum Teil an der Unausgereiftheit der Technologien zur Verarbeitung von natürlicher Sprache und zum anderen an ihrer Tendenz, die statistischen Verzerrungen und den Selektionsbias beizubehalten, die den Anweisungen der Programmierer innewohnen. Davon ausgenommen sind Studien, die genau darauf abzielen, die Zuverlässigkeit solcher Technologien zu beurteilen (ein Ziel, das selbstverständlich im Artikel explizit formuliert werden muss).
- Von der Erstellung und Verwendung von Bildern in wissenschaftlichen Arbeiten wird abgeraten, da dies den ethischen Vorgaben wissenschaftlicher Publikationen zuwiderläuft – es sei denn, solche Bilder sind selbst Gegenstand der Untersuchung.
Dieser Artikel wurde zuerst in der italienischen Originalfassung auf der italienischen Website von Univadis veröffentlicht.
Dieser Volltext ist leider reserviert für Angehöriger medizinischer Fachkreise
Sie haben die Maximalzahl an Artikeln für unregistrierte besucher erreicht
Kostenfreier Zugang Nur für Angehörige medizinischer Fachkreise