Wissenschaftszeitschriften verbieten die Auflistung von ChatGPT als Co-Autor auf Artikeln | Peer Review und wissenschaftliches Publizieren

Die Herausgeber von Tausenden von wissenschaftlichen Zeitschriften haben die Verwendung eines fortschrittlichen KI-gesteuerten Chatbots durch Mitwirkende verboten oder eingeschränkt, da sie befürchten, dass er die akademische Literatur mit fehlerhaften und sogar erfundenen Forschungsergebnissen übersäten könnte.

ChatGPT, ein flüssiger, aber schwammiger Chatbot, der von OpenAI in Kalifornien entwickelt wurde, hat seit seiner Einführung im November mehr als eine Million menschliche Benutzer beeindruckt oder beunruhigt, indem er Gedichte, Kurzgeschichten, Essays und sogar persönliche Ratschläge herausgerasselt hat.

Aber während sich der Chatbot als riesige Quelle des Spaßes erwiesen hat, ist seine Herangehensweise kostenlos ein Erdnussbutter-Sandwich von einem Videorecorderim Stil der King-James-Bibel, ist ein bemerkenswerter Hit – das Programm kann auch gefälschte wissenschaftliche Zusammenfassungen produzieren, die überzeugend genug sind, um menschliche Rezensenten zu täuschen.

Die legitimeren Verwendungen von ChatGPT bei der Vorbereitung von Artikeln haben bereits dazu geführt, dass es als Co-Autor einer Handvoll Artikel genannt wird.

Die plötzliche Ankunft von ChatGPT hat unter den Publishern zu einer Reaktion geführt. Am Donnerstag kündigte Holden Thorp, der Chefredakteur der führenden US-Zeitschrift Science, eine aktualisierte Redaktionsrichtlinie an, die die Verwendung von Texten aus ChatGPT untersagt und klarstellt, dass das Programm nicht als Autor aufgeführt werden könne.

„Angesichts der Aufregung, die sich darum entwickelt hat, ist es eine gute Idee, absolut klarzustellen, dass wir ChatGPT nicht erlauben werden, ein Autor zu sein oder seinen Text in Zeitungen zu verwenden“, sagte Thorp.

Führende wissenschaftliche Zeitschriften verlangen von den Autoren, dass sie ein Formular unterzeichnen, in dem sie erklären, dass sie für ihren Beitrag zur Arbeit verantwortlich sind. Da ChatGPT dies nicht kann, kann es kein Autor sein, sagt Thorp.

Lesen Sie auch  Der iPhone Auto-Tracking Stand Pro von Belkin lässt Sie nie aus den Augen

Aber selbst die Verwendung von ChatGPT bei der Erstellung einer Arbeit sei problematisch, glaubt er. ChatGPT macht viele Fehler, die ihren Weg in die Literatur finden könnten, sagt er, und wenn Wissenschaftler sich auf KI-Programme verlassen, um Literaturrezensionen zu erstellen oder ihre Ergebnisse zusammenzufassen, könnten der richtige Kontext der Arbeit und die gründliche Prüfung, die die Ergebnisse verdienen, möglich sein verloren sein. „Das ist die entgegengesetzte Richtung, in die wir gehen müssen“, sagte er.

Andere Verlage haben ähnliche Änderungen vorgenommen. Am Dienstag hat Springer-Nature, das fast 3.000 Zeitschriften herausgibt, seine Richtlinien aktualisiert und erklärt, dass ChatGPT nicht als Autor aufgeführt werden kann. Aber der Herausgeber hat ChatGPT nicht vollständig verboten. Das Tool und andere ähnliche können weiterhin bei der Erstellung von Papieren verwendet werden, vorausgesetzt, dass alle Details im Manuskript offengelegt werden.

„Die spezifische Entwicklung, auf die wir unbedingt reagieren mussten, war die Tatsache, dass das Tool so ziemlich plötzlich als Co-Autor auftauchte“, sagte Magdalena Skipper, Chefredakteurin von Nature.

Skipper glaubt, dass ChatGPT und ähnliche KI-Tools mit den richtigen Leitplanken für die Wissenschaft von Vorteil sein könnten, nicht zuletzt bei der Angleichung der Wettbewerbsbedingungen für Nicht-Muttersprachler, die KI-Programme verwenden könnten, um die Sprache in ihren Arbeiten flüssiger zu machen.

Elsevier, das etwa 2.800 Zeitschriften herausgibt, darunter Cell und The Lancet, vertritt eine ähnliche Haltung wie Springer-Nature. Seine Richtlinien erlauben die Verwendung von KI-Tools, „um die Lesbarkeit und Sprache des Forschungsartikels zu verbessern, aber nicht um Schlüsselaufgaben zu ersetzen, die von den Autoren erledigt werden sollten, wie das Interpretieren von Daten oder das Ziehen wissenschaftlicher Schlussfolgerungen“, sagte Andrew Davis von Elsevier und fügte hinzu dass Autoren angeben müssen, ob und wie sie KI-Tools verwendet haben.

Michael Eisen, der Chefredakteur von eLife, sagte, ChatGPT könne kein Autor sein, aber er sehe seine Übernahme als unvermeidlich an. „Ich denke, die bessere Frage ist nicht, ob man es erlaubt, sondern wie man damit umgeht, dass es benutzt wird“, sagte er. „Zumindest für den Moment ist es am wichtigsten, dass die Autoren sehr offen über seine Verwendung sprechen und beschreiben, wie es verwendet wurde, und dass wir klarstellen, dass sie mit der Verwendung des Tools die Verantwortung für seine Ergebnisse übernehmen.“

Sandra Wachter, Professorin für Technologie und Regulierung an der University of Oxford, sagte: „Es ist großartig zu sehen, dass Verlage aktiv werden. ChatGPT ermöglicht es, Ecken und Kanten zu kürzen, und dies ist besonders beunruhigend, wenn der vorgeschlagene Inhalt nicht streng doppelt überprüft, sondern nur als korrekt angenommen wird. Dies kann zu Fehlinformationen und Junk Science führen. Ich denke, dass viele andere Sektoren wie Bildung, Kunst und Journalismus über ähnliche Schritte nachdenken müssen, weil sie vor ähnlichen Herausforderungen stehen.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.