ChatGPT Creator veröffentlicht Tool zur Erkennung von KI-generiertem Text, nennt es „unzuverlässig“

Das Startup hinter dem viralen Chatbot ChatGPT stellte ein Tool zur Erkennung von Text vor, der von künstlicher Intelligenz generiert wurde, angesichts wachsender Bedenken, dass die Technologie von Betrügern, Spammern und anderen missbraucht werden könnte.

Aber OpenAI sagte, dass sein sogenannter KI-Klassifikator selbst Bot-geschriebenen Text in fast drei Viertel der Fälle nicht erkennt.

Das in San Francisco ansässige Startup, das ChatGPT im November ins Leben gerufen hat und kürzlich eine mehrjährige Multimilliarden-Dollar-Partnerschaft mit Microsoft angekündigt hat Corp.

MSFT 2,10 %

, veröffentlichte das Erkennungstool am Dienstag. In einem Blogbeitrag heißt es, dass das Tool entwickelt wurde, um Menschen dabei zu helfen, zwischen Texten zu unterscheiden, die von einem Menschen geschrieben wurden, und einer Reihe von Programmen für künstliche Intelligenz – nicht nur ChatGPT. OpenAI sagte, dass sein neues Tool in Bewertungen 26 % der von KI geschriebenen Texte korrekt als „wahrscheinlich KI-geschrieben“ identifiziert habe. Es heißt, der Klassifikator habe in 9 % der Fälle auch falsch positive Ergebnisse gehabt, in denen er von Menschen geschriebenen Text fälschlicherweise als KI-geschrieben gekennzeichnet habe.

„Unser Klassifikator ist nicht zuverlässig“, sagte das Unternehmen und bezeichnete ihn als „work-in-progress“.

Das Tool allein ist nicht gut genug, obwohl es verwendet werden kann, um Methoden zu ergänzen, auf die sich Pädagogen, Arbeitgeber und andere verlassen, um die Quelle eines Textes zu bestimmen, sagte OpenAI.

„Obwohl es unmöglich ist, alle KI-geschriebenen Texte zuverlässig zu erkennen, glauben wir, dass gute Klassifikatoren falsche Behauptungen, die KI-generierten Texte von einem Menschen geschrieben haben, entschärfen können“, sagte das Unternehmen.

Lesen Sie auch  Arbeitgeber und Vermieter im Vereinigten Königreich müssen mit einem starken Anstieg der Bußgelder für „illegale Einwanderer“ rechnen

ChatGPT wurde zu einer viralen Sensation aufgrund seiner Fähigkeit, in Sekundenschnelle menschlich klingende Essays, Gedichte, Drehbücher und Verkaufsgespräche zu praktisch jedem Thema zu produzieren.

Microsoft investierte in OpenAI in den Jahren 2019 und 2021, bevor es letzte Woche die bedeutende Ausweitung seiner Partnerschaft ankündigte, und hat angekündigt, die Technologie des Unternehmens in viele seiner Produkte zu integrieren.

Kurz nach der Veröffentlichung von ChatGPT wurde das Potenzial für den Missbrauch deutlich, um Dinge wie die Verbreitung von Fehlinformationen und das Schreiben von Spam zu tun. Schulen und Pädagogen haben auch vor der Möglichkeit gewarnt, dass Schüler damit Aufsätze oder andere Aufgaben schreiben können, die ihnen zugewiesen wurden. Im Dezember bestand die Software im Rahmen eines Forschungsexperiments alle drei Teile der US Medical Licensing Examination.

Einige Schulen sind dazu übergegangen, Schülern die Verwendung von ChatGPT zu verbieten, während andere versuchen, es anzunehmen. Edward Tian, ​​Senior an der Princeton University, entwickelte eine Software namens GPTZero, um zu versuchen, von der Software erzeugte Schrift zu erkennen.

OpenAI sagte, es habe bei der Entwicklung seines neuesten Klassifikator-Tools Schulen im Auge gehabt. „Wir erkennen an, dass die Identifizierung von KI-geschriebenem Text ein wichtiger Diskussionspunkt unter Pädagogen war, und ebenso wichtig ist es, die Grenzen und Auswirkungen von KI-generierten Textklassifikatoren im Klassenzimmer zu erkennen“, heißt es.

ChatGPT, der neue künstlich intelligente Chatbot von OpenAI, kann Aufsätze zu komplexen Themen schreiben. Joanna Stern vom germanic kehrte für einen Tag zur AP-Literatur der High School zurück, um zu sehen, ob sie die Klasse nur mit KI bestehen könnte. Fotoillustration: Elena Scotti

Journalisten, Forscher und andere können das Tool auch verwenden, um KI-generierte Inhalte zu erkennen, sagte das Unternehmen.

Laut OpenAI ist ChatGPT bei kurzen Texten immer noch unzuverlässig und längere Texte werden manchmal falsch gekennzeichnet. Es schneidet in anderen Sprachen als Englisch „deutlich schlechter“ ab und ist „unzuverlässig“ bei der Erkennung von KI-Einsatz in Computercode.

Ein weiteres Problem ist, dass das Tool nicht leicht erkennen kann, ob eine Liste von Fakten – zum Beispiel US-Hauptstädte – von einer Person oder einer KI verfasst wurde, da die richtige Antwort dieselbe wäre, sagte OpenAI. KI-geschriebener Text kann auch bearbeitet werden, um den Klassifikator zu umgehen, sagte das Unternehmen.

Diese Art von Vorbehalten wirft Fragen darüber auf, wie nützlich das Tool sein kann, sagte das Unternehmen.

„Klassifikatoren wie der unsere können basierend auf erfolgreichen Angriffen aktualisiert und neu trainiert werden“, sagte OpenAI. „Aber es ist unklar, ob die Erkennung langfristig einen Vorteil bringt.“

Mit dem Feedback der Benutzer hofft OpenAI, das Tool zu verbessern. Es sagte, es habe sich an US-Pädagogen gewandt, um die Fähigkeiten und Grenzen von ChatGPT zu diskutieren.

„Dies sind wichtige Gespräche, die wir führen müssen, da es Teil unserer Mission ist, große Sprachmodelle sicher und in direktem Kontakt mit betroffenen Gemeinschaften bereitzustellen“, sagte das Unternehmen.

Schreiben Sie an Sarah E. Needleman unter [email protected]

Copyright ©2022 Dow Jones & Company, Inc. Alle Rechte vorbehalten. 87990cbe856818d5eddac44c7b1cdeb8

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.