Sie laufen nun Gefahr, für KI-Fehler bestraft zu werden

Weder ChatGPT noch ein ähnliches System, das auf künstlicher Intelligenz basiert, ist unfehlbar. Aber komm schon, nicht einmal annähernd. Wissenschaftler und Forscher warnen seit Jahren vor den Mängeln dieser Technologie. Auch OpenAI, Entwickler der sprechenden Maschine, warnt den Nutzer, dass es zu Fehlern kommen kann. Deshalb muss man sehr vorsichtig sein, wenn man das Tool zum Generieren von Inhalten verwendet. Vor allem, wenn es nicht nur Spaß macht und der Job des Benutzers davon abhängt..

Steven A. Schwartz, ein Anwalt mit Büro in New York, achtete nicht auf dieses Detail, als er das Tool nutzte, um nach Präzedenzfällen für einen Fall zu suchen, in dem der Anwalt der US-Fluggesellschaft Avianca gegenüberstand.

Wie „The New York Times“ berichtet, wurde die Klage gegen das Unternehmen im Jahr 2019 vom Passagier Roberto Mata eingereicht, der behauptete, er habe sich während eines Fluges nach New York durch den Aufprall eines Metallkarrens eine Beinverletzung zugezogen.

Avianca forderte den für den Fall zuständigen Richter auf, den Fall abzuweisen, worauf Schwartz, der über drei Jahrzehnte Berufserfahrung verfügt, mit einem zehnseitigen Schriftsatz konterte, in dem mehr als ein halbes Dutzend relevante Gerichtsentscheidungen zitiert wurden. Das Problem? Weder der Richter noch die Verteidigung der Fluggesellschaft konnten diese Informationen überprüfen. und das alles nur, weil die Maschine, und es ist nicht das erste Mal, dass es passiert ist, er hatte sie erfunden.

In einer eidesstattlichen Erklärung vor dem Gericht in Manhattan verteidigte sich der Anwalt am Donnerstag letzter Woche vor dem für den Fall Mata vs. Avianca zuständigen Richter, P. Kevin Castel, der nicht die Absicht hatte, das Gericht in die Irre zu führen. Schwartz behauptete, er habe ChatGPT nie genutzt, „daher war ihm die Möglichkeit nicht bewusst, dass der Inhalt gefälscht sein könnte.“

Lesen Sie auch  Olympische Spiele Paris 2024: Razzia gegen das Organisationskomitee und die für die Eröffnungsfeierlichkeiten zuständigen Behörden

Castel wies seinerseits darauf hin, dass er sich einer „beispiellosen“ Situation gegenübersehe, und bemerkte, dass der vom Anwalt vorgelegte Bericht voller „falscher Gerichtsentscheidungen, falscher Zitate und falscher Referenzen“ sei. Nun kann Schwartz eine Sanktion auferlegen, die am 8. Juni im Publikum debattiert wird.

Vertraue nichts

Es ist nicht das erste Mal, dass die künstliche Intelligenz von OpenAI große Fehler macht. Und letztendlich handelt es sich um Systeme, die mit riesigen Datenmengen trainiert werden, darunter natürlich auch Informationen, die falsch und ungenau sein können.

Vor etwas mehr als einem Monat drohte Brian Hood, der Bürgermeister einer australischen Kleinstadt, OpenAI wegen ChatGPT-Ergebnissen zu verklagen, in denen fälschlicherweise behauptet wurde, er sei 2011 wegen Bestechung ausländischer Beamter zu 30 Monaten Gefängnis verurteilt worden. Unterdessen drohte Anfang des Monats ein Professor der University of Texas, wie die „Washington Post“ enthüllte, allen Studenten seiner Klasse, ihre Abschlüsse abzusagen, nur weil die KI ihm mitgeteilt hatte, dass alle ihre Arbeiten kopiert worden seien. Und das, obwohl das System nicht in der Lage ist, eine solche abschließende Bewertung vorzunehmen.

Und die Fälle von Missbrauch und Versagen des Tools gehen weiter. Im April berichtete die „Post“ über den Fall eines Juraprofessors, der von einem Kollegen erfahren hatte, dass der Smart-Chat von OpenAI falsche Informationen generiert hatte, in denen ihm sexuelles Fehlverhalten vorgeworfen wurde.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.