KI-Objekt! Richter können ChatGPT bei Gerichtsentscheidungen in England und Wales nutzen – obwohl die Technologie dazu neigt, Scheinfälle zu erfinden

Es ist einer der entscheidendsten Momente eines jeden Gerichtsverfahrens, möglicherweise wenn ein Krimineller herausfindet, dass er sein Leben hinter Gittern verbringt.

Aber trotz der Bedeutung des Urteils des Richters wird es – zumindest teilweise – an ChatGPT verlagert.

Richter in England und Wales können den KI-Chatbot nutzen, um bei der Ausarbeitung ihrer Gerichtsentscheidungen zu helfen, berichtet der Telegraph.

Und das, obwohl ChatGPT dazu neigt, falsche Fälle zu erfinden, und das Tool auf seiner Zielseite sogar zugibt, dass es „Fehler machen kann“.

ChatGPT, das bereits von einem britischen Richter als „sehr nützlich“ beschrieben wurde, dringt zunehmend in die Rechtsbranche ein, was bei einigen Experten zu Besorgnis führt.

Gemäß den Leitlinien des Justizamts können Richter in England und Wales ChatGPT nutzen, um beim Verfassen von Gerichtsurteilen zu helfen

Der neue offizielle Leitfaden des Justizamts, der Tausenden von Richtern vorgelegt wurde, weist darauf hin, dass KI zum Zusammenfassen großer Textmengen oder für Verwaltungsaufgaben eingesetzt werden kann.

Diese gelten als grundlegende Arbeitsaufgaben, aber wichtigere Teile des Prozesses – wie die Durchführung von Rechtsrecherchen oder die Durchführung von Rechtsanalysen – dürfen nicht auf Chatbots verlagert werden, heißt es in den Leitlinien.

Laut Master of the Rolls Sir Geoffrey Vos bietet KI „erhebliche Chancen bei der Entwicklung eines besseren, schnelleren und kostengünstigeren digitalen Justizsystems“.

„Die Technologie wird sich nur weiterentwickeln und die Justiz muss verstehen, was vor sich geht“, sagte er.

Dies gilt, obwohl auch zugegeben wird, dass die Technologie dazu neigt, Scheinfälle zu erfinden, und dass sie am Ende von der Öffentlichkeit in großem Umfang genutzt werden könnte, um Rechtsfälle vorzubringen.

Lesen Sie auch  Laut Lightning GM wird Steven Stamkos mindestens bis zum Ende der Saison im Team bleiben

„Richter müssen sich wie alle anderen darüber im Klaren sein, dass KI sowohl ungenaue als auch genaue Antworten geben kann“, fügte Sir Vos hinzu.

Richter wurden auch vor Anzeichen dafür gewarnt, dass rechtliche Argumente möglicherweise von einem KI-Chatbot vorbereitet wurden.

Die Nützlichkeit von ChatGPT kennt keine Grenzen, da es zum Verfassen von Aufsätzen, zum Codieren von Computerprogrammen, zum Verschreiben von Medikamenten und sogar zum Führen philosophischer Gespräche verwendet wird

Die Nützlichkeit von ChatGPT kennt keine Grenzen, da es zum Verfassen von Aufsätzen, zum Codieren von Computerprogrammen, zum Verschreiben von Medikamenten und sogar zum Führen philosophischer Gespräche verwendet wird

LESEN SIE MEHR Kolumbianischer Richter nutzt ChatGPT, um zunächst eine rechtliche Entscheidung zu treffen

Juan Manuel Padilla Garcia, ein Richter in Cartagena, sagte, er habe ChatGPT genutzt, um eine Entscheidung in einem Fall zu treffen, in dem es um ein autistisches Kind ging

Juan Manuel Padilla Garcia, ein Richter in Cartagena, sagte, er habe ChatGPT genutzt, um eine Entscheidung in einem Fall zu treffen, in dem es um ein autistisches Kind ging

Werbung

Sir Vos, Leiter der Ziviljustiz in England und Wales, sagte, die Leitlinien seien die ersten ihrer Art in der Gerichtsbarkeit.

Laut Reuters sagte er Reportern bei einem Briefing vor der Veröffentlichung der Leitlinien, dass KI „große Chancen für das Justizsystem bietet“.

„Da es so neu ist, müssen wir sicherstellen, dass Richter auf allen Ebenen verstehen, was es tut, wie es es tut und was es nicht kann“, fügte er hinzu.

Santiago Paz, Mitarbeiter der Anwaltskanzlei Dentons, hat den verantwortungsvollen Umgang von ChatGPT durch Anwälte gefordert.

„Auch wenn ChatGPT-Antworten überzeugend klingen können, ist die Wahrheit, dass die Möglichkeiten der Plattform immer noch sehr begrenzt sind“, sagte er.

„Anwälte sollten sich darüber im Klaren sein, dass ChatGPT kein Rechtsexperte ist.“

Jaeger Glucina, Stabschef der Anwaltstechnologiefirma Luminance, sagte, dass generative KI-Modelle wie ChatGPT „nicht als Faktenquelle herangezogen werden können“.

Lesen Sie auch  Sean Payton macht den richtigen Schritt, um Courtland Sutton und Jerry Jeudy zu halten

„Vielmehr sollte man sie als belesene Freunde und nicht als Experten auf einem bestimmten Gebiet betrachten“, sagte er gegenüber MailOnline.

„Das Justizamt hat gut daran getan, dies anzuerkennen, indem es die Wirksamkeit von ChatGPT für einfache, textbasierte Aufgaben wie das Erstellen von Zusammenfassungen hervorhob, gleichzeitig jedoch vor der Verwendung für speziellere Arbeiten warnte.“

Ein britischer Richter hat ChatGPT bereits als „sehr nützlich“ beschrieben, da er zugab, es zu verwenden, als er kürzlich ein Urteil des Berufungsgerichts verfasste.

Lord Justice Birss sagte, er habe den Chatbot verwendet, als er einen Rechtsbereich zusammenfasste, mit dem er bereits vertraut war.

Und ein kolumbianischer Richter ging noch einen Schritt weiter, indem er ChatGPT nutzte, um seine Entscheidung zu treffen, und zwar erstmals auf juristischem Wege.

Programme wie ChatGPT und Googles Bard, sein Hauptkonkurrent, sind praktisch, um ein paar einfache Fakten zu lernen, aber ein übermäßiges Vertrauen in die Technologie kann für die Benutzer erheblich nach hinten losgehen.

Anfang des Jahres geriet ein New Yorker Anwalt in Schwierigkeiten, weil er einen fehlerbehafteten Schriftsatz eingereicht hatte, den er mit ChatGPT verfasst hatte.

Steven Schwartz reichte im Rahmen einer Klage gegen Avianca Airlines einen 10-seitigen Schriftsatz mit mindestens sechs völlig fiktiven Fällen ein.

Herr Schwartz sagte, er „bedauere sehr“, dass er sich auf den Bot verlassen habe und sei sich „der Möglichkeit nicht bewusst, dass seine Inhalte falsch sein könnten“.

Andere KI-Tools als ChatGPT wurden in der Rechtsbranche eingesetzt, allerdings nicht ohne Kontroversen.

Auch in diesem Jahr haben zwei von der Lawtech-Firma Luminance entwickelte KIs erfolgreich einen Vertrag ohne jegliche menschliche Beteiligung ausgehandelt.

Lesen Sie auch  Für Opfer und Überlebende häuslicher Gewalt kann eine Verletzung der Daten- oder Privatsphäre außerordentlich gefährlich sein

Die KIs diskutierten hin und her über die Einzelheiten einer echten Geheimhaltungsvereinbarung zwischen dem Unternehmen und proSapient, einem der Kunden von Luminance.

Auch der weltweit erste Roboteranwalt geriet in rechtliche Schwierigkeiten, nachdem er verklagt wurde, weil er ohne Jurastudium tätig war.

Der KI-gestützten App DoNotPay wird in einer Sammelklage der US-Anwaltskanzlei Edelson vorgeworfen, sie gebe sich „als zugelassener Arzt aus“.

DoNotPay-Gründer Joshua Browder sagt jedoch, dass die Behauptungen „unbegründet“ seien.

Mit der Veröffentlichung des hochentwickelten Modells Gemini macht Google seinen kühnsten Schritt im Kampf um die Chatbot-Vorherrschaft

Google hat im Kampf gegen die Chatbots einen mutigen Schritt gemacht, indem es die angeblich leistungsstärkste KI aller Zeiten namens Gemini veröffentlicht hat.

Gemini – das für den Chatbot Bard von Google entwickelt wurde – übertrifft GPT-4, das ChatGPT antreibt, in den meisten kognitiven Tests.

Der Bot kann Benutzern sagen, wann ein Omelett gekocht ist, das beste Design für ein Papierflugzeug vorschlagen oder einem Fußballspieler helfen, seine Fähigkeiten zu verbessern.

Gemini kann mehrere Bilder mit Text ausgeben, wenn eine Eingabeaufforderung aus Bild und Text gegeben wird

Gemini kann mehrere Bilder mit Text ausgeben, wenn eine Eingabeaufforderung aus Bild und Text gegeben wird

Vor allem aber ist es in Mathematik und Physik begabt, was die Hoffnung nährt, dass es zu wissenschaftlichen Durchbrüchen führen könnte, die das Leben der Menschen verbessern.

Es erscheint kurz nach Amazons Q-Chatbot für Arbeitnehmer und Elon Musks Vorschau auf den Grok-Chatbot für Twitter.

Mehr lesen

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.