3 Dinge, die Sie über die Verwendung von ChatGPT wie ein Therapeut wissen sollten

Freddie Chipres konnte die Melancholie nicht abschütteln, die an den Rändern seines ansonsten „gesegneten“ Lebens lauerte. Er fühlte sich gelegentlich einsam, besonders wenn er von zu Hause aus arbeitete. Der verheiratete 31-jährige Hypothekenmakler fragte sich, ob etwas nicht stimmte: Könnte er depressiv sein?

Chipres kannte Freunde, die positive Erfahrungen mit einem Therapeuten gemacht hatten. Er war offener für die Idee als je zuvor, aber es würde auch bedeuten, jemanden zu finden und einen Termin zu vereinbaren. Wirklich, er wollte nur ein kleines Feedback über seine geistige Gesundheit.

An diesem Punkt wandte sich Chipres an ChatGPT(Öffnet in einem neuen Fenster), ein Chatbot mit künstlicher Intelligenz, der überraschend gesprächig antwortet. Nach der letzten Iteration des Chatbots, die im Dezember gestartet wurde, sah er sich einige YouTube-Videos an, die darauf hindeuteten, dass ChatGPT nicht nur für Dinge wie das Schreiben von beruflichen Briefen und Recherchen zu verschiedenen Themen nützlich sein könnte, sondern auch für die Bearbeitung psychischer Probleme.

ChatGPT wurde nicht für diesen Zweck entwickelt, was Fragen darüber aufwirft, was passiert, wenn Menschen es zu einem Ad-hoc-Therapeuten machen. Während der Chatbot sich mit psychischer Gesundheit auskennt und mit Empathie reagieren kann, kann er Benutzer mit einem bestimmten psychischen Gesundheitszustand nicht diagnostizieren und auch keine zuverlässigen und genauen Behandlungsdetails liefern. Tatsächlich sind einige Experten für psychische Gesundheit besorgt, dass Menschen, die Hilfe von ChatGPT suchen, enttäuscht oder irregeführt werden oder ihre Privatsphäre gefährden könnten, indem sie sich dem Chatbot anvertrauen.

SIEHE AUCH:

6 gruselige Dinge, für die ChatGPT bereits verwendet wurde

OpenAI, das Unternehmen, das ChatGPT hostet, lehnte es ab, auf spezifische Fragen von germanic zu diesen Bedenken zu antworten. Ein Sprecher stellte fest, dass ChatGPT darauf trainiert wurde, unangemessene Anfragen abzulehnen und bestimmte Arten von unsicheren und sensiblen Inhalten zu blockieren.

Nach Chipres‘ Erfahrung hat der Chatbot nie unpassende Antworten auf seine Nachrichten gegeben. Stattdessen fand er ChatGPT erfrischend hilfreich. Zu Beginn googelte Chipres verschiedene Therapiestile und entschied, dass er am meisten von der kognitiven Verhaltenstherapie profitieren würde(Öffnet in einem neuen Fenster) (CBT), die sich typischerweise darauf konzentriert, negative Denkmuster zu identifizieren und neu zu formulieren. Er forderte ChatGPT auf, auf seine Fragen zu antworten, wie es ein CBT-Therapeut tun würde. Der Chatbot verpflichtet, jedoch mit einer Erinnerung, professionelle Hilfe in Anspruch zu nehmen.

Chipres war verblüfft, wie schnell der Chatbot ihm gute und praktische Ratschläge gab, wie einen Spaziergang zu machen, um seine Stimmung zu verbessern, Dankbarkeit zu üben, eine Aktivität zu machen, die ihm Spaß machte, und durch Meditation und langsames, tiefes Atmen Ruhe zu finden. Die Ratschläge liefen auf Erinnerungen an Dinge hinaus, die er auf der Strecke gelassen hatte; ChatGPT half Chipres, seine ruhende Meditationspraxis wieder aufzunehmen.

Lesen Sie auch  Umbildung: Rousseau zu Gesundheit, Attal zu Bildung, Bergé zu Solidarität ...

Er schätzte, dass ChatGPT ihn nicht mit Anzeigen und Affiliate-Links bombardierte, wie viele der Webseiten zur psychischen Gesundheit, auf die er stieß. Chipres gefiel auch, dass es bequem war und dass es simulierte, mit einem anderen Menschen zu sprechen, was es deutlich davon abhob, das Internet nach Ratschlägen zur psychischen Gesundheit zu durchsuchen.

„Es ist, als würde ich mich mit jemandem unterhalten. Wir gehen hin und her“, sagt er und nennt ChatGPT vorübergehend und versehentlich eine Person. „Dieses Ding hört zu, es achtet darauf, was ich sage … und gibt mir darauf basierende Antworten.“

Die Erfahrung von Chipres mag für Menschen ansprechend klingen, die keinen Zugang zu professioneller Beratung oder Therapie haben können oder wollen, aber Experten für psychische Gesundheit sagen, dass sie ChatGPT mit Vorsicht konsultieren sollten. Hier sind drei Dinge, die Sie wissen sollten, bevor Sie versuchen, den Chatbot zu verwenden, um über psychische Gesundheit zu sprechen.

1. ChatGPT wurde nicht entwickelt, um als Therapeut zu fungieren und kann Sie nicht diagnostizieren.

Während ChatGPT eine Menge Text produzieren kann, kommt es noch nicht der Kunst nahe, sich mit einem Therapeuten zu beschäftigen. Dr. Adam S. Miner, ein klinischer Psychologe und Epidemiologe, der sich mit künstlicher Gesprächsintelligenz beschäftigt, sagt, dass Therapeuten häufig einräumen, wenn sie die Antwort auf die Frage eines Klienten nicht kennen, im Gegensatz zu einem scheinbar allwissenden Chatbot.

Diese therapeutische Praxis soll dem Klienten helfen, seine Umstände zu reflektieren, um eigene Einsichten zu entwickeln. Ein Chatbot, der nicht für die Therapie entwickelt wurde, hat diese Fähigkeit jedoch nicht unbedingt, sagt Miner, klinischer Assistenzprofessor für Psychiatrie und Verhaltenswissenschaften an der Stanford University.

Wichtig ist, dass Miner feststellt, dass es Therapeuten zwar gesetzlich verboten ist, Kundeninformationen weiterzugeben, Personen, die ChatGPT als Resonanzboden verwenden, jedoch nicht über denselben Datenschutz verfügen.

„Wir müssen in unseren Erwartungen realistisch sein, wenn es sich um erstaunlich leistungsstarke und beeindruckende Sprachmaschinen handelt, aber es sind immer noch Softwareprogramme, die unvollkommen sind und auf Daten trainiert werden, die nicht für jede Situation geeignet sind“, sagt er . „Das gilt besonders für sensible Gespräche über psychische Gesundheit oder Stresserfahrungen.“

Dr. Elena Mikalsen, Leiterin der pädiatrischen Psychologie am Kinderkrankenhaus von San Antonio, hat kürzlich versucht, ChatGPT mit den gleichen Fragen abzufragen, die sie jede Woche von Patienten erhält. Jedes Mal, wenn Mikalsen versuchte, dem Chatbot eine Diagnose zu entlocken, wies dieser sie ab und empfahl stattdessen eine professionelle Betreuung.

Lesen Sie auch  Fall Palmade: Vater und Sohn, schwangere Frau … was wir über den Gesundheitszustand der Opfer wissen

Dies ist wohl eine gute Nachricht. Schließlich kommt eine Diagnose idealerweise von einem Experten, der diesen Anruf aufgrund der spezifischen Krankengeschichte und Erfahrungen einer Person tätigen kann. Gleichzeitig sagt Mikalsen, dass Menschen, die auf eine Diagnose hoffen, möglicherweise nicht erkennen, dass zahlreiche klinisch validierte Screening-Tools online verfügbar sind(Öffnet in einem neuen Fenster).

Beispielsweise führt eine mobile Google-Suche nach „klinische Depression“ sofort zu einem Screener(Öffnet in einem neuen Fenster) bekannt als PHQ-9, der dabei helfen kann, den Depressionsgrad einer Person zu bestimmen. Ein medizinisches Fachpersonal kann diese Ergebnisse überprüfen und der Person bei der Entscheidung helfen, was als nächstes zu tun ist. ChatGPT stellt Kontaktinformationen für die 988 Suicide and Crisis Lifeline bereit(Öffnet in einem neuen Fenster) und Krisentextzeile(Öffnet in einem neuen Fenster) Wenn direkt auf Suizidgedanken verwiesen wird, kann die Sprache, die der Chatbot sagt, gegen seine Inhaltsrichtlinie verstoßen.

2. ChatGPT mag sich mit psychischer Gesundheit auskennen, ist aber nicht immer umfassend oder richtig.

Als Mikalsen ChatGPT verwendete, fiel ihr auf, wie der Chatbot manchmal ungenaue Informationen lieferte. (Andere haben die Antworten von ChatGPT kritisiert, da sie mit entwaffnender Zuversicht präsentiert wurden.) Es konzentrierte sich auf Medikamente, als Mikalsen nach der Behandlung von Zwangsstörungen im Kindesalter fragte, aber die klinischen Richtlinien geben dies eindeutig an(Öffnet in einem neuen Fenster) dass eine Art kognitive Verhaltenstherapie der Goldstandard ist.

Mikalsen bemerkte auch, dass sich eine Antwort auf postpartale Depressionen nicht auf schwerere Formen der Erkrankung wie postpartale Angst und Psychose bezog. Im Vergleich dazu enthielt ein MayoClinic-Erklärer zu diesem Thema diese Informationen und gab Links zu Hotlines für psychische Gesundheit.

Es ist unklar, ob ChatGPT in Bezug auf klinische Informationen und offizielle Behandlungsrichtlinien geschult wurde, aber Mikalsen verglich viele seiner Gespräche mit dem Durchsuchen von Wikipedia. Die allgemeinen, kurzen Absätze mit Informationen ließen Mikalsen das Gefühl, dass es keine vertrauenswürdige Quelle für Informationen zur psychischen Gesundheit sein sollte.

“Das ist insgesamt meine Kritik”, sagt sie. “Es liefert noch weniger Informationen als Google.”

3. Es gibt Alternativen zur Verwendung von ChatGPT für die psychische Gesundheit.

Dr. Elizabeth A. Carpenter-Song, eine medizinische Anthropologin, die sich mit psychischer Gesundheit befasst, sagte in einer E-Mail, dass es völlig verständlich sei, warum sich Menschen einer Technologie wie ChatGPT zuwenden. Ihre Forschung hat ergeben, dass Menschen besonders an der ständigen Verfügbarkeit digitaler Tools für psychische Gesundheit interessiert sind, was ihrer Meinung nach so ist, als hätte sie einen Therapeuten in der Tasche.

Lesen Sie auch  Chhattisgarhs neue BJP-Regierung nimmt den umstrittenen Kohlebergbau in Adivasi-Gebieten wieder auf

„Technologie, einschließlich Dinge wie ChatGPT, scheint einen barrierefreien Weg zu bieten, um auf Antworten zuzugreifen und möglicherweise die psychische Gesundheit zu unterstützen.“ schrieb Carpenter-Song, ein wissenschaftlicher außerordentlicher Professor in der Abteilung für Anthropologie am Dartmouth College. „Aber wir müssen bei jedem Ansatz für komplexe Probleme vorsichtig bleiben, der wie eine ‚Wunderwaffe‘ aussieht.“

„Wir müssen bei jedem Ansatz für komplexe Probleme vorsichtig bleiben, der wie eine ‚Wunderwaffe‘ aussieht.“

– Dr. Elizabeth A. Carpenter-Song, wissenschaftliche außerordentliche Professorin, Dartmouth College

Carpenter-Song merkte an, dass Untersuchungen darauf hindeuten, dass digitale Tools für die psychische Gesundheit am besten als Teil eines „Pflegespektrums“ eingesetzt werden.

Diejenigen, die mehr digitale Unterstützung in einem Konversationskontext ähnlich wie ChatGPT suchen, könnten Chatbots in Betracht ziehen, die speziell für die psychische Gesundheit entwickelt wurden, wie Woebot(Öffnet in einem neuen Fenster) und Wysa(Öffnet in einem neuen Fenster)die eine KI-geführte Therapie gegen Gebühr anbieten.

Menschen, die online nach Ermutigung suchen, stehen auch digitale Peer-Support-Dienste zur Verfügung, die sie mit Zuhörern verbinden, die idealerweise bereit sind, diese einfühlsam und ohne Wertung anzubieten. Einige, wie Wisdo(Öffnet in einem neuen Fenster) und Kreise(Öffnet in einem neuen Fenster)erfordern eine Gebühr, während andere, wie TalkLife(Öffnet in einem neuen Fenster) und Koko(Öffnet in einem neuen Fenster), sind frei. Diese Apps und Plattformen sind jedoch weit verbreitet und auch nicht zur Behandlung psychischer Erkrankungen gedacht.

Im Allgemeinen ist Carpenter-Song der Ansicht, dass digitale Tools mit anderen Formen der Unterstützung wie psychischer Gesundheitsversorgung, Wohnen und Beschäftigung gekoppelt werden sollten, „um sicherzustellen, dass Menschen Möglichkeiten für eine sinnvolle Genesung haben“.

„Wir müssen mehr darüber verstehen, wie diese Tools unter welchen Umständen und für wen nützlich sein können, und wachsam bleiben, um ihre Grenzen und potenziellen Schäden aufzudecken“, schrieb Carpenter-Song.

Wenn Sie Suizidgedanken haben oder eine psychische Krise erleben, sprechen Sie bitte mit jemandem. Sie erreichen die 988 Suicide and Crisis Lifeline unter 988; die Trans Lifeline unter 877-565-8860; oder das Trevor-Projekt unter 866-488-7386. Senden Sie eine SMS mit „START“ an die Krisentextzeile unter 741-741. Kontaktieren Sie die NAMI-HelpLine unter 1-800-950-NAMI, Montag bis Freitag von 10:00 bis 22:00 Uhr ET, oder per E-Mail [email protected]. Wenn Sie das Telefon nicht mögen, sollten Sie den 988 Suicide and Crisis Lifeline Chat unter verwenden krisenchat.org(Öffnet in einem neuen Fenster). Hier ist ein Liste der internationalen Ressourcen(Öffnet in einem neuen Fenster).

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.