Ein KI-Chatbot könnte Ihr nächster Therapeut sein. Wird es Ihrer psychischen Gesundheit tatsächlich helfen?

In den letzten Jahren sind 10.000 bis 20.000 Apps in den Bereich der psychischen Gesundheit eingedrungen und bieten an, die traditionelle Therapie zu „unterbrechen“. Angesichts der Aufregung um KI-Innovationen wie ChatGPT rückt die Behauptung in den Vordergrund, dass Chatbots psychische Gesundheitsversorgung bieten können.

Die Zahlen erklären, warum: Die Belastungen durch die Pandemie führten dazu, dass Millionen weiterer Amerikaner eine Behandlung suchten. Gleichzeitig besteht in den Vereinigten Staaten seit langem ein Mangel an Fachkräften für psychische Gesundheit. In mehr als der Hälfte aller Landkreise gibt es keine Psychiater. Angesichts des Mandats des Affordable Care Act, dass Versicherer eine gleichwertige Deckung zwischen psychischer und physischer Krankenversicherung bieten, besteht eine klaffende Kluft zwischen Nachfrage und Angebot.

Für Unternehmer stellt das einen Marktgewinn dar. Auf der South by Southwest-Konferenz im März, auf der Gesundheits-Startups ihre Produkte vorstellten, herrschte die geradezu religiöse Überzeugung, dass KI das Gesundheitswesen neu gestalten könnte, indem sie Apps und Maschinen anbietet, die alle Arten von Krankheiten diagnostizieren und behandeln und Ärzte und Krankenschwestern ersetzen könnten.

Leider fehlen im Bereich der psychischen Gesundheit Belege für die Wirksamkeit. Nur wenige der vielen Apps auf dem Markt verfügen über unabhängige Ergebnisstudien, die belegen, dass sie hilfreich sind. Die meisten wurden überhaupt nicht von der FDA geprüft. Obwohl sie zur Behandlung von Erkrankungen wie Angstzuständen, Aufmerksamkeitsdefizit-/Hyperaktivitätsstörungen und Depressionen oder zur Vorhersage suizidaler Tendenzen vermarktet werden, warnen viele Benutzer (im Kleingedruckten), dass sie „nicht als medizinische, verhaltensmedizinische oder sonstige Gesundheitsdienstleistung gedacht sind“. oder „kein von der FDA zugelassenes Produkt“.

Es gibt gute Gründe, angesichts dieses Marketing-Molochs vorsichtig zu sein.

Lesen Sie auch  Wie die Auswahl der Geschworenen im ersten Strafprozess gegen Donald Trump funktionieren wird

Vor Jahrzehnten sagte Joseph Weizenbaum, Professor am Massachusetts Institute of Technology und einer der Väter der künstlichen Intelligenz, voraus, dass KI niemals ein guter Therapeut sein würde, obwohl man sie so klingen lassen könnte. Tatsächlich war sein ursprüngliches KI-Programm, das in den 1960er Jahren entwickelt wurde, ein Psychotherapeut namens ELIZA, der Wort- und Mustererkennung in Kombination mit natürlicher Sprachprogrammierung nutzte, um wie ein Therapeut zu klingen:

Frau: Nun, mein Freund hat mich hierher gebracht.
ELIZA: Dein Freund hat dich hierher gebracht?
Frau: Er sagt, ich sei die meiste Zeit deprimiert.
ELIZA: Es tut mir leid zu hören, dass Sie deprimiert sind.
Frau: Das ist wahr. Ich bin unglücklich.
ELIZA: Glauben Sie, dass es Ihnen hilft, hierher zu kommen, um nicht unglücklich zu sein?

Obwohl ELIZAs „Erfolg“ als KI-Triumph gefeiert wurde, erschreckte er Weizenbaum, den ich einmal interviewt habe. Er sagte, die Schüler würden mit der Maschine interagieren, als wäre Eliza eine echte Therapeutin, während das, was er geschaffen hatte, „ein Partytrick“ sei, sagte er.

Er sah die Entwicklung weitaus ausgefeilterer Programme wie ChatGPT voraus. Aber „die Erfahrungen, die ein Computer unter solchen Umständen machen könnte, sind keine menschlichen Erfahrungen“, sagte er mir. „Der Computer wird zum Beispiel keine Einsamkeit in dem Sinne erfahren, wie wir ihn verstehen.“

Das Gleiche gilt für Angst oder Ekstase, Emotionen, die neurologisch so komplex sind, dass Wissenschaftler ihren neuronalen Ursprung nicht genau bestimmen konnten. Kann ein Chatbot die Übertragung erreichen, den empathischen Fluss zwischen Patient und Arzt, der für viele Therapieformen von zentraler Bedeutung ist?

Lesen Sie auch  Die Leichen von Covid-Opfern wurden „wie Giftmüll doppelt verpackt“, ihre Kleidung verbrannt und ihre Habseligkeiten in Tragetaschen von Tesco gesteckt, berichten Hinterbliebene auf Anfrage

„Der Kerngedanke der Medizin ist, dass es sich um eine Beziehung zwischen Mensch und Mensch handelt – und KI kann nicht lieben“, sagte Bon Ku, Direktor des Health Design Lab an der Thomas Jefferson University und Pionier der medizinischen Innovation. „Ich habe einen menschlichen Therapeuten, und der wird niemals durch KI ersetzt.“

Ku sagte, er würde es lieber sehen, wenn KI stattdessen eingesetzt würde, um die Aufgaben der Praktiker wie das Führen von Aufzeichnungen und die Dateneingabe zu reduzieren, um „den Menschen mehr Zeit für die Verbindung zu geben“.

Während sich einige Apps für die psychische Gesundheit letztendlich als wertvoll erweisen können, gibt es Hinweise darauf, dass einige schädlich sein können. Ein Forscher stellte fest, dass einige Benutzer diese Apps wegen ihres „skriptgesteuerten Charakters und ihrer mangelnden Anpassungsfähigkeit, die über lehrbuchmäßige Fälle von leichter Angst und Depression hinausgeht“, bemängelten.

Für Versicherer könnte es verlockend sein, Apps und Chatbots anzubieten, um die Gleichheitsvoraussetzung im Bereich der psychischen Gesundheit zu erfüllen. Schließlich wäre das eine kostengünstige und einfache Lösung im Vergleich zu der Schwierigkeit, ein Panel menschlicher Therapeuten anzubieten, zumal viele keine Versicherung abschließen, weil sie die Zahlungen der Versicherer für zu niedrig halten.

Vielleicht angesichts der Flut von KI, die auf den Markt kommt, kündigte das Arbeitsministerium letztes Jahr an, dass es seine Bemühungen verstärken werde, um eine bessere Einhaltung der Gleichheitsvorschrift im Bereich der psychischen Gesundheit durch die Versicherer sicherzustellen.

Auch die FDA sagte Ende letzten Jahres, sie beabsichtige, bei einer Reihe von Apps für die psychische Gesundheit, die sie als Medizinprodukte prüfen werde, „einen Durchsetzungsermessen auszuüben“. Bisher wurde noch keiner davon genehmigt. Und nur sehr wenige haben die Auszeichnung als bahnbrechendes Gerät der Agentur erhalten, die Bewertungen und Studien zu Geräten beschleunigt, die Potenzial zeigen.

Diese Apps bieten meist das an, was Therapeuten als strukturierte Therapie bezeichnen – bei der Patienten spezifische Probleme haben und die App mit einem arbeitsbuchähnlichen Ansatz reagieren kann. Beispielsweise kombiniert Woebot Übungen zur Achtsamkeit und Selbstfürsorge (mit von Therapeutenteams verfassten Antworten) bei postpartaler Depression. Wysa, eine weitere App, die als bahnbrechendes Gerät ausgezeichnet wurde, bietet kognitive Verhaltenstherapie bei Angstzuständen, Depressionen und chronischen Schmerzen.

Es wird jedoch Zeit brauchen, verlässliche wissenschaftliche Daten darüber zu sammeln, wie gut App-basierte Behandlungen funktionieren. „Das Problem besteht darin, dass es derzeit nur sehr wenige Beweise dafür gibt, dass die Behörde zu irgendwelchen Schlussfolgerungen gelangen könnte“, sagte Kedar Mate, Leiter des in Boston ansässigen Institute for Healthcare Improvement.

Bis wir diese Forschung haben, wissen wir nicht, ob die App-basierte psychische Gesundheitsfürsorge besser abschneidet als Weizenbaums ELIZA. Die KI wird sich im Laufe der Jahre sicherlich verbessern, aber zum jetzigen Zeitpunkt ist es bedauerlicherweise verfrüht, wenn Versicherer behaupten, dass die Bereitstellung des Zugriffs auf eine App auch nur annähernd die Anforderungen an die Gleichheit im Bereich der psychischen Gesundheit erfüllt.

Verwandte Themen

Kontaktieren Sie uns und senden Sie einen Story-Tipp

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.