Kids Help Phone bittet um Hilfe von KI-Technikern, um den Bedarf an psychischer Unterstützung zu decken

TORONTO – Kids Help Phone gibt an, auf künstliche Intelligenz zurückzugreifen, um auf den „enormen Bedarf“ zu reagieren, da immer mehr junge Menschen Hilfe und Unterstützung im Bereich der psychischen Gesundheit in Anspruch nehmen.

„Junge Menschen verändern sich schnell und die Technologie verändert sich schneller“, sagte Michael Cole, Senior Vice President und Chief Information Officer von Kids Help Phone.

Die Helpline arbeitet mit dem in Toronto ansässigen Vector Institute zusammen, das sich als Berater für Organisationen, Unternehmen und Regierungen bei der Entwicklung und Einführung „verantwortungsvoller“ KI-Programme versteht.

Die geplante KI wird in der Lage sein, Schlüsselwörter und Sprachmuster von jungen Menschen zu erkennen, die sich an das Kids Help Phone wenden, um vielbeschäftigten Beratern zu helfen, sich auf ihre Bedürfnisse zu konzentrieren und ihre Unterstützung entsprechend anzupassen.

Aber Kids Help Phone sagt, es sei sich sehr bewusst, dass der Begriff „künstliche Intelligenz“ Menschen beunruhigen könnte, wenn sie am anderen Ende der Hotline Bilder eines Computers oder Chatbots und nicht eines Menschen heraufbeschwören.

So werde das KI-Programm nicht funktionieren, sagte Katherine Hay, Präsidentin und CEO der Organisation.

„Es ist immer von Mensch zu Mensch“, sagte Hay. „Es ersetzt nicht den Ansatz von Mensch zu Mensch.“

Stattdessen stehen die von der KI gesammelten Informationen menschlichen Beratern zur Verfügung, während sie mit dem jungen Menschen auf der anderen Seite des Anrufs oder Textaustauschs arbeiten, sagte sie.

Seit Beginn der COVID-19-Pandemie verzeichnet die rund um die Uhr erreichbare landesweite Support-Hotline für Kinder und Erwachsene einen enormen Anstieg der Nachfrage nach ihren Dienstleistungen. Nachdem Kids Help Phone im Jahr 2019 etwa 1,9 Millionen Anrufe, Textnachrichten, Live-Chats oder Besuche auf seiner Website erhalten hatte, ist diese Zahl nach Angaben der Organisation seit 2020 auf über 15 Millionen gestiegen.

Lesen Sie auch  „Die Frankfurter Buchmesse behauptet, israelische Stimmen „hörbar“ zu machen und gleichzeitig den Raum für palästinensische Stimmen zu verringern.“

Die Organisation nutze bereits einige KI-Technologien, um bei der Triage von Texten zu helfen, sagte Hay.

Wenn jemand zum Beispiel auslösende Wörter oder Ausdrücke wie „‚Ich fühle mich hoffnungslos, ich glaube, ich möchte sterben‘ oder etwas in dieser Richtung verwendet, rückt das Gespräch in den Vordergrund (das Gespräch mit einem Berater). ,” Sie sagte.

Roxana Sultan, Chief Data Officer von Vector und Vizepräsidentin der Gesundheitsabteilung, sagte, dass die Behandlung von KI als Werkzeug und nicht als Ersatz für Menschen ein entscheidender Teil des verantwortungsvollen Einsatzes der Technologie im Gesundheitswesen sei.

„Wir haben allen unseren Partnern klar zum Ausdruck gebracht, dass die Tools, die wir entwickeln, immer dazu gedacht sind, die Ärzte zu unterstützen. Sie sind niemals dazu gedacht, das Urteilsvermögen und das Engagement des Arztes zu ersetzen“, sagte Sultan.

Das KI-Tool Kids Help Phone wird „natürliche Sprachverarbeitung“ verwenden, um „Schlüsselwörter oder Auslösewörter zu identifizieren, die mit bestimmten Arten von Problemen korrelieren“, sagte sie.

„Wenn ein junger Mensch in seiner Kommunikation ein bestimmtes Wort verwendet, das mit einem bestimmten Thema oder Anliegen in Zusammenhang steht oder damit in Zusammenhang steht, wird es von diesem Modell gekennzeichnet und das Fachpersonal alarmiert“, sagte Sultan.

Beispielsweise kann die KI darauf trainiert werden, Wörter zu erkennen, die auf eine mögliche Essstörung hinweisen, sodass ein Berater das Gespräch in diese Richtung lenken und spezifische Ressourcen und Unterstützung anbieten kann.

KI kann auch darauf trainiert werden, neue Wörter und Trends im Zusammenhang mit Situationen zu erkennen, die Stress und Angst auslösen, wie etwa eine Pandemie, der Klimawandel, Waldbrände oder eine Massenschießerei.

Lesen Sie auch  Der Kommandeur der Royal Canadian Navy besucht China

„Es ist wirklich dazu gedacht, die Dienstleistungen des professionellen Personals zu verbessern“, sagte Sultan. „(Es) hilft ihnen, effizienter und effektiver mit den Problemen umzugehen, die im Laufe des Gesprächs auftauchen.“

Der Schlüssel, so Sultan, bestehe darin, sicherzustellen, dass die KI-Tools von Ärzten gründlich getestet werden, bevor sie auf den Markt kommen. Kids Help Phone und Vector gehen davon aus, die neue Technologie irgendwann im Jahr 2024 auf den Markt zu bringen.

Nach der Einführung ist es von entscheidender Bedeutung, dass die Mitarbeiter an vorderster Front, die es verwenden, die erhaltenen Informationen ständig auswerten.

„Man kann wirklich nicht blind dem folgen, was ein Algorithmus einem in der Praxis vorgibt. So hochwertig das Modell auch sein mag, so gut trainiert es auch sein mag, es soll niemals Ihr Urteilsvermögen und Ihre Erfahrung als Kliniker ersetzen“, sagte Sultan.

Wenn die KI etwas erzeugt, das „etwas daneben“ zu sein scheint, sollte dies gemeldet und untersucht werden, sagte sie.

Eine weitere Sorge der Menschen in Bezug auf KI sei die Vertraulichkeit ihrer persönlichen Daten, sagte sie.

„Es ist wirklich wichtig, klarzustellen, dass alle Daten, die zum Trainieren der Modelle verwendet werden, anonymisiert sind“, sagte Sultan.

„Es besteht also kein Risiko, Informationen über den Namen einer Person zu erhalten, oder Sie wissen schon, dass alle identifizierenden Faktoren im Voraus entfernt werden.“

Der Einsatz von KI in der psychischen Gesundheit nimmt im ganzen Land zu, sagte Maureen Abbott, Managerin in der Abteilung für den Zugang zu qualitativ hochwertigen psychischen Gesundheitsdiensten bei der Mental Health Commission of Canada.

Lesen Sie auch  Mein Arzt hat meine postpartalen Symptome übersehen. Ich fing an, sie mit Ambien zu behandeln – und wurde süchtig.

Die aktuellen Anwendungen reichen von einzelnen Diensten über die Überwachung sozialer Trends bis hin zur Förderung des Wachstums von Apps für die psychische Gesundheit, sagte sie.

„KI wird bei der Spracherkennung eingesetzt, um den Tonfall in der Stimme einer Person zu erfassen und bei der Diagnose manischer Episoden und Depressionen zu helfen“, sagte Abbott.

„Es wird in Chatbots für maschinelles Lernen und auch in sozialen Medien verwendet, um Trends für Selbstmordgedanken zu erkennen, beispielsweise um nach Phrasen und Wörtern zu suchen.“

Abbott sagte, dass es notwendig sei, Standards zu entwickeln und umzusetzen, die den Einsatz von KI in der psychischen Gesundheit in Kanada regeln, um mit der schnell zunehmenden Verbreitung Schritt zu halten.

„KI wird bereits in unserem täglichen Leben eingesetzt, ob wir es sehen oder nicht“, sagte Abbott.

„Deshalb ist es nur natürlich, dass es auch für die psychische Gesundheit geschieht, und zwar schnell.“

Dieser Bericht von The Canadian Press wurde erstmals am 5. Juli 2023 veröffentlicht.

Die Krankenversicherung der Canadian Press wird durch eine Partnerschaft mit der Canadian Medical Association unterstützt. Für diesen Inhalt ist ausschließlich CP verantwortlich.

TRITT DEM GESPRÄCH BEI

Gespräche sind Meinungen unserer Leser und unterliegen der Verhaltenskodex. Der Star unterstützt diese Meinungen nicht.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.