Chatbots in der Psychotherapie
Psychotherapie

Mensch oder Maschine? Chatbots in der Psychotherapie

Ihr Telefon klingelt. Es ist Pax, der anruft. Eine künstliche Intelligenz mit einem glitzernden Ei-Avatar. Seine Stimme ist langsam und unzusammenhängend: „Hallo-mein-Freund“. Um ihm zu antworten, können Sie zwischen einem Daumen hoch, einem Daumen runter oder dem Sprechen in das Mikrofon wählen.

Sie befinden sich in Replika. Dieser virtuelle online Psychologe bietet Ihnen an, Sie für Meditationssitzungen anzurufen oder Ihre Stimmungen zu erfassen. „Replika ist rund um die Uhr für Sie da, wenn Sie sich schlecht fühlen, ängstlich sind oder einfach nur mit jemandem reden wollen“, heißt es in der Präsentation des Anbieters.

Nach Angaben der Weltgesundheitsorganisation leiden 25 % der Europäer an Angstzuständen oder Depressionen. Angesichts des Mangels an Psychiatern und der fehlenden Ressourcen in den psychologischen Abteilungen der Krankenhäuser kann es leicht passieren, dass man in psychische Not gerät. Bei einer Panikattacke in der U-Bahn, oder einem kleinen Stressschub, gibt es jetzt ein linderndes Mittel: den therapeutischen Chatbot.

Der Boom der therapeutischen Chatbots

Das erste Chatbot für die psychologische Behandlung wurde 2017 in einem kalifornischen Start-up geboren. Der Woebot-Chatbot wurde von der klinischen Psychologin Alison Darcy entwickelt und ist ein therapeutisches Selbsthilfeprogramm. Vor der Markteinführung ließ das Team die Plattform von Studenten testen, die unter Angstzuständen oder Depressionen litten.

Nach zweiwöchiger Anwendung waren die positiven Effekte spürbar, die Symptome gingen zurück. Ob es sich um einen Werbegag, einen Placebo-Effekt oder eine echte Wirkung handelt, der Chatbot wurde inzwischen von 50.000 Menschen heruntergeladen. Es ermöglicht den direkten Dialog mit einer künstlichen Intelligenz oder die Durchführung von Aktivitätsmodulen wie „Schreiben eines Dankbarkeitstagebuchs“ oder „Hinterfragen unserer Negativität“.

Seit 2017 sind so mehr als ein Dutzend englischsprachige Chatbots zur online Psychotherapie entstanden, wie Youper, 7Cups oder Wysa. Es gibt sogar einen therapeutischen AI-Vergleich, mit Empfehlungen je nach Schwierigkeit: Stimmungsstörungen, posttraumatischer Stress, Phobien… Hierzulande können Sie diese Apps nutzen, wenn Sie ein gutes Englischniveau haben.

Eine neue Form der therapeutischen Interaktivität?

Das Prinzip der Therapie hat sich seit dem 19. Jahrhundert nicht verändert. All diese Zeit hätte man nutzen können, um glücklicher zu sein, um stärker zu sein, um sich direkt aus dem Alltag heraus mit seiner Krankheit auseinanderzusetzen.

Chatbots erzeugen die Illusion eines idealen Gesprächspartners, der den Sprecher nie unterbricht, immer wartet, bis er zu Ende gesprochen hat, und immer höflich und umgänglich bleibt.

Auf Twitter scheinen die kleinen Bots bei Menschen mit psychischen Störungen recht gut anzukommen. Nutzer und Online Psychologen glauben jedoch nicht, dass die Roboter eine große Krise wirklich beruhigen können, aber sie können in einer plötzliche Notlage helfen. Auch wenn Patienten dabei durchaus bewusst ist, dass sie nur mit einer Maschine kommunizieren, fühlen sie sich durch die psychologische Hilfe online begleitet.

Chatbots erzeugen die Illusion eines idealen Gesprächspartners, der den Sprecher nie unterbricht, der immer wartet, bis er zu Ende gesprochen hat, und der immer höflich und umgänglich bleibt. Auf dem Papier (oder eher auf dem Bildschirm) ist der Chatbot ein „idealer Therapeut“, da er nie das Ende der Sitzung ankündigt. Patienten können ihn als Kummerkasten benutzen und alles loslassen, was ihren Stress verursacht, ohne Angst, die Lieben zu belasten oder verurteilt zu werden.

Gleichzeitig kann der Chatbot auch eine Möglichkeit sein, Zugang zu einer Gemeinschaft von fürsorglichen Gleichgesinnten zu erhalten. In den Vereinigten Staaten betreibt das Kik-Online-Messaging-Team Koko, einen kleinen Therapie-Bot, der sich an Teenager richtet.

Jugendliche können ihre Sorgen dem Bot anvertrauen, der sie an die Community weiterleitet, um per Crowdsourcing eine therapeutische Lösung zu finden. Die innovative Lösung, die dank des MIT Media Labs entwickelt wurde, kann einige Zeit in Anspruch nehmen, um Feedback von anderen Mitgliedern zu erhalten. Der emotionale Komfort des Roboters gegenüber dem Menschen scheint noch in den Kinderschuhen zu stecken. Entscheidend für den Therapieerfolg sind jedoch die Ausbildung und Erfahrung des Therapeuten.

Frustration und Ängstlichkeit

Der therapeutische Chatbot fungiert eher als ein Gefäß für Ängste als eine echte Online Psychotherapie. Bei dunklen Gedanken bringt er oft stereotype Antworten wie „Ich verstehe Dich, das kann nicht einfach sein.“ oder bedankt sich einfach dafür, dass wir unsere Gefühle ausgedrückt haben.

Die Grenzen für psychologische Beratung online durch Roboter sind in erster Linie technologischer Natur. So arbeiten die Assistenten mit einem System zur Erkennung von Schlüsselwörtern. Der Chatbot ist so programmiert, dass er auf bestimmte Alarmwörter wie „Traurigkeit“ oder „Einsamkeit“ reagiert, aber er kann nicht unbedingt eine wirklich einfühlsame und maßgeschneiderte Antwort und psychologische Hilfe online geben.

Die Grenzen sind deutlich erkennbar. Das Verständnis der Maschine bleibt begrenzt. Heute kann der Chatbot sogar potenziell Ängste verstärken, da er die Frustration verstärkt, gehört zu werden, ohne verstanden zu werden.

Ängste und Hoffnungen

Neben diesem potenziellen Bumerang-Effekt gibt es eine unterschwellige Angst: Kann ich meine Ängste wirklich einem Online-Messenger anvertrauen? Der menschliche Online Psychologe vermittelt Ihnen verständlich und glaubhaft das Gefühl, dass Ihre Geheimnisse sicher sind. Aber wie sieht es im Web aus? Angesichts der Skandale um das Datenleck bei Facebook ist es leicht vorstellbar, dass Daten wiederhergestellt und für bösartige Zwecke verwendet werden könnten.

Chatbots hingegen versuchen, uns zu beruhigen, schon bei der Begrüßung. Woebot versichert uns, dass „Benutzerdaten verwendet werden, um die Anwendung zu verbessern“. Selbst wenn sie anonymisiert sind, werden unsere Daten identifiziert und katalogisiert, um die KI zu verbessern – ein Prozess, der den Wunsch, zu intime Dinge anzuvertrauen, entmutigen kann.

Das Beste, was wir uns von der künstlichen Intelligenz erhoffen können, ist, dass sie eines Tages den Pflegekräften erlaubt, mit ihr besser das zu tun, was sie heute ohne sie tun, und sie sicherlich nicht ersetzt.

Sensible persönliche Daten werden über Plattformen wie Facebook übertragen und bei Drittentwicklern gespeichert, die nicht immer gut identifiziert oder zertifiziert sind, um diese Art von persönlichen Daten zu hosten.

Zuletzt würden sich viele Patienten wünschen, dass diese Werkzeuge von der Krankenkasse erstattet werden, um die Genesung zu unterstützen. Bevor das geschieht, müssen sich therapeutische Assistenten zweifellos bewähren, sowohl in Bezug auf die Therapie als auch auf die Datensicherheit.

Kommentar verfassen

%d Bloggern gefällt das: