Frau Süss, ist es dasselbe, ob man die künstliche Intelligenz um ein Lasagne-Rezept bittet oder um Tipps bei heftigem Liebeskummer fragt?
Beides kann man sehr einfach nachfragen bei ChatGPT. Die meisten Nutzer haben das Programm als App auf dem Smartphone installiert und entsprechend immer dabei. Sei es beim Kochen oder am Abend oder in der Nacht, wenn Gedanken auftauchen, die einen nicht loslassen.
Hat ChatGPT denn für den Liebeskummer ein gleich gutes Rezept wie für die Lasagne?
Das kommt darauf an, wie komplex meine Gefühlslage ist. Die künstliche Intelligenz versteht nicht, in welcher Stimmung ich bin. Ob ich etwas ironisch oder sarkastisch meine. Sie weiss auch nicht, was in meinem Leben gerade sonst noch alles passiert und welche Vorgeschichte ich habe. Ob ich beispielsweise ein Scheidungskind bin oder ob ich schon vor diesem Liebeskummer oft Pech in der Liebe hatte.
Welche Probleme sind einfach genug für die KI?
Beim Thema Stressbewältigung kann die KI hilfreich sein, als eine Art Erste Hilfe.
Was kommen denn da für Ratschläge?
Zum Beispiel Tipps für Atemübungen oder der Rat, mehr Spaziergänge zu machen. Die KI kann für mich einen Wochenplan erstellen mit solchen kleinen Massnahmen, die mein Wohlbefinden verbessern.
Klingt gut – also kann man sich in einem solchen Fall den Termin beim Psychologen sparen?
Das kommt darauf an, welche Themen meinem Stress zugrunde liegen. Warum brauche ich überhaupt Hilfe, um den Alltag bewältigen zu können? Was steckt dahinter? Genau da ist die KI bereits überfordert. Aber ganz kurzfristig kann sie durchaus eine leichte Entlastung bringen.
Eine neue Studie zeigt: Die Hälfte der Generation Z bittet ChatGPT bei persönlichen und psychischen Problemen um Hilfe. Überrascht Sie das?
Nicht wirklich, nein.
Zur Person: Hannah Süss
Die 33-jährige Hannah Süss ist Leitende Psychologin an der Psychiatrischen Universitätsklinik Zürich. Sie ist spezialisiert auf Kinder- und Jugendpsychiatrie. Ihr Interesse für Psychologie entstand im Jugendalter beim Lesen von Biografien. Sie erwartet ihr zweites Kind.
Warum nicht?
Die künstliche Intelligenz wird allgemein immer häufiger genutzt. Nicht nur Jugendliche, auch Erwachsene und ältere Personen informieren sich mit ihr über alle möglichen Themen. Dazu gehören offenbar auch persönliche und private Fragen.
In der Studie geben die Teilnehmenden an, dass sie sich an die KI wenden, weil die langen Wartezeiten und die hohen Kosten einer Therapie sie abschrecken.
Ja, dieses Thema beschäftigt uns seit Jahren. Besonders während der Corona-Pandemie, als es vielen Jugendlichen psychisch sehr schlecht ging. Erfreulich ist, dass dieser Notstand erkannt wurde und wir seither viele Angebote ausbauen konnten.
Trotzdem: Es gibt weiterhin zu wenige Plätze, und Wartezeiten von mehreren Monaten sind keine Seltenheit.
Es gibt zu wenige gut ausgebildete Fachpersonen, das stimmt. Aber wir lassen die Kinder und Jugendlichen nicht einfach allein. Wir haben Angebote geschaffen für diejenigen, die gerade auf einen Platz warten: Es gibt Gruppenangebote für Jugendliche und für Eltern.
Welche Themen beschäftigen die Schweizer Jugendlichen denn am meisten?
Leistungsdruck in der Schule und soziale Beziehungen.
Und was passiert, wenn jemand sich mit diesen Sorgen an die KI wendet?
Es entsteht schnell das Gefühl eines Dialogs. Die KI stellt ja oft Gegenfragen. Dieses Hin und Her schafft die Illusion einer Beziehung. Und die Person erhält das Gefühl: Ich habe jetzt mit jemandem über meine Probleme gesprochen und mir Hilfe gesucht. Aber eigentlich hat sie nur vorgefertigte Antworten erhalten. Es gab keinen Dialog.
Man vergisst, dass man es mit einer Maschine zu tun hat?
Ich glaube schon, dass das falsche Gefühl entsteht, sich jemandem anvertraut zu haben, der einem zuhört. Gerade bei Jugendlichen, denen es nicht gut geht und die sehr einsam sind. Das kann echt gefährlich werden.
Was meinen Sie?
Wenn jemand daran denkt, sich selbst – oder jemand anderen – zu verletzen. Die KI ist mit Suizidgedanken komplett überfordert und kann falsche Ratschläge geben. In den USA nahm sich ein 16-Jähriger das Leben, nachdem er über lange Zeit mit ChatGPT gesprochen hatte.
Ist es nicht besser, der KI zu gestehen, dass man an Selbstmord denkt, statt es ganz für sich zu behalten?
Doch, aber ich wünsche mir, dass die KI so einer Person rät, sich rasch an eine Fachperson zu wenden und entsprechende Kontakte vermittelt. Bei uns kann man 24 Stunden am Tag, sieben Tage pro Woche anrufen und erhält in einer solchen Situation auch einen Notfalltermin. Wir nehmen Suizidalität extrem ernst.
Noch mal zur Studie: 70 Prozent sagten, die Antworten der KI seien hilfreich bis sehr hilfreich gewesen. Ist das nicht ein wenig demütigend für Sie als Fachperson?
Je nachdem, wie man eine Frage stellt, können die Antworten inhaltlich wirklich sehr gut sein! Die KI sucht die Informationen ja aus vielen verschiedenen Quellen zusammen.
Also hört man dasselbe, was auch ein Psychotherapeut sagen würde?
Nein. Ob eine Psychotherapie erfolgreich ist, hängt zu 30 Prozent von der Beziehung zwischen Patient und Therapeut ab. Zur künstlichen Intelligenz entsteht keinerlei Beziehung, auch wenn sich das manchmal so anfühlt. Und sie kann auch keine genaue Diagnose stellen.
Warum nicht?
Wenn eine Person einfach eintippt, was ihr durch den Kopf geht, fehlt der Blick für die Themen, die der Situation zugrunde liegen. Die man vielleicht selbst grade gar nicht im Blick hat. Dem auf dem Grund zu gehen, gehört zu den Aufgaben einer Psychotherapeutin, um zu einer Diagnose zu kommen.
Sie betonen die therapeutische Beziehung, aber 14 Prozent der Studienteilnehmer gaben an, sich an die KI zu wenden, weil sie sich vor einem Therapeuten schämen.
Bei sehr schambehafteten Themen kann die KI ein guter erster Schritt sein. Ich habe einfach den Eindruck, dass die Formeln, die momentan existieren, zu wenig ausgereift sind, um diese Personen gut zu begleiten. Es gibt auch anonyme Chats, bei denen nicht die KI zurückschreibt, sondern eine Fachperson, beispielsweise von Pro Juventute.
Könnten Sie sich vorstellen, mit einem KI-Assistenten zusammenzuarbeiten?
Ja. Er könnte für mich Materialien zusammenstellen, die man als therapeutische Tools im Alltag nutzen könnte. Unsere jetzigen Unterlagen sind oft sehr standardisiert. Die KI könnte sie für einzelne Jugendliche personalisieren. Und sie könnte bei der Triage helfen.
Was heisst das?
Dass jemand, der einen Therapieplatz möchte, erst einmal einen KI-Fragebogen ausfüllt. In einem zweiten Schritt könnten wir dann überprüfen, ob die Maschine mit ihrer Einschätzung richtig liegt oder nicht. Das kann durchaus ein Gewinn für alle sein. Der Datenschutz ist da natürlich ein wichtiges Thema.
Zum Schluss noch ein wenig Science Fiction: Werden wir alle irgendwann einmal im Altersheim mit der KI reden, um nicht zu vereinsamen?
Warum nicht, wenn es darum geht, gewisse Inputs zu erhalten. Zum Beispiel zu einem Thema, das einen interessiert, oder zu einem Film, den man gerade gesehen hat. Die KI birgt viele Chancen. Aber man muss sie immer mit Vorsicht geniessen.

