Der Einsatz von künstlicher Intelligenz in der Betreuung von psychisch erkrankten Menschen bietet viele Möglichkeiten, birgt aber auch Gefahren. Bei der diesjährigen pro mente Fachtagung wurden die Herausforderungen, Chancen und Risiken der KI beleuchtet.
Im Dezember 2023 beschloss die EU die erste Legislative weltweit zur Regulierung des Einsatzes von Künstlicher Intelligenz (KI), den sogenannten „AI Act“. Knapp einen Monat später widmete sich die Fachtagung von pro mente dem Thema KI: „Mit rund 400 Teilnehmer:innen wurden unsere Erwartungen weit übertroffen“ sagt Andreas Schwab, Geschäftsführer der pro mente Akademie und Organisator der Fachtagung.
Die Keynote kam heuer von Joachim Bauer, Neurowissenschaftler und Autor des aktuellen Buches „Realitätsverlust“. Bauer gab in einem ersten Schritt einen umfassenden Einblick in die Funktionsweisen moderner KI-Programme, um danach auf Mensch-KI-Unterschiede sowie die Gefahren und Risiken beim Einsatz in der Sozialpsychiatrie einzugehen. Wesentlich sei zu beachten, dass KI zwar Gefühle und Empathie simulieren kann, aber keine Gefühle hat: „KI ist eine Maschine. Sie antwortet nach dem Wahrscheinlichkeitsprinzip und nicht nach ethischen Standards. KIs haben weder ein Ich noch ein Selbst, sie sind keine Subjekte und wissen nicht was sie tun“, so Bauer. Selbst wenn eine KI antwortet: „Ich kann dir nicht helfen, ich bin eine Maschine“, erleben User dennoch die Illusion einer persönlichen Verbindung.
KI sei immer nur so gut, wie das ihr eingespeiste Material. Eine unsauber gefütterte KI produziere fehlerhaftes Material und halluziniere. Die mit einwandfreiem Stoff versorgte KI dagegen könne spezifische Aufgaben erfüllen und schriftlich oder mündlich antworten. „Bei diesen generativen KIs können Nutzer nicht mehr unterscheiden, ob die Antwort von einem Menschen oder einer Maschine kommt“, so Bauer. Der wesentliche Unterschied zwischen KI und einem Menschen ist, dass die KI die analoge, physische Welt nicht unmittelbar und ganzheitlich wahrnimmt, sie hat kein Bewusstsein aber eine unglaubliche Datenspeicherkapazität. Letztendlich sei KI „eine digitale Lasagne“. Deshalb sei es unbedingt wichtig, dass bei AI-Ergebnissen die Letztendscheidung der Mensch trifft. Das gelte ganz besonders in der Sozialpsychiatrie, in der die zentrale Bedeutung bei der therapeutischen Beziehung liegt. Das könnten psychiatrische Chatbots niemals leisten.
Melanie Hasenbein, Professorin für Wirtschaftspsychologie und Coaching an der SRH München, betonte in ihrem Beitrag die Wichtigkeit der Befassung mit der Materie, denn, so die Wirtschaftspsychologin: „Es geht nicht darum, über etwas zu diskutieren, das uns bevorsteht. Die KI ist bereits da, und sie ist gekommen, um zu bleiben.“ Hasenbein brachte in ihrem Vortrag dementsprechend Beispiele für bereits vorhandene KI-Anwendungen im psychosozialen Bereich – sei es als beratender Chatbot, als sprechender Kaspar für Kinder mit Diagnosen aus dem Autismus Spektrum oder als Programm zur Erstellung von psychiatrischen Diagnosen.
Die Künstliche Intelligenz und die Mensch-KI-Interaktion würden uns in eine neue Arbeits- und Organisationswelt führen. Die Auswirkungen auf den Arbeitsmarkt würden mehr oder weniger deutlich zu spüren sein. Verschiedene Studien lieferten dafür bereits konkrete Anhaltspunkte und Prognosen. Auch werden mögliche Szenarien einer KI-basierten Arbeitswelt beschrieben, die wiederum Folgen für die Kompetenzentwicklung der Mitarbeiter:innen haben werden. All das könne zu Unsicherheiten und Ängsten führen. Um KI erfolgreich in Organisationen zu implementieren, seien zudem organisationale Voraussetzungen zu erfüllen. Auch die Organisationsform und der Reifegrad der jeweiligen Organisation spielten hierbei eine Rolle. Change Enablement könne dabei als Gestaltungsansatz eine KI-Einführung unterstützen, um bei den Mitarbeitenden Akzeptanz zu erreichen.
Carina Zehetmaier, Juristin, Menschenrechtlerin, Präsidentin von Women in Artificial Intelligence Austria referierte darüber, wie künstliche Intelligenz unser Menschsein beeinflusst. Als größte Gefahr nannte sie das blinde Vertrauen in die KI. Durch die sozialen Medien hätten die psychischen Erkrankungen zugenommen. Durch negative oder positive Inhalte können die Gefühle von Usern beeinflusst werden. Zudem gäbe es gefährliche Auswirkungen von Chatbots: „KI ist weder objektiv noch neutral, sie spiegelt alles wieder, was wir erleben, auch Vorurteile und Hass. KI kann mit bester Absicht eingesetzt werden und trotzdem Schaden anrichten“, unterstrich Zehetmaier. Deshalb brauche es dringend Schulungen für den verantwortungsvollen Einsatz von AI.
Matthias Braun, Sozialethiker an der Rheinischen Friedrich-Wilhelms-Universität Bonn widmete sich den ethischen und rechtlichen Fragen rund um KI und der damit verbundenen Vorhersage von psychischer Krankheit. Für die Hilfe von digitalen Produkten bei z.B. Depressionen sei die Nachfrage bereits groß, weil es akut an Therapieplätzen mangelt. Braun zeigte auf, wie sehr KI bereits in unseren Alltag integriert ist und wie sehr wir uns unbewusst bereits auf die Technologie verlassen, ohne diese zu hinterfragen. Zentral sei die Frage des Vertrauens in eine als „Black Box“ bezeichnete Technologie, deren Entscheidungsfindungsprozesse schwer nachvollziehbar sind, und Ängste, die oft bewusst rund um das Thema geschürt werden. „Es gibt in der Medizinethik Kriterien, wie man handeln muss. Es gibt Kriterien, ob eine Entität Bewusstsein hat, oder nicht. Die KI hat definitiv keines“, so Braun.
Andreas Meyer-Lindenberg, Vorstandsvorsitzender des Zentralinstituts (ZI) für Seelische Gesundheit in Mannheim beleuchtete die Methoden und Anwendungen der Künstlichen Intelligenz in der Psychiatrie. Die KI und die zugrundeliegenden Methoden des maschinellen Lernens und der neuronalen Netzwerke hätten in den vergangenen Jahren dramatische Fortschritte gemacht und Leistungen in Domänen erreicht, die bis vor kurzem als spezifisch menschlich und für Computer nicht zugänglich galten. Lindenberg beschrieb die diesen Fortschritten zugrundeliegenden methodischen Entwicklungen und zeigte aktuelle und potenzielle Anwendungen auf die Psychiatrie in drei Bereichen: Präzisionsmedizin und Biomarker, Verarbeitung natürlicher Sprache und KI-basierte psychotherapeutische Interventionen.
Personalisierte Medizin sei in der Psychiatrie ein wichtiges Thema. Diagnosen würden aber nicht wirklich ausreichen, um Behandlung zu individualisieren. „Wir müssen unter die Diagnose schauen. Das ist ein komplexes Thema in der Psychiatrie. Man muss verschieden große Datenmengen zusammenführen“, so Lindenberg. Als Beispiel nannte er die Suizidprävention in den sozialen Medien. So würde auf Facebook, Google oder X kontinuierlich Suizidgefahrerkennung mitlaufen, um Warnzeichen für Suizid zu erkennen. Wenn diese Warnzeichen erkannt werden, poppen Hinweise mit Hilfsangebote auf. Google hätte das System auch schon auf Essstörungen ausgeweitet.
Als weiteres Beispiel nannte Lindenberg Mobiltelefone als Diagnostik-Tools. Heute seien Online Angebote die zentrale Quelle für Informationen zur psychischen Gesundheit. Über Smartphones erhält man Big Data aus der Lebenswelt. Dadurch können auch soziale Interaktionen abgebildet werden. Die Daten müssen das Telefon nicht verlassen, weil das ja private Daten sind. Chatbots dagegen seien in der Psychiatrie noch nicht sicher genug. Es gäbe immer noch zu viele Risiken, weil grobe Fehler produziert werden. Dennoch sei das Thema der Verarbeitung von Sprache für die Psychiatrie generell interessant: So könnten etwa sprachliche Phänomene bei akuten Psychosen oder Manien analysiert werden.
Die Benefits von Mental Health Mobile Apps sieht Lindenberg im positiven Feedback von Usern und der Möglichkeit Informationen über die seelische Gesundheit in der eigenen Hand zu haben. Dagegen stehen allerdings die potentiellen Gefahren, wie etwa Abhängigkeiten von Apps zu entwickeln. Lindenberg verwies schließlich auch auf die Risiken dieser neuen Technologie im Kontext der Datensicherheit, des Schutzes der Privatsphäre und der Arzt-Patienten-Beziehung.
Karsten Weber, Philosoph und Experte für Technikfolgenabschätzung an der OTH Regensburg sprach über die Möglichkeiten der KI-Nutzung für psychisch kranke Menschen und die damit verbundenen Auswirkungen auf das Professionsverständnis von Fachkräften: Die Einwilligungsfähigkeit (EWF) von Patient:innen sei Voraussetzung der informierten Zustimmung zu medizinischen Maßnahmen. Trotz einer breiten Diskussion über die Konzeption der EWF fehle es im klinischen Alltag oft an verbindlichen, standardisierten Verfahrensvorgaben, sodass EWF-Einschätzungen interdisziplinär wie interindividuell uneinheitlich ausfallen würden. Daher werde zunehmend über die Nutzung von KI-Systemen zur Bestimmung nicht nur der EWF, sondern auch des vermeintlichen Willens der Patient:innen nachgedacht. Mit dem Einsatz solcher Systeme würde jedoch nicht zuletzt eine Kernkompetenz des ärztlichen Personals und damit deren Professionsverständnis infrage gestellt.
Juliane von Hagen, Psychologin, Psychotherapeutin für Kinder und Jugendliche beleuchtete die Rolle der Psychotherapie im Zeitalter von KI. Die psychische Gesundheitsversorgung stehe vor großen Herausforderungen, wie z.B. immer längeren Wartezeiten für Psychotherapieplätze und einer großen Zahl von Betroffenen, die bestehende Versorgungsangebote nicht in Anspruch nehmen. Digitale Anwendungen versuchen diesen Herausforderungen zu begegnen. Insbesondere die jüngsten Entwicklungen im Bereich der Chatbots hätten die Diskussion um den Einsatz von KI in Psychologie und Psychotherapie neu entfacht. Schien der Einsatz von KI-Anwendungen und therapeutischen Chatbots noch weit in der Zukunft zu liegen, wird die praktische Anwendung nun immer realer.
Umso wichtiger sei es, sich mit den Einsatzmöglichkeiten, Chancen und Risiken sowie ethischen Fragen auseinanderzusetzen. Von Hagen reflektierte das Zusammenspiel von KI und Psychotherapie anhand aktueller Anwendungsbeispiele und Forschungsschwerpunkte. Die Einsatzmöglichkeiten reichen von diagnostischen Tools über die Unterstützung therapeutischer Prozesse bis hin zu autonomen Chatbots. Anwendungsfelder der KI in der Psychotherapie sieht Van Hagen z.B. in der Grundlagenforschung und beim Sammeln von Daten, die zur Vorhersage dienen. KI Tools können auch in der Diagnostik eingesetzt werden, etwa bei der Erkennung von Frühwarnzeichen. Bei therapeutischen Chatbots sieht Van Hagen noch deutlichen Verbesserungsbedarf.
Zusammenfassend ergab die Tagung, dass noch ein Gleichgewicht zwischen technologischer Unterstützung und menschlicher Fürsorge gefunden werden muss: KI könne zwar schnelle Analysen und Diagnosen ermöglichen, aber die fehlende menschliche Berührung und Empathie kann problematisch sein. Die Implementierung von KI in der psychischen Gesundheitsvorsorge müsse zudem ethisch vertretbar sein. Hier brauche es klare Regulierungen, um Missbrauch zu verhindern.