Zwischen Algorithmus und Empathie: Wie KI die Psychotherapie verändert – und wo sie scheitert

Digitale Avatare, Chatbots und präventive KI-Systeme sollen die Psychotherapie entlasten und verbessern. Doch was leisten sie wirklich – und wo bleibt der Mensch in der digitalen Behandlung?

Es beginnt mit einer simplen Textnachricht. „Wie fühlst du dich gerade?“ – am Bildschirm erscheint die Frage in nüchternem Grau. Am anderen Ende: keine menschliche Stimme, keine warme Hand, kein Raum mit Sofa. Nur ein Chatbot. Doch die Antwort ist überraschend empathisch, fast zugewandt. Worte, wie man sie auch von einem echten Therapeuten erwarten würde.

Was vor wenigen Jahren noch nach Science-Fiction klang, ist heute Realität: Künstliche Intelligenz (KI) dringt immer weiter in Bereiche vor, die bislang als zutiefst menschlich galten – darunter auch die Psychotherapie. In einer Welt, in der Wartezeiten auf Therapieplätze Monate dauern und psychische Erkrankungen rasant zunehmen, scheint die Idee verlockend: digitale Helfer, verfügbar rund um die Uhr, standardisiert, lernfähig – und niemals erschöpft.

Doch kann eine Maschine wirklich helfen, wenn es um Verletzlichkeit, Angst oder tief verwurzelte Traumata geht? Kann KI zuhören, verstehen, Halt geben? Und vor allem: Welche Rolle kann – und sollte – sie in der Therapie der Zukunft überhaupt spielen?

Der Einsatz von Künstlicher Intelligenz in der psychischen Gesundheitsversorgung wirft große Fragen auf. Fragen, die weit über Technik hinausgehen. Sie berühren ethische, gesellschaftliche und zutiefst persönliche Dimensionen. Und sie verlangen nach einer Antwort, bevor sich der Fortschritt verselbständigt.

Status quo: KI in der Psychotherapie – ein zögerlicher Anfang

In Deutschland steckt der Einsatz Künstlicher Intelligenz in der Psychotherapie noch in den Kinderschuhen. Zwar ist „KI“ längst zu einem Schlagwort im Gesundheitswesen geworden, doch hinter dem Begriff verbirgt sich ein weites Spektrum – von einfachen regelbasierten Algorithmen bis hin zu komplexen lernenden Systemen. Letztere, etwa sogenannte Large Language Models (LLMs), verfügen über beeindruckende sprachliche Fähigkeiten und eröffnen neue Möglichkeiten der Mensch-Maschine-Kommunikation. In der therapeutischen Praxis sind sie bisher jedoch kaum anzutreffen.

Stattdessen dominieren bislang einfache digitale Gesundheitsanwendungen, die etwa auf Basis fester Entscheidungsregeln therapeutische Inhalte personalisieren. Diese Programme helfen dabei, Übungen aus der Verhaltenstherapie strukturiert zu vermitteln oder administrative Abläufe zu begleiten. Doch mit „echter“ Künstlicher Intelligenz, wie sie aus dem Bereich des maschinellen Lernens oder der generativen Sprachmodelle bekannt ist, haben diese Systeme oft wenig gemein.

Gleichwohl gibt es erste Pilotprojekte, die das Potenzial echter KI nutzen – etwa in der sogenannten Ambient documentation and speech recognition. Dabei kommen Mikrofone oder Smartphones zum Einsatz, um Gespräche während der Therapie unterstützend zu begleiten, zu analysieren oder zu dokumentieren. Solche Systeme könnten langfristig helfen, therapeutische Prozesse besser zu verstehen oder standardisierte Auswertungen zu ermöglichen. Doch noch befinden sich diese Entwicklungen in einem frühen Stadium.

„Die Entwicklungen in diesem Bereich sind vielversprechend, aber die flächendeckende Anwendung wird noch einige Zeit benötigen“, betont Dr. Filippo Martino, Gründer der Deutschen Gesellschaft für Digitale Medizin (DGDM) und Chief Medical Officer der digitalen Therapieplattform Caspar Health. Der therapeutische Alltag, so viel ist sicher, lässt sich nicht von heute auf morgen digitalisieren – schon gar nicht in einem so sensiblen Feld wie der psychischen Gesundheit.

Erste Anwendungen: Was heute schon möglich ist

Trotz aller Zurückhaltung lassen sich bereits heute konkrete Anwendungsbeispiele finden, wie KI-gestützte Systeme psychotherapeutische Prozesse unterstützen können – wenn auch vorerst meist außerhalb der regulären Versorgung. Vor allem in der digitalen Selbsthilfe zeigen sich erste Erfolge. Chatbots wie ChatGPT, digitale Avatare oder sprachbasierte Assistenzsysteme begleiten Nutzerinnen und Nutzer im Alltag, erinnern an therapeutische Übungen oder bieten Unterstützung bei der Emotionsregulation.

„KI kann in Form von Chatbots oder Sprachassistenten helfen durch alltägliche Herausforderungen zu navigieren – sei es durch das Einüben verhaltenstherapeutischer Techniken oder durch Erinnerungen an konkrete Therapieaufgaben“, erklärt Dr. Filippo Martino. Diese digitalen Begleiter seien besonders dann hilfreich, wenn Patienten auf einen Therapieplatz warten oder ihre Übungen zwischen den Sitzungen vertiefen wollen. Die KI fungiere dabei nicht als Ersatz, sondern als strukturierende Ergänzung.

Ein besonders eindrückliches Beispiel stammt aus der Behandlung von Menschen mit akustischen Halluzinationen. In einer britischen Pilotstudie zeigte sich, dass der regelmäßige Dialog mit einem eigens entwickelten digitalen Avatar Betroffenen helfen kann, den Umgang mit dem „Stimmenhören“ zu verbessern. Solche Systeme bieten das Potenzial, die therapeutische Beziehung zu erweitern – insbesondere dort, wo es um niederschwellige, kontinuierliche Begleitung geht, das betont auch Martino. Gerade bei chronischen Verläufen könne eine digital gestützte Selbsthilfe zur Stabilisierung beitragen.

Der Einsatz von KI beschränkt sich dabei nicht nur auf administrative Unterstützung. Vielmehr entwickeln sich zunehmend Systeme, die Inhalte aus psychotherapeutischen Schulen – insbesondere aus der kognitiven Verhaltenstherapie – in digitale Interaktionen übersetzen. Patientinnen und Patienten werden beispielsweise dazu angeregt, Gedankenprotokolle zu führen, Emotionen zu reflektieren oder Lösungsstrategien zu entwickeln. Der Dialog mit dem Chatbot soll dabei Struktur und Orientierung bieten.

Noch sind die meisten dieser Anwendungen in der Testphase. Sie müssen ihre Sicherheit und Wirksamkeit erst in klinischen Studien unter Beweis stellen. Doch sie verdeutlichen bereits heute, welches Potenzial in KI-gestützten Hilfesystemen steckt – besonders in einer Zeit, in der klassische Versorgungsangebote an ihre Grenzen stoßen.

Potenziale für Patienten und Therapeuten

Die Integration von Künstlicher Intelligenz in die psychotherapeutische Versorgung verspricht nicht nur technologische Innovation, sondern auch konkrete Entlastung – sowohl auf Seiten der Patienten als auch der Therapeuten.

Für Betroffene liegt einer der größten Vorteile im niedrigschwelligen Zugang. Digitale KI-Systeme sind rund um die Uhr verfügbar, unabhängig von Ort, Uhrzeit oder Wartezeiten. „Gerade in Phasen hoher Belastung, in denen schnelle Hilfe gebraucht wird, können solche Systeme eine erste Orientierung und emotionale Entlastung bieten“, sagt Dr. Filippo Martino. Sie ersetzen keine Therapie, aber sie können den Einstieg erleichtern – und das oft dann, wenn konventionelle Angebote noch nicht oder nicht mehr greifen. Besonders für Menschen mit starken Hemmungen oder Schamgefühlen kann der anonyme Kontakt zu einem Chatbot ein entscheidender erster Schritt sein. „Manche Patienten trauen sich durch diesen niederschwelligen Einstieg überhaupt erst, Hilfe zu suchen“, so Martino.

Ein weiterer Vorteil: digitale Systeme können Sprachbarrieren überwinden. KI-gestützte Tools mit Simultanübersetzung ermöglichen es, therapeutische Inhalte mehrsprachig anzubieten – eine Entwicklung mit enormem Potenzial für eine multilinguale Gesellschaft.

Doch auch auf der Seite der Behandelnden eröffnet KI neue Möglichkeiten. Vor allem in der administrativen und diagnostischen Unterstützung zeigt sich ihr Nutzen. So könnten KI-Systeme künftig dazu eingesetzt werden, Sitzungsverläufe zu dokumentieren, diagnostische Hypothesen zu generieren oder auf Abweichungen von therapeutischen Leitlinien hinzuweisen. Laut Experten kann der Einsatz von KI bürokratische Aufgaben reduzieren – und so mehr Raum für die persönliche Interaktion in der Therapie zu schaffen.

In einer Zeit, in der psychische Erkrankungen zunehmen, Therapeutinnen und Therapeuten überlastet sind und Wartezeiten vielerorts unzumutbar lang werden, kommt der gesellschaftlichen Bedeutung digitaler Unterstützung eine zentrale Rolle zu. KI kann dabei helfen, Versorgungslücken zu überbrücken – nicht als Ersatz, sondern als Ergänzung in einem System, das zunehmend unter Druck gerät.

Grenzen und Risiken: Wenn Algorithmen nicht weiterwissen

So vielversprechend der Einsatz von KI in der Psychotherapie erscheint – ihre Möglichkeiten enden dort, wo menschliche Feinfühligkeit, Intuition und Beziehung gefragt sind. Gerade in der Psychotherapie, einem Feld, das von Vertrauen, persönlicher Nähe und nonverbalem Austausch lebt, stößt künstliche Intelligenz an natürliche Grenzen.

„Eine wesentliche Herausforderung beim Einsatz von KI ist es, das vollständige Bild eines Patienten zu erfassen – so, wie es ein erfahrener Therapeut kann“, erklärt Dr. Filippo Martino. In der Psychotherapie zählt nicht nur das gesprochene Wort. Auch Körpersprache, Mimik, Tonfall – selbst subtile Signale wie häufiges Schweigen oder das wiederholte Zuspätkommen zu Sitzungen – liefern wertvolle Informationen, die für die Diagnostik und Therapie entscheidend sein können. Solche komplexen, oft intuitiven Prozesse menschlicher Wahrnehmung lassen sich mit aktuellen KI-Systemen nur unzureichend abbilden. Was auf der Oberfläche als Fortschritt erscheint, droht in der Tiefe an Qualität zu verlieren.

Hinzu kommt ein weiteres, nicht zu unterschätzendes Problem: der Datenschutz. In der Psychotherapie geht es um hochsensible, intime Informationen. Wenn diese in digitale Systeme eingespeist und gespeichert werden, stellt sich die Frage, wie sicher sie dort tatsächlich sind. „Ein Mangel an Transparenz oder technische Sicherheitslücken könnten zu einem erheblichen Vertrauensverlust führen“, warnt Martino. Die Schweigepflicht, seit jeher ein Grundpfeiler therapeutischer Beziehungen, muss auch im digitalen Raum absolut gewährleistet sein.

Zudem besteht die Gefahr einer schleichenden Entpersonalisierung therapeutischer Prozesse. Gerade jene Patienten, die auf den emotionalen Kontakt zu einem Menschen angewiesen sind, könnten sich durch automatisierte Systeme unverstanden oder allein gelassen fühlen. Während einige vom anonymen Setting profitieren, brauchen andere genau das Gegenteil: Wärme, Präsenz, ein echtes Gegenüber. „Wir dürfen nicht vergessen, dass der Mensch das Herzstück der Therapie bleibt. KI ist nur dann sinnvoll, wenn sie unterstützt, nicht ersetzt“, betont Martino.

Diese Grenzen sind nicht nur technischer Natur, sondern berühren auch ethische und gesellschaftliche Fragen. Was bedeutet es, wenn emotionale Not digitalisiert wird? Wo verlaufen die Grenzen zwischen Effizienz und Empathie? Und wie schützen wir die Verletzlichsten, wenn Algorithmen entscheiden?

Blick in die Praxis: Wo LLMs heute schon helfen

Während der direkte Einsatz von KI in der Psychotherapie noch in den Anfängen steckt, zeigt sich in anderen Bereichen der klinischen Praxis bereits deutlich, welches Potenzial Large Language Models (LLMs) entfalten können – insbesondere in der medizinischen Dokumentation.

Ein Beispiel dafür liefert das Universitätsklinikum Hamburg-Eppendorf (UKE). Dort werden LLM-basierte Systeme eingesetzt, um die Erstellung von Arztbriefen zu unterstützen. Anhand der vorhandenen Patientendaten generieren die Programme strukturierte Entwürfe medizinischer Berichte. Das spart nicht nur Zeit, sondern sorgt auch für eine einheitliche Qualität der Dokumentation. Gerade in einem überlasteten System ist das ein spürbarer Zugewinn.

Auch in ambulanten Praxen etablieren sich diese Technologien zunehmend. Ärztinnen und Ärzte, die täglich mit wachsendem bürokratischen Aufwand konfrontiert sind, nutzen KI-basierte Systeme, um Routineaufgaben effizienter zu gestalten. Die gewonnenen Ressourcen können dann stärker in die direkte Patientenkommunikation investiert werden – ein Ziel, das auch in der Psychotherapie relevant ist.

Ein weiterer, zukunftsweisender Anwendungsbereich ist die Prävention psychischer Erkrankungen. An der Ludwig-Maximilians-Universität München arbeitet das Team um Professor Nikolaos Koutsouleris im Rahmen des europäischen Forschungsprojekts PRONIA daran, mithilfe von KI frühzeitig Psychose-Risikopatienten zu identifizieren. Junge Menschen mit ersten psychischen Beschwerden – etwa Konzentrationsstörungen, Depressionen oder Denkbeeinträchtigungen – werden in der Früherkennungsambulanz des Projekts umfassend untersucht: per Interview, Magnetresonanztomografie, Gen- und Blutanalysen. Eine lernfähige KI analysiert diese Daten, erkennt Muster und erstellt Vorhersagen über die individuelle Krankheitsentwicklung.

Die Vision: psychische Erkrankungen gar nicht erst chronisch werden zu lassen. „Mittel- bis langfristig wird sich der Fokus der psychiatrischen Versorgung hin zu einem präventiven Ansatz verschieben“, sagt Koutsouleris. Die so gewonnenen Modelle würden auch Hausärztinnen und Hausärzten dabei helfen, Risiken frühzeitig zu erkennen – bevor schwerwiegende Verläufe entstehen. Eine personalisierte, vorausschauende Psychiatrie auf KI-Basis könnte nicht nur individuelles Leid mindern, sondern zudem die Kosten im Gesundheitssystem senken und Ressourcen neu verteilen.

Noch sind diese Systeme nicht flächendeckend im Einsatz, doch sie geben eine Richtung vor, in die sich das Zusammenspiel von KI und psychischer Gesundheitsversorgung künftig entwickeln könnte: weg von reaktiver Behandlung – hin zu gezielter Prävention.

Was sich hier abzeichnet, ist eine neue Rolle für KI in der psychischen Gesundheitsversorgung: nicht als Dialogpartner mit therapeutischem Anspruch, sondern als Kopilot im Hintergrund. Eine Instanz, die ordnet, filtert, unterstützt – ohne selbst zu therapieren. Das ist kein Ersatz für menschliche Urteilskraft, wohl aber eine Ergänzung, die vor allem dort wirkt, wo der klinische Alltag komplex und zeitlich angespannt ist.

Was in der Debatte fehlt – und warum es jetzt darauf ankommt

So rasant sich die technologische Entwicklung auch vollzieht – die gesellschaftliche und ethische Debatte über den Einsatz von KI in der Psychotherapie hinkt ihr vielerorts noch hinterher. Während Entwickler an immer präziseren Modellen arbeiten, fehlt es vielerorts an öffentlichen Diskussionsräumen, klaren Regulierungen und konkreten Standards für den klinischen Alltag.

Dabei steht viel auf dem Spiel. Künstliche Intelligenz ist längst nicht mehr nur ein technisches Tool, sondern eine gesellschaftliche Macht – mit unmittelbarem Einfluss auf Fragen der Gerechtigkeit, Zugänglichkeit und Teilhabe im Gesundheitssystem. Wer entscheidet, wann und wie KI zum Einsatz kommt? Welche Daten dürfen genutzt werden – und unter welchen Bedingungen? Und was geschieht, wenn ein Algorithmus falsch liegt?

„Wir befinden uns an einem Wendepunkt“, sagt Dr. Filippo Martino. Die Digitalisierung könne das Gesundheitssystem nachhaltig verbessern – aber nur, wenn sie verantwortungsvoll gestaltet werde. Dafür brauche es robuste ethische Leitplanken, interdisziplinäre Forschung und eine aktive Mitgestaltung durch medizinische Fachgesellschaften. Auch deshalb wurde die Deutsche Gesellschaft für Digitale Medizin (DGDM) ins Leben gerufen – um Innovation nicht nur technisch, sondern auch ethisch und medizinisch fundiert zu begleiten.

Die Zeit zum Handeln ist jetzt. Denn während in Forschungslaboren neue KI-Modelle entstehen, wächst draußen der Druck auf die psychische Gesundheitsversorgung. Immer mehr Menschen suchen Hilfe, und immer weniger Therapeutinnen und Therapeuten stehen zur Verfügung. Der demografische Wandel, die Zunahme chronischer Erkrankungen und die steigenden Kosten belasten das System. KI allein wird diese Herausforderungen nicht lösen – aber sie kann ein Teil der Lösung sein.

Psychotherapie wird auch in Zukunft ein zutiefst menschlicher Prozess bleiben. Nähe, Empathie, Vertrauen – all das lässt sich nicht digitalisieren. Doch vielleicht liegt die Stärke der KI gerade darin, dass sie nicht ersetzt, sondern ergänzt. Dass sie dort unterstützt, wo Strukturen überlastet sind. Und dass sie – klug eingesetzt – dazu beitragen kann, ein gerechteres, zugänglicheres und moderneres Versorgungssystem zu schaffen.

Die Zukunft der Psychotherapie wird also nicht nur davon geprägt sein, was KI kann – sondern vor allem davon, was sie nicht kann. Und genau darin liegt ihre gesellschaftliche Relevanz.

 

 

 

 

Avatar-Foto

Veröffentlicht von

Dr. med. Marlene Heckl arbeitet als approbierte Ärztin und hat an der Technischen Universität München und Ludwig-Maximilians-Universität studiert und promoviert. Seit 2012 schreibt die Preisträgerin des "Georg-von-Holtzbrinck Preis für Wissenschaftsjournalismus" für Ihren Blog "Marlenes Medizinkiste" und veröffentlicht Science-Videos auf Youtube und modernen social-media Plattformen, für die sie bereits mehrfach ausgezeichnet wurde. Für Spektrum der Wissenschaft, Die Zeit, Thieme, Science Notes, DocCheck u.a. befasst sie sich mit aktuellen medizinisch-wissenschaftlichen Themen, die ihr am Herzen liegen. Kontakt: medizinkiste@protonmail.com

7 Kommentare

  1. Irgendwie hört sich das alles nach der stimmigen, inneren Logik eines Psychotikers an.

    Der Ansatz hat natürlich Zukunft. Ich kann dank KI bessere Teddybären zum Kuscheln herstellen, wenn ich einem Therapie-Delfin eine KI einpflanze, kann der mich nicht nur besser therapieren, sondern auch gleich meine Steuererklärung machen, und Wauzi wird dadurch nicht nur bester Freund, sondern auch bester Pfleger des Menschen, vorausgesetzt, die emotionale Abhängigkeit bleibt erhalten und er merkt nicht, was für einen Omega-Loser er da eigentlich als Herrchen hat. Ich kann die KI auch gleich ins Menschenhirn pflanzen, oder zumindest ein kognitives Stützkorsett bauen, das über Kameras und Kopfhörer und Sensoren und Augmented Reality mit ihm interagiert, seine Fehlfunktionen korrigiert. Sozusagen als Stimme im Kopf, die genau weiß, was sie sagen muss, um die anderen Stimmen im Kopf zu übertrumpfen oder so weit zu verwirren, dass sie nicht stören. Eine Gehirnwäsche gegen die Eigen-Gehirnwäsche, ein Guantanamo, das das andere aufhebt, ein Kung-fu-Kampf der Psychosen oder so was. Oder zumindest ein Stress-Sensor mit Automatik-Spritze, das mit seinen Psychopharmaka quasi als aufgepfropftes Zweit-Hormonregulierungssystem fungiert.

    Aber grundsätzlich läuft hier was falsch.

    Denn Menschen, die gern Psychotherapeut würden, gibt’s genug auf der Welt. Würde man viele von ihnen holen und ihnen eine Ausbildung bezahlen, wäre das ein Win-Win-Geschäft – sie bekämen einen guten, wertvollen Job, die Patienten persönliche Betreuung, die KI höchstens unterstützend nützen würde. Geht aber nicht, aus Kostengründen.

    Essen wäre genug da, Material zum Häuserbau wäre genug da, ein anständiger Lebensstandard wäre für alle Beteiligten möglich. Allein es fehlt das Gelt.

    Geld ist aber eine Wahnvorstellung, und damit fällt es in den Zuständigkeitsbereich der Psychologie. Es ist ein Wunsch, ein Traum, ein Versprechen, das sich in Zukunft erfüllen möge. Und wenn sich die gesamte Weltwirtschaft allein auf das Scheffeln von Geld konzentriert, wenn es alles Nützliche als Kosten verunglimpft, bedeutet das, wir glauben allen Ernstes an die Macht der Wünsche: Wenn wir etwas stark genug wollen, wird es wahr werden, ohne dass wir einen Finger dafür rühren müssen.

    Und wenn dieser Gotteswahn dem Patienten Leid verursacht, und er trotzdem nicht davon lassen will, ganz egal, wie schmerzhaft es wird, wenn er seinen Wahn durch paranoide Verschwörungstheorien und Schuldzuweisungen zu verteidigen sucht und gar gewalttätig wird – fällt das in den Zuständigkeitsbereich der Psychiatrie.

    Sehen Sie Ihren Beitrag also als das Selbstgespräch im Kopf eines Geisteskranken in der Gummizelle: Patient Gott, in der Nachbarzelle links Napoleon, in den drei Zellen zur Rechten noch zwei Götter und ein Jesus. Sie sprechen und handeln im Rahmen eines Massenwahns, einer systemischen Psychose, die genauso einer Behandlung bedarf, wie die Psychose der Einzelnen.

    Hier könnte die KI auch helfen. Im kollektiven Nervensystem lässt sich viel präziser eingreifen, weil es ja als Riesenhirn um uns herum liegt. Psychotherapeuten und Sektenführer, die als Autoritäts- und Vertrauenspersonen das kollektive Bewusstsein manipulieren und lenken, tragen übrigens Titel wie Papst oder Präsident. Die Hypnose der Macht wirkt wie eine Chemie-Keule, sie beeinflusst das System als Ganzes, doch Präzisionschirurgie ist mit Keulen kaum zu machen, und Skalpelle haben viel mehr mit Computern zu tun – mit Zahlen, mit Routinen und Konkreten.

    Und wenn es die Gesundung ist, die die Rate der psychischen Erkrankungen in die Höhe schießen lässt, weil die kognitive Dissonanz bei sehr vielen Individuen nicht mehr ausgeblendet werden kann und sie an dem Widerspruch zwischen Wahn und Realität zerbrechen, wenn wir es mit einem kollektiven Nervenzusammenbruch zu tun haben, vielleicht gar einem Durchbruch – könnte die Therapie des Patienten System auch unzähligen Individual-Patienten helfen.

    Dann kommen wir auch mit den Psychotherapeuten aus, die wir schon haben, und sparen ganz viel Geld. Buhahahihihahahahuhuhahaharrrghh…

  2. Was mich in dem Zusammenhang interessieren würde: Worin besteht in den hier angegebenen Szenarien der ganz konkrete Vorteil einer KI-Lösung gegenüber einer klassischen Programmierung?

    Programmierung kostet, KI hingegen ist schon da, muß sich keiner mehr drum kümmern? Das wäre das typische KI-Nutzungsszenario, wie es tagtäglich in Deutschland scheitert.

  3. Es muss klar werden, was man von einer KI erwartet ?
    Soll sie durch Befragen eine Diagnose stellen ?
    Soll sie nach einer vom Arzt erstellten Diagnose eine Therapie durchführen ?
    Soll sie nur ein Ersatz für einen Psychotherapeuten sein, um die Wartezeit zu überbrücken, oder ist es gar keine KI sondern nur ein Programm zum Zeitvertreib aber mit einem sinnvollen Inhalt ?

    Erst dann kann man sagen, war das jetzt sinnvoll oder nicht .

  4. Liebe Frau Heckl,
    hier Ihr Scilogs-Blogger-Kollege von “3G”. Sie haben definitiv inhaltlich bessere Kommentare für Ihren sorgfältig geschriebenen Blogbeitrag verdient!

    Mein Eindruck ist, dass LLM in der Psychotherapie die Frage 1. nach der Rolle von Sprache (einschl. paralinguistischer, aber immer noch sprachlicher Merkmale) und 2. dann auch nach der Natur und Zielsetzung der Psychotherapie überhaupt aufwerfen und in ein ganz neues, interessantes Licht rücken. Es gibt ja Studien, die zeigen, dass ChatGPT Ärzten/-innen nicht nur fachlich, sondern – deutlicher sogar! – in Sachen Einfühlungsvermögen (aus Patientensicht beurteilt) überlegen war. ChatGPT, so meine Erfahrung, antwortet sehr genau und stets vollständig auf einen Prompt – was den Eindruck eines tieferen Verständnisses und eines qualitativ besseren Zuhörens vermittelt (obwohl man ja weiß, dass da niemand ist, der irgendetwas hört oder gar versteht …).

    Viele Menschen könnten es als Vorteil empfinden, in entlastender Weise z.B. über ein Trauma zu sprechen – damit aber niemanden zu belasten!

    Interessant ist auch, dass wir bei Nutzung von ChatGPT die Antworten beurteilen, was ja bedeutet, dass wir vorher eine bestimmte Erwartung hatten. In einem Psychotherapie-Kontext bedeutet das, dass Klienten/-innen irgendwie vielleicht sogar auf bestimmte Anregungen oder “Mitteilungen” oder sogar Ratschläge “warten”, diese sich aber nicht selbst sagen können, sondern jemand es ihnen sagen muss. Es ist eben ein Unterschied, ob ich mir selbst sage (einrede): “Du hast das überlebt. Du warst tapfer. Du bist dadurch stärker geworden.” – oder ob eine andere Person, die mir in die Augen sieht und die mich vorher ein wenig kennengelernt hat – ein/e anerkannte/r Experte/in für das Thema vielleicht sogar – mir genau diese Worte sagt.

    Wir sind natürlich deutlich komplexer als ChatGPT, aber im Prinzip sind wir Menschen ja auch eine Art K.I.: Informationen fließen durch uns durch und lösen Reaktionen aus; dabei lernen wir die ganze Zeit. So gerät man dann an eine/n Therapeuten/in mit seinen/ihren ganz individuellen Prägungen, Dispositionen, Kenntnissen, Fertigkeiten. Worin besteht der Sinn und der Mehrwert, DIESER “Intelligenz” zu begegnen und mit DIESER Intelligenz mein Leben zu besprechen? Was bedeutet das für die Idee einer ent-personalisierten, modularisierten und standardisierten Psychotherapie?

    Ganz ähnliche Fragen stellen sich in Bezug auf Kunst und Literatur: Was ist der Unterschied zwischen K.I.-generierten, technisch vielleicht überlegenen Werken und den möglicherweise unvollkommenen Werken eines ganz bestimmten konkreten Menschen? (Ich muss gerade an den Unterschied zwischen Kunsthandwerk und Kunst denken …)

    Ich persönlich finde, es sind gerade spannende Zeiten, in denen wir genau das herausfinden werden: welche Bedeutung hat jeder einzelne Mensch? worin besteht der wirkliche Beitrag eines jeden (wenn seine Fähigkeiten technisch bald ersetzt werden können)?

  5. Der Artikel trifft genau meinen Punkt: Alle Diagnosen und Gutachten liegen vor, trotzdem werde ich als Schmerzpatient mit Suchtgeschichte nicht gehört. Zwischen Algorithmus und Empathie bleibe ich im Alltag an den Akten kleben, statt als Mensch ernstgenommen zu werden.

  6. Dr. Marlene Heckl, MD, stands out as a passionate science communicator who bridges the gap between complex medical research and everyday understanding through her award-winning blog “Marlene’s Medicine Box.” Her dedication to making science accessible has earned her recognition across prestigious publications and platforms. Similarly, SlotenmakerTao values expertise and trust — providing professional locksmith services with precision, reliability, and care, ensuring that every solution is secure, efficient, and tailored to the needs of its clients.

  7. Ich finde den Vergleich zwischen medizinischen Algorithmen und menschlicher Empathie sehr interessant. In vielen Bereichen, nicht nur in der Medizin, sehen wir, wie stark Algorithmen unseren Alltag prägen. Das gilt auch für den Bereich der Online-Unterhaltung, wo Algorithmen das Nutzererlebnis personalisieren. Besonders bei deutsche casino anbieter wird künstliche Intelligenz eingesetzt, um Spielempfehlungen zu geben oder Bonusangebote individuell anzupassen. Natürlich darf man dabei nicht vergessen, dass trotz aller Technik der menschliche Faktor wichtig bleibt – sei es in der Medizin oder beim verantwortungsvollen Spielen. Am Ende geht es immer darum, die Balance zwischen Daten und Menschlichkeit zu halten.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +