In meinem letzten Blogpost habe ich darüber berichtet, dass ich verschiedene Anwendungsszenarien von ChatGPT und anderen LLMs in meinen bevorstehenden Beratungs-Lehrveranstaltungen testen möchte. Hierzu gab es doch einiges an Resonanz, so dass ich gerne noch ein paar Punkte hinzufügen möchte. Mir ist wichtig, an dieser Stelle anzumerken, dass – auch wenn ich mich inzwischen fast täglich mit der Thematik beschäftige – noch immer Lernende bin und diesen Prozess als ‚work in progress‘ betrachte und im Blog reflektiere und mit anderen teile.
Einsatz von generativer KI im Beratungslernen
In diesem Artikel möchte ich versuchen, einzuschätzen, was derzeit mit Hilfe von generativer KI im Kontext der Beratung möglich ist, und dabei auch differenzieren. Mein Ziel ist es nicht, KI einzusetzen, um Studierende davon abzuhalten, selbst Beratungsgespräche zu führen oder im Kontext von Onlineberatung keine E-Mails mehr zu schreiben oder Chats zu führen. Im Gegenteil, ich halte es immer noch für unerlässlich, dass bei komplexeren Anliegen ein Mensch das Gespräch führt und gestaltet, anstatt dies von einer KI übernehmen zu lassen. Und aktuell sehe ich auch keinen Mehrwert darin, wenn man es täte.
Bei meinem kleinen Lehr-Experiment geht es vielmehr darum zu prüfen, wie KI das Beratungslernen unterstützen kann. Dazu hatte ich im o. g. Beitrag verschiedene Beispiele skizziert. Die KI soll also nicht die Beratung übernehmen, sondern in verschiedenen Formen unterstützen und Material generieren, das zur Übung, Reflexion und Auswertung der eigenen Beratungleistun bzw. des Übens von Beratungssequenzen verwendet werden kann.
Generative KI kann noch keine Beratung für uns übernehmen
Wenn man Beratungsgespräche lediglich als einfaches Frage-Antwort-Spiel betrachtet, könnte man zu dem Schluss kommen, dass generative KI dies durchaus übernehmen könnte. Doch wenn ich von Beratung spreche, meine ich einen „Prozess, bei dem Ratsuchende durch die Interaktion mit einer anderen Person Klarheit über Probleme, Bewältigungsmöglichkeiten, Entscheidungsalternativen und Entwicklungsperspektiven gewinnen“ (Rechtien 2018) (siehe: https://www.socialnet.de/lexikon/Beratung).
Bereits in dieser Definition steckt ein wichtiger Aspekt: Beratung ist eine Interaktion zwischen zwei Menschen und nicht zwischen Mensch und Maschine (oder einer Webseitemit FAQ-Liste, auf der man nach Informationen sucht). An diesem Punkt könnte der Blogartikel eigentlich enden. Doch es gibt noch mehr zum Thema zu sagen und warum diese Interaktion zwischen Menschen stattfindet und nicht durch eine Interaktion zwischen Mensch und Maschine ersetzt werden kann.
Kritik von Noam Chomsky und anderen Linguisten
Kürzlich haben Noam Chomsky et al. in der New York Times einen Essay veröffentlicht, der versucht, den aktuellen Hype um die nahezu menschenähnlichen Fähigkeiten von ChatGPT etwas zu bremsen. In dem Artikel mit dem Titel „AI Unravelled: The false promise of ChatGPT“ beschreiben Chomsky und seine Kolleg:innen, warum ChatGPT zumindest aus linguistischer Sicht überbewertet wird. Sie kommen zu dem Schluss:
„However useful these programs may be in some narrow domains (they can be helpful in computer programming, for example, or in suggesting rhymes for light verse), we know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do, encoding them with ineradicable defect.“(Chomsky, Roberts, Watumull, o. S. 2023)
(Eigene Übersetzung: „Obwohl diese Programme in einigen engen Bereichen nützlich sein können (sie können zum Beispiel bei der Programmierung oder beim Vorschlagen von Reimen für leichte Verse hilfreich sein), wissen wir aus der Linguistik und der Erkenntnistheorie, dass sie sich grundlegend von der Art und Weise unterscheiden, wie Menschen denken und Sprache verwenden. Diese Unterschiede setzen ihnen erhebliche Grenzen, die sie mit unüberwindbaren Defekten versehen“).
Während ChatGPT eine statistische Maschine ist, die mit enormen Datenmengen gefüttert werden muss, um dann nach dem Prinzip der „Beschreibung und Vorhersage“ (description and prediction) eine wahrscheinliche Antwort auf eine Unterhaltung zu generieren, benötigt der Mensch vergleichsweise wenig Informationen und ist in der Lage, Erklärungen zu liefern, was wiederum ein Ausdruck echter Intelligenz sei.
Unterschiedliche Arten von Chatbots
Alison Darcey, die Gründerin von woebothealth, die verschiedene Chatbots für psychische Gesundheit entwickelt hat, beschreibt die Fähigkeiten und Einsatzmöglichkeiten von generativer KI ebenfalls als begrenzt. Sie unterscheidet dabei zwischen verschiedenen Arten von Chatbots. Während ein LLM wie ChatGPT völlig neue Sätze generiert, die auf Wahrscheinlichkeiten beruhen, basiert ein Modell wie Woebot auf einem hochkomplexen Entscheidungsbaum oder Wissensgraphen, der sorgfältig mit ML/NLP-Klassifikatoren entwickelt wurde. Diese Klassifikatoren werden aus gekennzeichneten Datensätzen abgeleitet und auf Gesamtgenauigkeit, Präzision und Erinnerung überwacht. Das grundlegende „Format“ des Gesprächs orientiert sich daran, wie Kliniker Probleme angehen. Es handelt sich also um „Expertensysteme“, die speziell darauf ausgerichtet sind, die Entscheidungsfindung von Klinikern während einer Interaktion zu replizieren (siehe: https://woebothealth.com/why-generative-ai-is-not-yet-ready-for-mental-healthcare/).
Kurz gesagt: Ein im maschinellen Lernen trainiertes Modell eignet sich besser für medizinische/therapeutische Gespräche als ein LLM, da es im Gegensatz zu letzterem keine Halluzinationen erzeugen würde und somit keine potenziell gefährlichen Antworten liefere.
Vorteile und Potenzial von LLMs in der Beratung
Was LLMs so attraktiv und faszinierend macht, ist, dass ihre Antworten oft weniger „statisch“ klingen und auf den ersten Blick kaum von einer menschlichen Antwort zu unterscheiden sind. Wenn man dann noch die Möglichkeit betrachtet, ChatGPT mit einer menschlichen Stimme zu trainieren und über die ChatGPT-API über den Facebook Messenger laufen zu lassen, wie kürzlich am Beispiel des bereits verstorbenen Apple-Gründers Steve Jobs geschehen (siehe: https://www.macwelt.de/article/1665621/chatty-ai-steve-jobs-spricht-aus-dem-grab.html), kann man sich vorstellen, welches Potenzial darin auch für Beratung & Therapie steckt.
Empathische Bewertung der KI-generierten Textantworten
Ebenfalls nicht zu unterschätzen ist die Tatsache, dass in einer Studie von Sharma et al. (2022) die von der KI generierten Textantworten als empathischer bewertet wurden als die von Menschen (siehe: https://arxiv.org/abs/2203.15144). Diese Erkenntnis unterstreicht das Potenzial von generativer KI in der Beratung und legt nahe, dass KI-gesteuerte Systeme in der Lage sind, unterstützende und einfühlsame Antworten zu generieren. Gleichwohl ersetzen sie menschliche Interaktion und Einfühlungsvermögen nicht – die KI ‚fühlt‘ nicht, sie simuliert nur. Das aber oft erstaunlich gut. Interessant könnte also sein den Fokus darauf zu legen, wie die Kombination von menschlicher emotionaler Intelligenz sowie Fachwissen und KI-Unterstützung zusammenwirken können. Und ob sich daraus tatsächlich ein Mehrwert ergibt.