1 Einleitung

Die digital unterstützten Angebote im Kontext der Beratung sind vielfältig und gerade KI-gesteuerte Formate wie Chatbots, Apps oder Virtual Reality bieten scheinbar unbegrenzte Möglichkeiten und Erweiterungen professionellen Handelns – seien es Szenarien des Blended Counseling oder auch als alleinige Angebote im heterogenen Feld der Onlineberatungen.

So existieren in medizinischen oder psychologischen Kontexten bereits Avatar-basierte Therapien bei sozialen Phobien oder Essstörungen, es werden virtuelle Umgebungen in einer Konfrontationstherapie genutzt oder eine Virtuelle Realität zur Prävention bei posttraumatischen Belastungsstörungen eingesetzt (Bredl et al. 2017, S. 15 f.). Diese Vielfalt umfasst auch das Feld der (Weiter‑)Bildungseinrichtungen – von verschiedenen Beratungsformaten in reinen digitalen Settings, Blended-Counseling-Szenarien (Kreller und Thiery 2021) bis hin zu reinen Chatbots. Folglich ist in der FAZ vom 08.07.2023 für den Kontext von beruflicher Beratung zu lesen, dass im Rahmen von Coaching der textbasierte Anfang durch digitale Coaching-Anbieter wie z. B. Coach Hub gemacht ist (Brinkmann et al. 2023, S. 2). Coach Hub verkauft Trainingsprogramme für Fach- und Führungskräfte auf der Basis von ChatGPT.

Doch zurecht merkt Engelhardt (2018, S. 161) an, dass weniger entscheidend ist, was technisch möglich ist, sondern es stattdessen zu entscheiden gilt, was von wem gewünscht und ethisch vertretbar ist. Was bedeutet es für alle Beteiligten, wenn Ratsuchende mit einem Computer über ihre Probleme sprechen? Können Hilfesuchende anhand von automatisierten Selbsttests eine Erstdiagnose vornehmen? Fragen, die nicht zuvorderst das technisch Machbare fokussieren, sondern auf die dringliche Notwendigkeit einer ethischen Verantwortung in der rasant zunehmenden Digitalisierung aller Lebensbereiche verweisen. Denn ebenso wie in analogen Angeboten entfalten sich auch in digital unterstützten Beratungsformaten ethische Fragen auf den Ebenen von Qualität und Professionalität, im eigentlichen beraterischen Handeln, der Verwendung von Techniken und Methoden, der Intensität der Begleitung, der Zuständigkeit der Einrichtungen, dem Hinterfragen von Anliegen und Auftrag sowie der Zugänglichkeit des Angebotes für die jeweils präferierte Zielgruppe, den Fragen nach Datenschutz und Datensicherheit oder zu gesellschaftlichen Debatten von KI und Avatar-gestützten Beratungssettings. Auch wenn bereits einige grundsätzliche Überlegungen zum Einsatz von KI existieren (vgl. UNESCO 2021; Deutscher Ethikrat 2023), so fehlt es doch gerade auf der Ebene von beispielsweise Berufsverbänden, Ausbildungscurricula oder Leitbildern häufig noch an einem ethisch begründeten Hinterfragen digitaler Beratungskonzepte und Tools hinsichtlich der Konsequenzen für alle Beteiligten.

Mit Blick einer erwachsenenpädagogischen Ausrichtung im Kontext der Akteure konstatieren Bernhardsson und Fuhr bereits 2014 nicht nur fehlende ethische Standards, sondern monieren, dass unklar ist, wie diese implementiert werden könnten (Bernhardsson und Fuhr 2014, S. 39). Begründet hinterfragen sie, „dass es problematisch sein kann, wenn Ethiken aufgestellt werden, die nicht auf einem Diskurs beruhen, der eine Forschungsgrundlage hat und alle Akteure der Erwachsenenbildung mit einbezieht“ (ebd., S. 40). Somit fehlt nach wie vor die Perspektive der Akteure, insbesondere bezogen auf alltägliche ethische Probleme und Fragestellungen im beruflichen Handeln. Hinsichtlich der heterogenen Arbeitsfelder gerade im Kontext der Beratung wird mit dem Fokus eines erwachsenenpädagogischen Zugangs der Begriff der Professionsethik verwendet, der auf Prozesse der Professionalisierung verweist, während mit dem Terminus der Berufsethik die einzelnen Arbeits- und Berufsfelder angesprochen sind. Hier finden sich meist berufsethische Codices der Berufsverbände und Fachgesellschaften, die ethische Grundlagen und Fragen des beruflichen Alltags i. d. R. in einem handlungspragmatischen Duktus aufgreifen.

Auch wenn der Artikel nicht auf eigene empirische Forschungsergebnisse zurückgreifen kann, so möchte er dennoch erste Denkanstöße zum Einsatz von KI in Bezug auf mögliche berufsethische Fragen bieten. Dazu wird eine normative Ethik bemüht, da sie hinterfragt, welches Handeln als richtig gelten kann und wie gehandelt werden soll. Die normative Ethik versucht in diesem Zusammenhang verbindliche und gut begründete Aussagen darüber zu machen, wie der Mensch handeln soll und welche ethischen Richtlinien als Orientierungs- und Bewertungsmaßstab geeignet sind. Ziel des vorliegenden Beitrags ist es somit, nach der Verknüpfung eines pädagogisch verstandenen Beratungsverständnisses mit Grundlagen einer normativen Ethik, ethische Dimensionen des Einsatzes von KI-gestützten Tools in (Bildungs‑)Beratungssettings zu thematisieren. Darauffolgend werden erste potenzielle Kriterien für die verschiedenen Beratungsebenen aufgeworfen. Dabei orientiert sich der Beitrag aus systematischen Gründen am Mehrebenenmodell (Schiersmann et al. 2017). Der Artikel schließt mit möglichen Konsequenzen und Kriterien zum Einsatz von KI im Kontext der (Weiter‑)Bildungsberatung.

2 Beraterisches Grundverständnis und normative Ethik

2.1 Beraterisches Grundverständnis

Ausgehend von einem pädagogisch verstandenen Beratungsverständnis, das Prozesse des Lernens in den Vordergrund stellt, kommt – gerade auch aus ethischer Perspektive – der Reflexivität eine zentrale Rolle zu. Sie umschließt sowohl die Ratsuchenden als auch die Beratenden, aber auch Ebenen der beteiligten Institutionen und gesellschaftliche Dimensionen. Ein reflexives Beratungsverständnis forciert die Selbstklärung der Ratsuchenden als Fokus des intersubjektiven Kommunikationsprozesses. Es ist ihr Anspruch, sowohl das konkrete Beratungsanliegen zu bearbeiten als auch Übertragungsmöglichkeiten für zukünftige Anlässe zu eröffnen (Nierobisch und Burkard 2020, S. 19). Neben den interpersonellen und interaktionalen Ebenen bedeutet Reflexivität aber auch, so Dewe und Schwarz (2013, S. 204), die Spannungen und Antinomien von Theorie und Praxis zu thematisieren und zu erinnern, dass Beratung immer gesellschaftsbezogenes Handeln ist und eine Form gesellschaftlicher Praxis darstellt. Demnach

„müssen die Regeln und Mechanismen ihrer Theorieproduktion in eine Beziehung zu den Produktionsverhältnissen, Herrschaftsstrukturen und Hegemoniekämpfen gesetzt werden, die jener in nicht unerheblichem Maße ihren Stempel aufdrücken. […] Niemals ist Theoriebildung unabhängig von konkreten gesellschaftlichen Reproduktionsverhältnissen, auch wenn sie einen Überschuss über das Bestehende hinaus generieren kann“ (Bernhard 2015, S. 33).

Dies gilt ebenso für Fragen einer ethischen Ausrichtung. Ethik kann – erstens – als Gegenstand bzw. Problemstellung in der Beratung fungieren. Zum zweiten kann sie als Anforderung an die Professionalität und als Qualität der Beratung (= Ethos der Beratung) verstanden werden. Dies betrifft sowohl die Auseinandersetzungen mit Leitbildern einer Einrichtung, die Diskussionen um Auftrag und Umsetzbarkeit als auch Fragen der Qualitätsentwicklung und Kompetenzprofile im Kontext Beratung. Pointiert formuliert wird Ethik hier zum Konfliktmodell – es wird praktisch wirksam in der Bearbeitung der Pluralität von Interessen, Werten, Kontexten, Perspektiven usw. und zwar interpersonell wie intrapersonell (vgl. Freitag-Becker 2018). Dabei ist auch digitale Beratung trotz methodischer und instrumenteller Werkzeuge nicht wertfrei. Sowohl Ratsuchende als auch Beratende äußern implizit oder explizit ihre Werte, die immer geprägt sind durch gesellschaftliche oder sozialpolitische Ziele und biografische Erfahrungen (vgl. Knatz und Dodier 2021, S. 236).

Dem Anspruch der eigenen Reflexivität folgend, lohnt es sich, ethische Fragestellungen auch anhand der vorliegenden Ethik-Richtlinien oder -Codices der Berufsverbände im Arbeitsfeld der Beratungseinrichtungen heranzuziehen und hinsichtlich ihres Transfers auf das digitale beraterische Handeln zu hinterfragen – gerade auch zu gesellschaftlichen Megatrends von Mediatisierung und Digitalisierung (vgl. Nierobisch 2020). So zeigen sich sowohl bei der Beratung in Bildung, Beruf und Beschäftigung (BBB), der Gesellschaft für Personenzentrierte Psychotherapie und -beratung (GwG), der Deutschen Gesellschaft für Systemische Therapie, Beratung und Familientherapie (DGSF) sowie der Deutschsprachigen Gesellschaft für Online-Beratung (DGOB), dass sie neue gesellschaftliche oder sozialpolitische Entwicklungen, Zielsetzungen des jeweiligen Verbandes, institutionelle Aufträge, wissenschaftliche Erkenntnisse und Erfahrungen berücksichtigen. Den hier präsentierten Ethikleitfäden ist gemeinsam, dass sie vorrangig auf eine Ethik i. S. einer beraterischen Haltung und eines Verhaltenscodex verweisen, der sich an allgemeinen Wertmaßstäben und klassischen Beratungsgrundhaltungen und -prinzipen orientiert. Besondere Bedeutung genießen dabei eher rechtliche Parameter wie Datenschutz und Vertraulichkeit. Ethische Fragen, die sich aus Digitalisierung und Technisierung ergeben, werden nur vereinzelt aufgegriffen. Das Maß der Verbindlichkeit kommt dabei weniger einer Verpflichtung als eher einer Empfehlung nach.

Im Vergleich der Richtlinien der Fachverbände zeigt sich, so Beck (2018), eine Schwierigkeit der Beratungsstandards. Sie machen nahezu keine Angaben zu den Begründungen der einzelnen Vorgaben, allenfalls gelegentlich andeutungsweise in Nebensätzen oder pauschal in der Präambel.

„Dabei wäre es von Vorteil, die Pro- und Contra-Argumente [zu] kennen, die im Aushandlungsprozess jedes einzelnen Standards ursprünglich erörtert wurden, denn dann könnten sie verlässlicher interpretiert werden […]. So gesehen fehlt manchen sogenannten Berufsethiken ausgerechnet die ethische Substanz, nämlich die Regelbegründung. Es ist aber die Qualität der Begründung, die den Geltungsanspruch einer Regel allererst zu stützen vermag“ (Beck 2018, S. 3).

Auch das Maß der Verbindlichkeit verweist im Duktus einer Orientierung oder Empfehlung nur bedingt auf die Relevanz ethischer Richtlinien oder Verordnungen. So betonen Rohs und Bernhardsson-Laros (vgl. Rohs und Bernhardsson-Laros 2022) dass

„vielmehr davon ausgegangen werden, muss, dass sich diese Orientierungen erst in der Auseinandersetzung mit den ethischen Fragestellungen ergeben und zu allgemeinen Orientierungen, z. B. im Rahmen von Ethikkodizes oder im Rahmen von Kompetenzmodellen verdichtet werden können. Gleichzeitig ist für diesen Prozess auch immer eine individuelle Reflexion eigener Haltungen notwendig“ (2022, S. 8).

2.2 Normative Ethik

Die Darlegung des beraterischen Grundverständnisses als reflexives-pädagogisches Handeln, das immer auch eingebunden ist in komplexe individuelle und gesellschaftliche Zusammenhänge, verweist auf die Notwendigkeit ethischer Rückbezüge. Ethik im Kontext beraterischen Selbstverständnisses und Handelns kann sich nicht auf die Beschreibung eines „Ist-Zustand[s]“ (Marschütz 2009, S. 24) beschränken, sondern bedarf der Idee eines Guten und Richtigen, welche auch ein Sollen impliziert. Eine rein deskriptive Ethik, welche sich mit der Feststellung des gelebten Verständnisses von guter Beratung begnügt – auch wenn diese auf empirische Erkenntnisse gestützt ist – kann dem Anspruch einer normativen Ethik nicht gerecht werden (ebd.), denn sie versäumt es „zu einer wertenden oder vorschreibenden Aussage zu kommen“ (Ernst 2009, S. 5).

Normative Ethik versucht unter dem Anspruch des vernünftigeren Arguments darzulegen, wie zu richtigen Handlungen gelangt werden kann, bzw. gute Haltungen ausgebildet werden können (vgl. Marschütz 2009, S. 28). Es geht also darum, Verbindlichkeit in den Haltungen und Handlungen herzustellen – wie es der lateinische Ursprung des Begriffs (norma = Richtschnur, Regel) andeutet. Zu schnell wird eine normative Ethik auf eine reine Normethik, i. S. einer Befolgung von Regeln verkürzt. Eine Normethik kann dann Legitimität beanspruchen, wenn sie nicht nur Einzelnormen oder Normtypen begründet, sondern gerade auch über das gewählte Normbegründungsverfahren Rechenschaft ablegt (vgl. Ernst 2009, S. 13). So können Normen ihre „Orientierungsfunktion“ (Rosenberger 2018, S. 73) entfalten, wenn sie als „zu Standards geronnene Güterabwägung“ (ebd., S. 67) den Sinn des zum Ausdruck zu bringenden gesellschaftlich schützenswerten Wertes bzw. der individuell gewonnenen Sinneinsicht verdeutlichen (vgl. ebd., S. 73).

Eine Professionsethik kann sich also weder mit der Beschreibung der moralischen Orientierung der sozialprofessionell Handelnden noch mit der bloßen Aufstellung von Einzelnormen zufriedengeben. Sie hat auf ihre normativen, also vernünftigen und darin allgemein anerkennungsfähigen Grundlagen zu reflektieren. „Eine Professionsethik besteht […] in der Forderung, das normative Selbstverständnis […] gleichsam als Verfassung der Profession anzuerkennen“ (Kaminsky 2017, S. 154). Um diese Anerkennung zu gewährleisten, dürfen also nicht nur Normen aufgestellt, sondern müssen diese auch begründet werden. Deshalb greift auch eine reine Berufsethik in Form von Ethikkodizes, welche nur auf das moralisch korrekte Verhalten der Mitglieder der Profession abzielt, zu kurz. Für die (Weiter‑)Bildungsberatung bedeutet dies, dass die ethische Normierung nicht bei der Frage der Beratungstätigkeit stehen bleiben darf. Es gilt vielmehr als Profession danach zu fragen, welcher Weg mit KI-gestützten Beratungstools auf allen Ebenen des Beratungsprozesses (welche dessen Rahmenbedingungen miteinschließt) normativ verantwortbar ist.

Um in der Frage nach dem Einsatz von KI-gestützten Tools in der (Weiter‑)Bildungsberatung eine Orientierung zu ermöglichen, möchten wir in diesem Beitrag zu einer Annäherung an eine Normethik über das Reflektieren über ihre anthropologischen und normativen Grundlagen gelangen. Dafür wird in Kapitel drei auf die für die moralische Urteilsbildung grundlegende Voraussetzung eingegangen: die Fähigkeit des Menschen zu einer autonomen Lebensführung und zu freiverantwortlichen Entscheidungen. Ebenso muss aber auch der Kontext, in dem diese Entscheidungen getroffen werden, Berücksichtigung finden, um auch gesellschaftlich zu einer normativen Orientierung zu kommen. Die Denkansätze zur Care-Ethik und der Epistemischen Ungerechtigkeit werden dafür fruchtbar gemacht.

3 Ethische Fragen zum Einsatz von KI in (Bildungs‑)Beratungssettings

Die Umwälzungen durch Deep Learning und die Möglichkeiten KI-gestützter Beratung bedürfen tiefgreifender ethischer Überlegungen. Dabei wird hier kein Anspruch auf Vollständigkeit in der Bearbeitung der vielfältigen Entwicklungen erhoben. Vielmehr soll, wie es dem Selbstverständnis von Ethik als „praxisorientierte[r] Reflexionstheorie von Moral und Ethos“ (Merkl 2022, S. 15) entspricht, ein Schritt zurückgegangen werden. Es gilt, sinnvolle Fragen zu stellen, um im Verlauf Orientierung zu finden, die nicht nur von den vermeintlichen Expertinnen und Experten vorgegeben wird, sondern gerade alle im Beratungskontext Beteiligten zu einer reflektierten Auseinandersetzung befähigt.

Mit dem Fokus eines möglichst konkreten Transfers auf ethisch basierte Fragestellungen in der (Bildungs) Beratung werden dazu der Mehrebenenansatz (vgl. Schiersmann et al. 2017) mit potenziellen Ebenen ethischer Konflikte verknüpft werden. Der Blick geht in einem ersten Schritt auf die Ebene der Interaktion – oder in ethischer Diktion – auf die Stufe der Individualethik. Hierbei werden sowohl die Ratsuchenden der (Bildungs‑)Beratung als auch die Beratenden in den Blick genommen. Um sich den durch den Einsatz von generativer KI vorangetriebenen Veränderungen und den damit notwendig werdenden, veränderten normativen Implikationen zu nähern, ist es dabei unerlässlich, auf die Verknüpfung von Anthropologie und Ethik einzugehen: Welche (sich wandelnden/gewandelten) Vorannahmen über Mensch, Maschine und deren Beziehung stehen im Raum und welche ethischen Konsequenzen ergeben sich daraus? Der ethische Schwerpunkt wird auf Fragen im Spannungsfeld von Autonomie und Interdependenz liegen und die ethische Rede von der Freiverantwortlichkeit (vgl. Deutscher Ethikrat 2018) fokussieren. Denn eine der zentralen individualethischen Fragestellungen mit Blick auf die Erstellung von Kriterien für den Einsatz von KI-gestützten Instrumenten lautet: Wie kann die Freiverantwortlichkeit sowohl der Ratsuchenden der (Bildungs‑)Beratung als auch der Beratenden gestärkt werden? Dies soll auch von einer machtkritischen Perspektive aus beleuchtet werden, die zu den normativen Fragen auf der institutionellen Ebene überleitet.

In der Systematik voranschreitend, gilt es den Blick auf der zweiten Ebene in Richtung institutioneller und organisationaler Kontexte zu lenken: (Weiter‑)Bildungsinstitutionen und Beratungsstellen spielen eine zentrale Rolle auf der Meso-Ebene zwischen Individuum und Gesellschaft. Institutionen, Einrichtungen sowie auch die Berufsverbände stehen vor ganz eigenen Veränderungen und Herausforderungen durch den Einsatz von KI-gestützten Tools. Dabei werden aus einer ethischen Perspektive Mandatskonflikte ebenso thematisiert wie die Herausforderungen durch den Fachkräftemangel und die Rolle, die die Einführung von KI-gestützten Instrumenten dabei spielt.

Als letzte Ebene der Systematik und damit in ethischer Diktion im Bereich der Sozialethik angekommen, gilt es den gesellschaftlichen Kontext der (Bildungs‑)Beratung in den Blick zu nehmen. Von den individualethischen Überlegungen zur Freiverantwortlichkeit und selbstbestimmten Lebensgestaltung der Ratsuchenden über die strukturelle Frage nach den Rahmenbedingungen der (Bildungs‑)Beratung unter dem Vorzeichen der Künstlichen Intelligenz soll hier der Horizont unter der Zuhilfenahme des Care-Ethik Ansatzes von Joan Tronto (1998, 2013) und den Überlegungen zur „Epistemischen Ungerechtigkeit“ von Miranda Fricker (2007) noch weiter aufgespannt werden.

Was ist uns – als Gesellschaft – die (Weiter‑)Bildung von Menschen eigentlich wert? Hier schließt der Artikel an Überlegungen von Joan Tronto in ihrem Werk Caring Democracies (2013) an. Dass (Bildungs‑)Beratung als Care-ArbeitFootnote 1 einen intrinsischen und inkommensurablen Wert für die Gesellschaft besitzt, ist Ausgangspunkt für die Frage, wie sie unter den Bedingungen einer zunehmenden Digitalisierung organisiert werden soll. Denn die Beantwortung dieser ist aufs engste mit der zentralen ethischen Kategorie der sozialen Gerechtigkeit verbunden. Dass diese nicht erst dann in Gefahr ist, wenn Menschen von Bildungsgütern ausgeschlossen werden, sondern eine „Epistemische Ungerechtigkeit“ (Fricker 2007) vorherrscht, wird in diesem Abschnitt erläutert werden. Gerade mit dem kritischen Blick der Responsibilisierung gesellschaftlich verursachter Problemlagen auf die einzelnen Personen bedarf es einer (mitunter neuen, nicht kapitalistisch motivierten) normativen Orientierung, die nicht nur den Bogen von der Makroebene hin zur Mikroebene zurückschlägt, sondern Kriterien zum Einsatz von KI-gestützten Instrumenten in der (Bildungs‑)Beratung bereitstellt.

3.1 Interaktion und Beziehung

3.1.1 KI und Freiverantwortlichkeit

Die Bedeutung der Thematisierung der Freiverantwortlichkeit – so viel kann an dieser Stelle vorweggenommen werden – besteht darin, dass der Künstlichen Intelligenz oder den KI-gestützten Tools – egal in welcher Form – diese menschliche Fähigkeit zum Treffen autonomer Entscheidungen nicht zugesprochen werden kann. Kann die KI diese Kompetenz nicht für sich beanspruchen, muss infrage gestellt werden, ob sie Menschen beim Abwägen und Umsetzen von existentiellen Entscheidungen, wie bspw. der Berufswahl, unterstützen kann. Dazu ist ein Beziehungsprozess mit einem echten Gegenüber notwendig, wie dies auch im Beratungsverständnis von Nestmann und Sickendiek zum Ausdruck kommt:

„Beratung leistet Beistand bei der kognitiven und emotionalen Orientierung in widersprüchlichen und unübersichtlichen Situationen und Lebenslagen. Sie unterstützt Ratsuchende dabei, Wahlmöglichkeiten abzuwägen, sich zwischen Alternativen zu entscheiden oder aber Optionen bewusst offenzuhalten. Beratung fördert Zukunftsüberlegungen und Pläne, die aus neu gewonnenen Zielrichtungen und Entscheidungen resultieren, sie hilft Ratsuchenden die Planungsschritte zu realisieren und begleitet erste Handlungsversuche mit Reflexionsangeboten. […] Beratung zielt auf das Fördern und (Wieder‑)Herstellen der Bewältigungskompetenzen der Klient*innen selbst und ihrer sozialen Umwelt, ohne diesen die eigentliche Problemlösung abnehmen zu wollen“ (Nestmann und Sickendiek 2018, S. 110 f.).

Diese Definition beraterischen Handelns mag für jene, die in diesem Feld in Wissenschaft und/oder Praxis tätig sind, eine ans Triviale grenzende Selbstverständlichkeit darstellen. Warum sie dennoch in voller Länge und prominent hier wiedergeben wird, ist zum ersten die erstaunliche Nähe zu einem Zentralbegriff ethischer Reflexion – der Freiverantwortlichkeit – und zum zweiten die sich daran unmittelbar anschließenden Überlegungen, die angestellt werden müssen, wenn KI-gestützte Tools in die Gleichung mit einbezogen werden. So definiert der Deutsche Ethikrat die Zentralkategorie der Freiverantwortlichkeit prägnant wie folgt:

Freiverantwortlich ist das Handeln einer Person dann, wenn sie selbst einer Handlungsoption zustimmen, sie ablehnen oder zwischen zur Verfügung stehenden unterschiedlichen Handlungsoptionen wählen kann, wenn sie versteht, was sie auszuführen bzw. zu unterlassen beabsichtigt (einschließlich der für sie absehbaren Folgen und Nebenfolgen), und sie ihre Entscheidung in den Kontext ihres Lebensentwurfes einordnen kann“ (Deutscher Ethikrat 2018, S. 6).

Einer der GrundsteineFootnote 2 für eine autonome, d. h. selbstbestimmte Lebensführung ist die Fähigkeit, Entscheidungen zu treffen, die in den eigenen Lebenskontext eingeordnet werden können. Diese Freiheit ist die Voraussetzung dafür, dass ein Mensch überhaupt moralisch entscheiden kann. Wichtig dafür ist aus einer ethischen Perspektive auch die Angabe von Gründen. Unsere Entscheidungen hängen immer von Gründen ab, sie stellen gewissenmaßen die Grundbedingung unserer Willensfreiheit dar, denn ohne die Begründung des eigenen Handelns sind diese von „bloßem Zufall und von grundloser Willkür“ (Ernst 2009, S. 245) bestimmt. Dabei geht es nicht darum, jede Entscheidung vor den Mitmenschen rechtfertigen zu müssen. Vielmehr liegt der Sinn der Begründung darin, Vertrauen und Verbindlichkeit herzustellen, und damit verlässliche Beziehungen zu ermöglichen, welche wiederum zu einer gelingenden Lebensgestaltung beitragen können. Darin ergibt sich ein ständiges Wechselspiel aus Freiheit einschränkenden und diese ermöglichenden äußeren Rahmenbedingungen, denn: freie Entscheidungen führen zu Festlegungen und Festlegungen gehören zur Identitätsbildung. Das, was in der Ethik auch als Grundfreiheit verhandelt wird, besagt, dass sich der Mensch zu allem, was ihm begegnet, auch verhalten, also in eine reflexive Distanz dazu treten und damit umgehen kann (z. B. im Kontext einer Zwangsberatung: sowohl Ratsuchende als auch Beratende können durch den bildlich gesprochenen Schritt zurück der Situation zwar nicht entkommen, sind ihr aber auch nicht völlig ausgeliefert). Zentrale Fragen der Ethik sind dabei: Wie können Handlungsspielräume vergrößert und wie können gute Entscheidungen getroffen werden (vgl. Ernst 2009, S. 244–262)?

Damit ist (Bildungs‑)Beratung in dieser Perspektive im Wesentlichen ein Beziehungsgeschehen, dem eine normative Dimension (Freiverantwortlichkeit) gewissermaßen ins Grundkonzept eingeschrieben ist. Beratende unterstützen in einem komplexen Geschehen an der Schnittstelle von Autonomie und Interdependenz die Ratsuchenden beim Treffen meist autonomer Entscheidungen, die ihre weitere Bildungsbiographie prägen.

3.1.2 Intelligenz versus KI

Es würde den Rahmen dieses Beitrags sprengen, sollte auch auf die ontologischen, anthropologischen, epistemologischen und moralischen Schieflagen im Intelligenzbegriff eingegangen werden (vgl. Deutscher Ethikrat 2023, S. 116–134), die entstehen, wenn dem Avatar oder Chatbot – wenn auch künstliche – Intelligenz zugesprochen wird. Es mag zahlreiche „philosophische, ökonomische, soziopolitische Anreize [geben], den Algorithmen menschliche Attribute zuzuschreiben und zugleich den Menschen unter dem Paradigma einer Computeranthropologie zu fassen“ (Dürr 2023, S. 16). Gerade aus der Perspektive eines humanistisch-kritisch verstandenen Bildungsbegriffes soll jedoch hier nicht von einem Intelligenzbegriff abgerückt werden, der „konstitutiv durch organische, erlebende, selbstreflexive und soziale Dimensionen der Leiblichkeit bestimmt ist“ (Dürr 2023, S. 15), womit die „Unterschiede zwischen dem menschlichen Geist und KI-Anwendungen […] kategorialer Natur“ (ebd.) sind.

Wenn jetzt die normative Dimension der (Bildungs‑)Beratung im oben beschriebenen Sinne auf die Leistung der KI-gestützten Tools übertragen wird, lässt sich festhalten: diesen ist keine Freiverantwortlichkeit zuzuschreiben. Sie funktionieren anhand der Prinzipien der Stochastik und nicht der Dialektik (vgl. Schartmann 2023, S. 414 f.). Sie können für ihren Output keinerlei Gründe angeben, was die produzierten Texte aus ethischer Perspektive schon fast als willkürlich einstufen lässt, da es sich zwar um eine sehr wahrscheinliche, aber unbewusste Zusammenreihung von Worten handelt. Deshalb muss es aus anthropologischer und in Konsequenz ethischer Sicht problematisiert werden, wenn den KI-gestützten Tools zugesprochen wird „Reflexionsanregungen“ (Stanik 2023, S. 26) geben zu können. Diese sind kein Gegenüber, kein Gesprächsteilnehmender, wie dieser auf Grundlage der normativen Orientierung von Beratung gefordert wäre. Wird (Bildungs‑)Beratung als pädagogische Handlungsform gefasst, dann verlangt diese von den Beratenden bei den Ratsuchenden einen Prozess anzustoßen, der „die Möglichkeiten zur Distanz und zur objektivierenden Betrachtung des Selbst“ (Mollenhauer 1965, S. 30, zitiert nach Nierobisch 2020, S. 5) bietet. Dieser setzt „eine prinzipielle Ergebnisoffenheit voraus, [und] erfordert von den Beratenden neben fachlichen Kenntnissen auch ein hohes Maß an Erfahrungswissen und Reflexionsfähigkeit“ (ebd.). Aufgrund des technischen Designs von Chatbots und Avataren – auch wenn diese mit Deep Learning arbeiten – können sie diese Aufgaben so nicht erfüllen. Auf Grundlage der hier zugrunde gelegten anthropologischen und ethischen Prämissen, welche sich in einem Verständnis von Beratung als reflexiv verstandene widerspiegeln, verwenden wir uns gegen eine Anthropomorphisierung von KI-gestützten Instrumenten und kommen damit direkt zu ethischen Fragen rund um die Ratsuchenden.

3.1.3 Ratsuchende versus KI: Freiverantwortlichkeit stärken

Es gibt durchaus empathische Stimmen zum Einsatz von KI-gestützten Tools in der (Bildungs‑)Beratung. So sieht Stanik (2023) darin adäquate Mittel zur Anregung von Reflexion bei Ratsuchenden, die beispielsweise auf der Suche nach einer für sie passenden Berufsausbildung sind. Eines der für ihn ausschlaggebenden Kriterien ist die Zufriedenheit der Ratsuchenden mit dem Output von – in seinem Experiment – ChatGPT. Diese Zufriedenheit entsteht bei den Nutzenden dann, wenn diese „den Eindruck gewinnen, dass sie den Antworten vertrauen können und ihnen die Bots das Gefühl von Interesse oder Empathie vermitteln“ (ebd., S. 24). Zwar merkt Thiery (Brinkmann et al. 2023, S. 15) an, dass elektronische Medien die Differenz zwischen leibgebundener (dreidimensional erfahrbarer) und virtueller (zweidimensional erfahrbarer) Wirklichkeit zunehmend verschwinden lassen, dennoch verbleibt das Szenario in einer Vortäuschung, denn die KI an sich fühlt nicht, sie simuliert nur.

Aus ethischer Perspektive, die sich in einem Beratungsverständnis wiederfindet, das die Freiverantwortlichkeit der Ratsuchenden hochschätzt, werden drei kritische Aspekte augenscheinlich sichtbar: Ein Verständnis von Beratung, welches lediglich das gute Gefühl seiner Ratsuchenden evozieren will, kann unter einer normativen Perspektive nicht als gut angesehen werden. Sie nimmt die Lebenssituation und die – vielleicht sogar sehr existentielle – Lage der Ratsuchenden mitunter nicht ernst. „Ziel ist es, den/die Ratsuchende*n als mündiges Gegenüber zu sehen und zu begleiten“ (Nierobisch 2020, S. 5). Dies kann der Chatbot oder Avatar jedoch von Anfang an nicht leisten, da ihm kein Bewusstsein und (leibliches) Verstehen zukommt. Der zweite und damit eng zusammenhängende Kritikpunkt ist die Stärkung der Freiverantwortlichkeit, der eigenständigen Lebensführung: Diese wird nicht dadurch gestärkt, dass die Ratsuchenden in allen Ideen, Vorstellungen und Wünschen bestätigt werden. Der Wert von Beratung für eine bewusste und auf guten Gründen basierende Entscheidung ist häufig gerade die „konfrontative Nicht-Bestätigung des/der Ratsuchenden“ (Nierobisch 2023, S. 5). Die Ratsuchenden verbleiben sonst in ihrer eigenen Echokammer und werden mit ihren Anliegen zwar mit einem wohligen Gefühl aber nichtsdestotrotz alleine gelassen (vgl. Ribolits 2010, S. 213 ff.). Und eine dritte kritische Anmerkung, auf die im Teil zu den ethischen Fragen auf gesellschaftlicher Ebene noch näher eingegangen wird, ist: Wird das bei den Ratsuchenden evozierte Gefühl zum Kriterium gemacht ohne die Funktionsweise KI-gestützter Tools offenzulegen, wird das Nicht-Wissen und evtl. sogar die Vulnerabilität der Ratsuchenden ausgenutzt? Dass die Ratsuchenden den Chatbots subjektiv vertrauen, macht den Einsatz weder moralisch besser noch ethisch richtig. Hier besteht die große Gefahr, dass schon bestehende gesellschaftliche Ungleichheits- und Machtstrukturen perpetuiert und vertieft werden.

Damit kann direkt zu normativen Fragestellungen zur Rolle von Beratenden übergeleitet werden.

3.1.4 Beratende Personen versus KI: Bias erkennen

Seit einigen Jahren besteht ein gestärktes Bewusstsein für die Bedeutung der Selbstreflexivität bei Beratenden mit Blick auf eine machtsensible und machtkritische Haltung (Schulze et al. 2018). So ist „Beratung […] immer auch gesellschaftliche und kulturelle Praxis mit sozialem Herstellungscharakter, in dem Machtverhältnisse, Wissenshierarchien, Zugehörigkeitsdefinitionen und soziale Positionszuweisungen verhandelt werden“ (ebd., S. 13). Diese gewachsene und weiterwachsende Aufmerksamkeit für Exklusionserfahrungen aller Art – seien sie aufgrund von Alter, kulturellem Hintergrund, sexueller Orientierung, geschlechtlicher Identität oder körperlicher und oder seelischer/geistiger Einschränkungen – legt den Fachkräften, sofern sie dies nicht ohnehin schon tun, nahe, sich damit auseinanderzusetzen, wo sie durch ihre eigene Sozialisation gesellschaftliche Stereotype reproduzieren. Dies soll die Wahrscheinlichkeit verringern, dass Beratung zu einem „Normalisierungsprozess“ (Schulze et al. 2018, S. 12) wird. Nach Schulze, Höblich und Mayer liegt eine moralisch relevante Dimension von Beratung darin, sie „als Selbstbefragung der Professionellen an die eigene Haltung und an die Selbstvergewisserung eigener Dominanz- und Privilegiertheitspositionen sowie kognintiver (sic!) Standorte wie die eigenen emotionalen Verletzbarkeiten und damit verbundene Abwehr“ (ebd., S. 13) zu verstehen.

Diese wenigen Ausführungen sollten fürs Erste genügen, um aufzuzeigen, wo aus ethischer Perspektive die Schwierigkeiten in der (Bildungs‑)Beratung durch KI-gestützte Instrumente liegen: Diese können sich nicht selbst, ihre (nicht vorhandene) Haltung und ihre produzierten Texte im Abgleich mit dem Gegenüber der Ratsuchenden reflektieren. Sie reproduzieren die – zugegebenermaßen überwältigende – Masse an Daten, welche jedoch durch verschiedenste Biases getrübt sind. Die Hoffnung auf eine neutrale und dem Anspruch der Objektivität genügende Beratung dürfte durch die ersten Erfahrungen bereits als Illusion zerschlagen worden sein. Vielmehr perpetuiert sie gesellschaftliche Machtverhältnisse und trägt zu Normalisierungstendenzen bei. Dies ist mit Blick auf die Ratsuchenden ebenso zu thematisieren, wie für Beratende, die zum Beispiel in einem Blended-Couseling-Setting mit Chatbots und Avataren umgehen müssen. Denn wenn eine entscheidende Frage im analogen Setting von Beratung ist, wie Machtstrukturen erkannt und aufgelöst werden können, stellt sich diese im blended setting verschärft: Wird die freiverantwortliche und darin natürlich auch professionelle Tätigkeit von Beraterinnen und Beratern im Falle eines Blended-Konzepts durch den Einsatz von KI-gestützten Tools gestärkt oder geschwächt? Welche (Selbst)Wirksamkeit setzen Beratende einer Antwort des Chatbots, der auf eine gigantische Ansammlung von Wissen bzw. Fakten zurückgreifen kann, entgegen, sollte ihr eigenes Urteil anders ausfallen? Mag der Einsatz von KI in Bereichen, bei denen es auf eine möglichst große Zahl objektivierbarer Daten ankommt (wie z. B. im medizinischen Bereich bei der Erkennung von Tumoren, um Ärztinnen und Ärzte „von monotonen Routinearbeiten“ zu entlasten und „mehr Zeit für den Austausch mit der jeweiligen Patientin zu gewinnen“; Deutscher Ethikrat 2023, S. 23) sehr sinnvoll sein, ist es im Bereich der Persönlichkeitsbildung zumindest fragwürdig. Wer trägt die Letztentscheidung und wer trägt Verantwortung – eine ethisch wie gleichermaßen juristisch relevante Fragestellung (vgl. Deutscher Ethikrat 2023, S. 135–144)?

3.2 Institutioneller und organisatorischer Kontext: Digitalisierung und Fachkräftemangel

Die eben angesprochene Selbstreflexivität von Beratung und die machtkritische Perspektive muss in einem weiteren Schritt auf die nächste Ebene der ethischen Konflikte – auf den institutionellen und organisationalen Kontext – übertragen werden. Denn nicht nur Beratenden sehen sich in ihrem Handeln der „Verquickung von Sprache, Mandat (Einfluss) und Macht“ (Schulze et al. 2018, S. 13) gegenüber, sondern ebenso die Institutionen und Organisationen, von denen (Bildungs‑)Beratung angeboten wird. Auch wenn wir – oder gerade weil wir – uns damit von der individualethischen Ebene in Richtung sozialethischer Ebene bewegen, muss auch hier gefragt werden: „Wer wird gehört, wer hat das Sagen, wer definiert, was ist für wen ein Problem?“ (ebd.).

Berufsverbände, Einrichtungen und nicht zuletzt (Bildungs‑)Beratungsstellen befinden sich – als Meso-Ebene – gewissermaßen im Zangengriff normativer Problemlagen von Mikro- und Makro-Ebene. Denn der auf individueller Ebene klar spürbare Konflikt zwischen den Mandaten der Fürsorge und Kontrolle kann analog auch auf den organisationalen Kontext übertragen werden: einerseits die Verantwortung für Ratsuchende und Mitarbeitende in einer sich wandelnden Arbeitswelt, andererseits die strukturellen Zwänge, die sich auch aus der gesellschaftlichen Situation ergeben. Ein möglicher Kristallisationspunkt der normativen Überlegungen ist die Frage nach dem Fachkräftemangel. So finden sich – an erster Stelle – die meisten fehlenden Fachkräfte auf dem Arbeitsmarkt in den Kontexten der Sozialen Arbeit/Sozialpädagogik, gefolgt von den Arbeitsfeldern zur Kinderbetreuung und den Bereichen aus Gesundheit und Pflege (vgl. Hickmann und Koneberg 2022). Wird von der Digitalisierung des Arbeitsmarktes gesprochen, wird in ganz unterschiedlichen Branchen, aber eben auch im Handlungsfeld der Beratung, schon fast gebetsmühlenartig wiederholt, dass die Einführung neuer Technologien „nicht bewirkt, dass der Mensch ersetzt wird, sondern im Gegenteil wird der Faktor Mensch noch wichtiger“ (Grüneberg et al. 2023, S. 10). Unter den bereits vorgestellten anthropologischen Überlegungen gilt es hier kritisch nachfragen, für welche Tätigkeiten der Mensch wichtiger wird. Die Übertragung menschlicher Tätigkeiten auf Maschinen bedeutet, das Humanum neuer und tiefer zu definieren und in diesem Kontext immer wieder danach zu fragen, was das Spezifikum guter Beratung ist.

Mit Blick auf die Institutionen und Einrichtungen ist weiter kritisch zu prüfen, ob derartige Behauptungen angesichts des demographischen Wandels und des – auf absehbare Zeit nicht geringer werdenden – Fachkräftemangels realistisch sind. Gerade weil Fachkräfte – besonders in den Sozialen Sektoren – derart dringend benötigt werden, sollte sehr genau geprüft werden, ob oder in welchem Rahmen eine Abgabe der (beruflichen) Weiterbildungsberatung an eine Künstliche Intelligenz wirklich sinnvoll ist. Stehen auch Institutionen und Einrichtungen unter dem staatlichen Mandat der Kontrolle, welches derzeit vor allem unter ökonomischem Vorzeichen ausgeführt wird, kann aus einer ethischen Perspektive die Digitalisierung nicht unter dem Deckmantel des Fortschritts kritiklos schöngeredet werden. Und dies vor allem dann nicht, wenn der Blick zu den tatsächlichen Lösungsvorschlägen der KI geht: ChatGPT antwortet einer Person, welche nach einem Ausbildungsplatz in einer Kindertagesstätte sucht, sie solle nicht entmutig sein, wenn sie nicht gleich eine passende Stelle fände (vgl. Stanik 2023, S. 24 ff.). Mit einer grundlegenden Kenntnis der Realität des Fachkräftemangels könnte diese Antwort zwar belustigen, doch aus humaner Perspektive ist Fassungslosigkeit die naheliegendere Reaktion auf eine Antwort, die mitunter die komplexe, vielleicht auch hochproblematische Lebenssituation der fragenden Person negiert.

3.3 Gesellschaftlicher Kontext: Den Wert von Bildung erkennen und sie dementsprechend organisieren

Für die letzte Ebene moralischer Konflikte, die sich im Bereich normativer Überlegungen bewegen, wird auf die sogenannte Sozialethik zurückgegriffen. Hier werden Fragen in den Raum gestellt, die sich um die Gerechtigkeit von Organisationen, Institutionen und politischer Entscheidungen drehen und einen Diskurs darüber anregen sollen, in welcher Gesellschaft wir leben wollen (vgl. Merkl 2022, S. 15). Um hinsichtlich der Fragestellung dieses Beitrags eine mögliche Orientierung zu finden, scheinen die Ansätze der Care-Ethik (Tronto 1998, 2013) sowie die Überlegungen zur „Epistemischen Ungerechtigkeit“ (Fricker 2007) besonders einsichtsreich zu sein. Die Thesen der beiden Autorinnen werden im Folgenden in aller Kürze dargestellt und ihr Ertrag für die Frage nach dem Einsatz von KI-gestützten Tools in der (Bildungs‑)Beratung gesichtet.

Anschließend an die bereits angestellten Überlegungen auf Ebene der (Weiter‑)Bildungseinrichtungen und Beratungsstellen kann hier auf einer Metaebene noch einmal vertieft gefragt werden: „Why has so much in human life and in politics turned into discussions about selfishness, greed and profit? Why has the language of economics seemingly come to replace all other forms of political language?“ (Tronto 2013, S. XI) In ihrem Buch Caring Democracy (2013) argumentiert Tronto, dass die Politik im Zuge der Industrialisierung und mit dem Siegeszug des Kapitalismus immer mehr als Teil der Ökonomie verstanden wurde. Dieser Entwicklung möchte Tronto – auch aus einer historischen Betrachtung – die These entgegensetzen, dass politische Entscheidungen als eine Praxis angesehen werden sollten, die Menschen meist in ihrem heimischen Umfeld erleben, nämlich als eine Ausübung von „care“ (ebd.). Dieser im Deutschen notorisch schwer wiederzugebende Begriff von (Für‑)Sorge wird von Tronto und Fischer in einem maximal weiten Sinn definiert: Care ist all das, was Menschen tun, um ein gutes Leben zu ermöglichen (vgl. dies. 1998, S. 16). Dies umfasst Tätigkeiten wie das eigene tägliche Zähneputzen ebenso wie die Pflege von Angehörigen. Einer der entscheidenden Punkte ist, dass Tronto als an normativen Fragen interessierte Politikwissenschaftlerin nicht nur fragt, wie Care in einer weiten Definition gesellschaftlich und politisch organisiert wird, sondern auch kritisch anmerkt, ob die derzeitige Organisation wirklich eine ist, die wir als Gesellschaft wollen, und welche der ethischen Zielkategorie der Gerechtigkeit Genüge tun kann (vgl. dies. 2013, S. 181 f.).

Übertragen auf die Einführung von Chatbots und Avataren könnte dies bedeuten: (Bildungs)Beratung als eine Form von Care anzusehen: sowohl von denen, die die Beratung ausführen, als auch von jenen, die sie in Anspruch nehmen. Als solche ist sie Teil einer politischen Praktik, die nach normativen Maßstäben danach befragt werden muss: Wie wird (Bildungs‑)Beratung organisiert und ausgestaltet und ist die derzeit eingeschlagene Richtung eine, welche wir gesellschaftlich weitergehen wollen? Welcher Wert wird der Beratung von Menschen generell und der (Bildungs‑)Beratung im Speziellen zugeschrieben? Ist die Übertragung dieser wichtigen Care-Tätigkeit an technische Prozesse ein Weg, den die Gesellschaft gehen will und welche Alternativen gibt es gegebenenfalls? Die Suche nach Alternativen ist nicht im Sinne einer generellen Ablehnung der Beratung durch KI-gestützte Instrumente gemeint, sondern möchte, ganz in Sinne einer ethischen Perspektive, Handlungsspielräume eröffnen. Nur eine echte Wahl zwischen Alternativen und die Angabe von Gründen für die jeweilige Entscheidung kann eine verantwortete Handlung hervorbringen. Dies gilt auf allen Ebenen, von den Ratsuchenden über die Beratenden, Führungskräfte in den Institutionen bis hin zur politischen Entscheidung zur Regulierung von generativer KI im gesellschaftlichen Kontext.

Damit kommt der zweite hier verfolgte Ansatz ins Spiel: die Erweiterung des Gerechtigkeitsdiskurses durch Miranda Fricker mit ihren Überlegungen zur „Epistemic Injustice“, also „a wrong done to someone specifically in their capacity as a knower“ (Fricker 2007, S. 1). Einer Person wird die Fähigkeit abgesprochen, relevante Informationen für den Diskurs zu besitzen. Zentral ist damit gleich schon zu Beginn hervorzuheben, dass es ihr um weit mehr geht als um die Tatsache, dass Menschen mit einem bestimmten sozioökonomischen Hintergrund oder anderen Exklusionskategorien von Bildungsgütern ausgeschlossen sind. Frickers Ansatz setzt gewissermaßen an der Wurzel der Zugangsgerechtigkeit zu Bildungsgütern an, indem sie die Epistemische Ungerechtigkeit in zwei Unterkategorien einteilt, die im Folgenden betrachtet und auf den Einsatz von KI-gestützten Instrumenten in der (Bildungs‑)Beratung übertragen werden. So spricht Fricker von Zeugnisungerechtigkeit („testimonial injustice“, Fricker 2007, S. 1), die darin besteht, dass einer Person aufgrund eines Biases der Gesellschaft oder ihres aktuellen Gegenübers ein Zuwenig an Glaubwürdigkeit zugesprochen wird („identity-prejudicial credibility deficit“, Fricker, ebd., S. 28). Die Epistemische Ungerechtigkeit liegt darin, dass der sprechenden Person noch vor der Interaktion die Glaubwürdigkeit abgesprochen wird, was jeden echten Dialog, wenn nicht verunmöglicht, dann jedoch definitiv erschwert (ebd., S. 130). Die Bedeutung dieses Gedankengangs für die Beratung durch KI-gestützte Tools liegt natürlich nicht darin, dass diese den Ratsuchenden mit einem Glaubwürdigkeitsdefizit belegt, sondern der zentrale ethische Punkt liegt an der Beschaffenheit des Datenpools an sich, welcher dem Chatbot oder Avatar zur Verfügung steht. Welche Biases gegenüber Menschen, die ohnehin unter Exklusionserfahrungen leiden, werden von den KI-gestützten Tools reproduziert und inwieweit tragen sie dadurch zur bereits problematisierten Normalisierungstendenz bei? Dies ist nicht nur für die Ratsuchenden unbefriedigend bis fatal, sondern lässt Anfragen an die Qualität von (Bildungs‑)Beratung durch diese Tools stellen. Eine zweite Komponente dieser Zeugnisungerechtigkeit besteht darin, wenn die sprechende (oder im Fall der Chatbot-Beratung: schreibende) Person einzig und allein als Informationsquelle („source of information“, ebd., S. 132) gesehen und benutzt wird. Sie wird als epistemisches Objekt behandelt, das nur auf Informationen hin überprüft werden kann, und nicht mehr als Subjekt, welches sich nicht auf seine produzierten Daten reduzieren lässt (ebd., S. 133). Übertragen auf die (Bildungs‑)Beratung wirft dies Fragen mit Bezug auf die Verarbeitung der durch die Beratung gewonnenen Daten auf: Kann sichergestellt werden, dass die zu beratenden Personen noch in ihrem Eigenwert in den Blick kommen oder werden sie mit ihren Daten in die Verwertungslogik der Tech-Konzerne eingespeist, deren Interesse an der Person vielleicht nicht verwertungsfrei ist.

Die zweite Unterkategorie der Epistemischen Ungerechtigkeit zielt auf ein tiefergehendes Verständnis: Neben der Zeugnisungerechtigkeit besteht diese nach Fricker in der Hermeneutischen Ungerechtigkeit: „hermeneutical injustice occurs […] when a gap in collective interpretive resources puts someone at an unfair disadvantage when it comes to making sense of their social experiences“ (ebd., S. 1). Bei der Hermeneutischen Ungerechtigkeit besteht also kein Defizit in der Glaubwürdigkeit, die einer Person entgegengebracht wird, sondern sie zeichnet sich durch einen Mangel an (gesellschaftlichem) Bewusstsein für eine Unrechtserfahrung aus. Es geht also darum, darauf aufmerksam zu machen, dass es ein gesellschaftliches Bewusstsein und eine Sprache für Erfahrungen von Menschen braucht, wenn der Einsatz von KI-gestützten Tools in der (Bildungs‑)Beratung nicht zu sozialer Ungerechtigkeit führen soll, welche all jene betrifft, die Unterstützung in ihrer Lebensdeutung und -gestaltung benötigen. Dabei muss nicht gleich an existentielle Notlagen von Arbeitsplatzverlust, Suchtproblematik oder suizidaler Krise gedacht werden, auch wenn dies mögliche Szenarien sind. Weniger dramatisch, aber nicht weniger bedenkenswert sind beispielsweise junge Menschen, die nach dem Abitur mehr oder weniger ernsthaft die Frage in eine einschlägige Suchmaschine eintippen: „Was soll ich studieren?“

Mit diesen sozialethischen Überlegungen wurde nun der Bogen direkt zurück zum Individuum und damit zum Ausgangspunkt der normativen Überlegungen geschlagen. Der aufgespannte Horizont soll in einem letzten Schritt auf mögliche Konsequenzen und Kriterien zum Einsatz von KI-gestützten Instrumenten in der (Bildungs‑)Beratung konkretisiert werden.

4 Fazit: Mögliche Konsequenzen und Kriterien zum Einsatz von KI

Zum Abschluss werden nun die Überlegungen zu einer normativen Ethik als praxisorientierte Reflexionstheorie mit den Bedarfen beraterischer Settings und beraterischem Handeln zusammenführt und in Richtung ihrer Konsequenzen für die (Bildungs‑)Beratung weitergedacht. Damit können möglicherweise Kriterien zum Einsatz von KI-gestützten Instrumenten in diesem Feld entwickelt werden. Dies geschieht wohlwissentlich darüber, dass es einerseits bereits eine Fülle von ethischen Orientierungen zur Fragestellung der Delegation menschlicher Tätigkeiten an Künstliche Intelligenz gibt (vgl. UNESCO 2021; Deutscher Ethikrat 2023), dass andererseits „normative Ordnungen erst im Entstehen sind“ (Kettemann 2023, S. 20) – und dass dies gleichwohl für den Bereich der (Bildungs‑)Beratung gilt. Angelehnt an die Systematik des Beitrags geht es darum, einzelne Hotspots der (Bildungs‑)Beratung in den Blick zu nehmen.

4.1 Auf der Ebene der Interaktion

Kriterium der Freiwilligkeit

Basis einer qualitätsvollen Beratung ist i. d. R. deren Freiwilligkeit. Dieses Kriterium muss auch für die Beratung durch KI-gestützte Instrumente gelten. Das bedeutet als Handlungsempfehlung, dass es für die Ratsuchenden, wenn sie lieber von einer Person – analog oder digital unterstützt – beraten werden möchten eine Opt-out-Option geben muss.

Kriterium des Vorrangs der Person

Hier heißt es, an gesellschaftliche und politische Ebenen zu denken, sollen nicht vorhandene beratende Personen durch KI-gestützte Tools ersetzt oder das Fehlen von Fachkräften unter dem Deckmantel des technologischen Fortschritts verdeckt werden. Daher kann hier als Handlungsempfehlung ausgesprochen werden, dass beispielsweise nur reine Informationsberatung von KI-gestützten Tools übernommen wird.

Kriterien der Datenethik

Sofern von einer Interaktion zwischen KI-gestützten Tools und Ratsuchenden bzw. Beratenden gesprochen werden kann, müsste für einen ethisch legitimierbaren Einsatz von Chatbots oder Avataren sichergestellt sein, dass die verwendeten Datensätze ethischen Standards genügen, also Biases aller Art so gut wie möglich ausschließen. Zu Recht hinterfragt Thiery erst einmal, warum Beratung der einzige Bereich sein sollte, in dem Algorithmen nicht dabei helfen können, die Arbeitsgrundlagen (z. B. Interventionstechniken, Zeitpunkte und Einsatzkriterien) zu verbessern und den kritischen Blick auf das eigene Tun zu schärfen, indem die KI-Muster das eigene Handeln offenbaren (Brinkmann et al. 2023, S. 11). Seiner Meinung nach könnten beispielsweise Zusammenhänge zwischen Interventionen, Anliegen (Problem) und Personenmerkmalen datenförmig erfasst werden und so (auch unerwartete) kausale Zusammenhänge aufgedeckt werden. Dem ist erst einmal – allerdings nicht bedingungslos – zuzustimmen, denn die diagnostische Auswertung von Datenmengen, beispielsweise auf psychologisch-medizinische Indikatoren, Krankheitsverläufe, Lösungsversuche, Beratungs‑/Therapieerfolge, Verhaltensmuster kann Interventionen sicherlich kreativ erweitern und Muster durchbrechen; gleichzeitig aber birgt sie die Gefahr der Standardisierung und des blinden Vertrauens in normative Aus‑/Bewertungsverläufe und des bereits ausgeführten Datenbiases. Bereits Bernhardsson und Fuhr (2014) mahnen im Rückgriff auf Kultgen an, dass Standards auch in der Gefahr stehen, ideologisch verwendet zu werden, nämlich dann, wenn sie ausschließlich dazu dienen, die Kompetenzen des Berufs in der Konkurrenz zu anderen Berufen zu betonen, als Basis monetärer Gratifikationen dienen oder nur als soziales Prestige missbraucht werden (ebd., S. 44). So gilt es, dies nicht nur zu thematisieren, sondern auch Richtlinien und handlungspragmatische Interventionen zu entwickeln, die die Gefahr sicherlich nicht komplett ausschließen, aber einen Umgang damit ermöglichen und die ethische Reflexion unterstützen. Auch in der Menge der erhobenen Daten gilt es Regelungen zu durchdenken, die dem Prinzip der Datensparsamkeit entsprechen: die in der Interaktion mit den Ratsuchenden gewonnenen Daten dürfen ausschließlich zu den vereinbarten Zwecken verwendet werden. Die finanziellen Interessen der Software-Betreiber sollten minimiert werden. Aus ethischer Perspektive gilt für Ratsuchende wie beratende Personen: der Einsatz der KI-gestützten Tools muss der Stärkung der Freiverantwortlichkeit aller Beteiligten dienen. Dafür ist das Prinzip der Transparenz grundlegend – so muss der Einsatz eines Chatbots offengelegt werden. Für die Beratenden kann der Einsatz von KI-gestützten Tools eine Entlastung von Routineaufgaben bedeuten, durch die sie mehr Zeit für Ratsuchende haben. Es gilt also zu unterschieden, welche KI-gestützten Tools der administrativen Entlastung dienen (beispielsweise Terminkoordination, Dokumentations- und Ablagesysteme etc.) oder im Rahmen einer reinen Informationsberatung auch entsprechende Informationen an die Ratsuchenden senden könnten oder Anliegen in einer Art Erstgespräch sondieren. Kriterium der Fachlichkeit: Entscheidend für einen ethisch vertretbaren Einsatz in hybriden Settings ist die fachliche Kompetenz der Beratenden, welche zumindest grundlegende Kenntnisse zur Funktionsweise der jeweiligen KI, mit der sie in einem blended counseling setting zusammenarbeiten, besitzen sollte. Dies ist notwendig, damit sie ihre eigene Kompetenz bewusst einsetzen können, den möglichen Bias des KI-gestützten Tools erkennen und im besten Fall als Reflexionsanlass mit den Ratsuchenden nehmen. Dies stellt auch eine Herausforderung an die Ausbildung von Fachkräften dar: ein Selbstbewusstsein im Professionsverständnis gegenüber einer vermeintlichen Übermacht an Daten zu vermitteln und eine machtkritische Haltung auch einer technologischen Errungenschaft gegenüber einzunehmen. Zentrales Element der Beratung bleibt die Kommunikation – sowohl in textbasierten als auch in rein sprachvermittelten Settings. So werden explizit in Chatbots bei komplexen Themen nicht gleichermaßen verbundene präzise Prompts gestellt (Metaprompts), so dass die Antworten individuell unbefriedigend erscheinen (Engelhardt 2023a). Es braucht also nicht nur gezielte Instrumente, die möglichst pointiert nachfragen können, sondern auch Lerngelegenheiten für Ratsuchende sowie Beratende, um gemeinsam das Beratungsanliegen präzise einzugrenzen und die Interventionen passgenau auf die Bedarfe auszurichten. Unter der Prämisse einer reflexiv verstandenen Beratungshaltung gilt es, die gesellschaftlichen Entwicklungen nicht nur im beraterischen Handeln mitzudenken, sondern sowohl mit den Ratsuchenden als auch in den Institutionen und Fachverbänden auch aktiv zu diskutieren. So werden Aspekte wie fortlaufende Beschleunigung oder auch die Ökonomisierung des Sozialen Einflussfaktoren sein, die durch KI-Anwendungen und vice versa verstärkt werden. Unauflösbar stellt sich das Dilemma dar, wenn Menschen einerseits durch die Auswertung personenbezogener Daten als planbar eingestuft werden und die Interventionen ihr Handeln aus einer Vorhersehbarkeit heraus lenken. Dabei wird negiert, dass Subjekte gleichzeitig in ihrem Eigensinn und ihrer Unverfügbarkeit wahrzunehmen sind. Menschliches Denken und Agieren ist sowohl rational als auch irrational gleichermaßen. Dieses Recht auf Unverfügbarkeit und auch die Macht des Unbewussten gilt es zu respektieren, ebenso wie ein Recht auf irrationale Entscheidungen, die nur der subjektiven Logik des Individuums zugänglich ist.

4.2 Auf der Ebene der Institutionen und Organisationen

Kriterium der Niedrigschwelligkeit

Angesichts der demographischen Entwicklung und des Fachkräftemangels stehen (Weiter‑)Bildungsorganisationen und -institutionen vor der Herausforderung zu entscheiden, ob und/oder wie die Tätigkeiten der in ihnen arbeitenden Menschen durch eine Maschine ersetzt werden können. Ziel bei allen Entscheidungen sollte aus ethischer Perspektive die freiverantwortliche Lebensführung des Individuums sowie die Gemeinwohlorientierung mit Blick auf vulnerable Gruppen sein (vgl. Deutscher Ethikrat 2023, S. 286). Gerade um auch im Kontext der (Weiter‑)Bildungsberatung die Lebenswelten der Adressatinnen und Adressaten zu erreichen, bedarf es niederschwelliger Zugangswege, Angebote und gut qualifizierter Beraterinnen und Berater. So werden die digitalen Angebote nach wie vor häufig aus der Perspektive der Anbieter und Organisationen herausgebracht, weniger jedoch mit dem Fokus der Ratsuchenden und deren Zugangsmöglichkeiten (vgl. Hörmann et al. 2023, S. 120).

Kriterium der kontinuierlichen Evaluation

Zur Sicherung der Qualität bietet sich in digitalen Settings zur Orientierung das Kompetenzprofil für Blended Counseling (vgl. Camenzind et al. 2023) an. Auch die aktuellen Forschungsprojekte zur Qualität in der Onlineberatung, beispielsweise im Konnex der Untersuchungen zum Deutschen Qualifikationsrahmen Beratung, sollten hinsichtlich ethischer Fragestelllungen analysiert und weiterentwickelt werden. Im Rahmen der Fachgesellschaften und Berufsverbände bedarf es einer kontinuierlichen Auseinandersetzung mit den Konsequenzen, die sich aus dem Einsatz von KI gesteuerten Instrumenten ergebenFootnote 3. Ethische Fragestellungen müssen so selbstverständlicher Bestandteil fachlicher Weiterentwicklungen sein. Im Rahmen von Studiengängen sowie Aus‑, Fort- und Weiterbildungen im Handlungsfeld Beratung gilt es, Curricula auf die neuen Inhalte mediatisierter Beratung anzupassen; Studierende aber auch Lehrende sollten unbedingt die Möglichkeit nutzen oder schaffen, sich theoriebezogen und praxisnah mit Fragestellungen und Anwendungsmöglichkeiten digitalisierter Beratung vertraut zu machen. So kann ChatGPT beispielsweise personalisiert in der Lehre eingesetzt werden und Studierende dazu motivieren, von einer passiven in eine aktive Arbeitshaltung mit Künstlicher Intelligenz einzutreten (vgl. Engelhardt 2023b). Unabdingbar ist jedoch die Reflexion über das Erfahrene, das Weiterdenken der Normierungen und Konsequenzen für alle im Beratungsprozess Beteiligten – das vor allem aus der Adressatenperspektive. Große Desiderata existieren noch im Forschungssektor – sowohl zu einer ethischen Grundlagenforschung in der Beratung als auch zu handlungspragmatischen Fragestellungen. Hier zeigen sich erste, innovative Zugänge, wenn zum Beispiel am Institut für E‑Beratung der TH Nürnberg im Rahmen des Förderprojektes Virtueller Klient ein Prototyp eines Chatbots entsteht, der es Studierenden ermöglicht, kreativ mit dem digitalen Beratungsgespräch zu experimentieren oder digitale Beratung barrierefrei zu gestalten, wie es das Ziel der Prototypisierung einer KI-gestützten Assistenz für einfache Sprache im Bereich der Kinder- und Jugendhilfe istFootnote 4.

4.3 Auf gesellschaftlicher Ebene

Kriterium der sozialen Gerechtigkeit

Schließlich braucht es eine gesamtgesellschaftliche Debatte, was dieser die (Weiter‑)Bildung ihrer Bürgerinnen und Bürger eigentlich wert ist. Es geht darum – wie es die Empfehlung der UNESCO (2021) mit weitem Horizont bereits tut – die „Blind Spots“ (Kettemann 2023, S. 18) des Einsatzes zu identifizieren: Wer wird gehört bzw. gelesen? Wer wird ausgeschlossen? Wer wird als epistemisches Subjekt und nicht nur als Objekt anerkannt? Um die Lücken der sozialen Gerechtigkeit zu schließen und weiterhin im Blick zu behalten, braucht es auf allen Ebenen Diskurse um Sinn, Nutzen und Grenzen von KI sowie um Steuerungs- und Machtoptionen, die Unverfügbarkeiten und Beteiligungsoptionen als unumgehbar festlegen. Verheißungen über Künstliche Intelligenz sind immer auch spekulative Bedeutungszuschreibungen und Heilsversprechen, die aus KI ein kollektives Tröstungsprojekt machen (vgl. Selke 2023), gerade unter einer ökonomischen Marge. Die Schlagzeilen zu halluzinierender KIFootnote 5, Fake News und Toxischen Prompts offenbaren die Gefahren, die KI basierte Kommunikation auch kennzeichnet – und die es beispielsweise im Umgang mit frei zugänglicher Information zu berücksichtigen gilt. Die Fluidität von virtueller und analoger Identität wird sichtbar, wenn Brinkmann auf aktuelle Sprachmodelle verweist: „Interessant ist allerdings, dass im neuen Sprachmodell von Google, Bard, das ‚Ich‘ explizit abtrainiert wird, damit nicht der Eindruck entsteht, dass hier ein Ich mit einem Bewusstsein spricht. Diese Übertragungseffekte vom fragenden Menschen, der die Maschine ‚vermenschlicht‘, scheinen demzufolge aus Google’s Sicht bereits problematisch zu sein“ (Brinkmann et al. 2023, S. 4).

Hinsichtlich einer gesellschaftlichen Verantwortung, die sich auf die Zukunftsfähigkeit kommender Generationen richtet, erinnert Davin für den Kontext der Beratung daran, dass es gilt, eine Verantwortung zu übernehmen,

„die Menschen und Gesellschaft auf ein Handeln verpflichtet, dass der nachfolgenden Generation, den nachfolgenden Generationen, keine Zwänge durch Technik auferlegt werden, die den Gestaltungsraum nachfolgender Generationen auf unübersehbare Zeit blockiert“ (Brinkmann et al. 2023, S. 9).

Das umschließt auch Debatten über Techniken, die „in ihrer Unbeherrschbarkeit in jeder gesellschaftlichen Formation für das organische Leben destruktiv wirken, weil sie autokratische Herrschaftsformen etablieren, stabilisieren, die Beteiligungsformen diskriminieren und auslöschen“ (ebd.).

Zurückkommend auf die im Titel aufgeworfene, provokante Idee oder eher Frage, dass und ob der Chatbot weiß oder wissen könnte, wo es langgeht, kann die Idee – zumindest im Rückgriff auf ethische Kriterien – vordergründig erst einmal mit nein beantwortet werden. Tiefergehendes Nachfragen offenbart jedoch Aspekte einer Subjektivierung und – so lässt der Titel vermuten – Personifizierung von KI. Somit werden Grenzen menschlicher und künstlicher Intelligenz fluide. Chatbot, befragt nach den eigenen ethischen Prinzipien im beraterischen Handeln, fasst (für sich) zusammen:

„Ich selbst als Computerprogramm habe keine eigenen ethischen Prinzipien, Überzeugungen oder eine Moral. Ich operiere auf Grundlage von Algorithmen und Daten, die mir während meiner Entwicklung zur Verfügung gestellt wurden. Mein Verhalten und meine Antworten basieren auf vordefinierten Regeln und Mustern, die von Menschen erstellt wurden. Die ethischen Prinzipien und Standards, die in meiner Nutzung und Entwicklung beachtet werden sollten, liegen in der Verantwortung der Entwickler, der Organisationen, die mich nutzen, und der Menschen, die meine Dienste in Anspruch nehmen. Es ist wichtig, ethische Leitlinien und Rahmenbedingungen festzulegen, um sicherzustellen, dass meine Anwendung in Übereinstimmung mit gesellschaftlichen Normen und Werten erfolgt. […] In der Praxis ist es die Aufgabe meiner Benutzer und der Organisationen, die mich implementieren, sicherzustellen, dass meine Nutzung ethisch und verantwortungsvoll ist, indem sie meine Fähigkeiten und Antworten im Einklang mit ethischen Prinzipien und gesetzlichen Vorschriften einsetzen“ (ChatGPT, 20.09.2023).

Schon 1919 konstituiert Max Weber (1992 [1919]) in seinem Vortrag „Politik als Beruf“ die präsentierten Diskurse als Gesinnungs- und Verantwortungsethik, die bis dato einen heuristischen Zugang zu philosophisch begründeten Ansätzen der Ethik bilden. Weber selbst forderte, ein Handeln nicht allein aufgrund der dahinterstehenden guten, aber abstrakten Werte und Handlungsnormen als gut zu werten, sondern stattdessen die Konsequenzen des moralischen Handelns zu berücksichtigen und sich als Akteure dieser eigenen moralischen Verantwortung stets bewusst zu sein – hier ließe sich ansetzen.