Liebe Leser:innen,
in diesem Jahr habe ich mich wieder auf den langen Weg von Hamburg nach Nürnberg zur ConSozial gemacht, welche am 16. und 17. Oktober unter dem diesjährigen Titel „Vielfalt stärken – Solidarität leben – Wandel gestalten“ stattgefunden hat.
Es waren wiedermal volle Tage mit vielen angenehmen Begegnungen, anregende Gespräche, spannende Fachvorträge und hitzigen Diskussionen. Initial aufmerksam geworden bin ich auf die Kongress-Messe im Jahr 2021 als sie unter dem Titel Digitalisierung stattgefunden hat, geworden. Wie in jedem Jahr habe ich auch in diesem Jahr selbstverständlich wieder die Chance genutzt Menschen auf das Angebot des makeITsocial Infodienstes hinzuweisen.
Auf die einleitende Frage, ob das Thema „Digitalisierung im Sozialen“ von Interesse wäre, erntete ich damals noch verstohlene Blicke und viele Erklärungsversuche warum das Thema nur Randerscheinung wäre. Daran hat sich ohne Zweifel in den vergangen Jahren etwas geändert. Als ich in diesem Jahr durch die Messehallen ging um Menschen anzusprechen war die Antwort auf die Selbe Frage zu 95% „Ja, worum gehts?“
Ich bewerte das als eine gute und wichtige Entwicklung in der Sozialwirtschaft. Die Notwendigkeit sich ausgiebiger mit dem Thema auseinanderzusetzen scheint erkannt worden zu sein. Und auch in der Angebotspalette der Aussteller:innen spiegelt sich dieses Bild wieder.
Das Trendthema 2024 im Kontext der Digitalisierung- Klar, KI. KI hilft bei der Erstellung von Dienstplänen, übersetzt bilingual live und übernimmt durch speech-to-text Funktionen auch direkt die Pflegedokumentation und schafft so mehr Raum für Fachkräfte sich um die eigentliche Arbeit zu kümmern. Aber ist das wirklich der richtige Weg?
Technische Nachfragen nach den verwendeten Technologien konnten mir leider nicht zufriedenstellend beantwortet werden. Kritischen Nachfragen, was Datenschutz Bedenken angeht, wenn sensible Informationen von Bewohnenden, Gepflegten, KiTa Kindern oder Fachkräften von irgendeiner KI in Amazon oder Microsoft Clouds verarbeitet werden wurden mit Vertragswerken und DSGVO abgetan.
Meine Antwort darauf? Es interessiert niemanden, ob die entwickelnden Unternehmen rechtlich abgesichert sind. Es geht darum, dass Daten, die einmal erhoben oder in ein solches digitales Ökosystem überführt wurden daraus auch nicht mehr zu entfernen sind. Datenhaltung ist so günstig wie nie und wird immer preiswerter. Um „Large Language Models“, was die als KI bezeichneten Systeme bisher nach wie vor sind auf spezifische Anwendungszwecke vorbereitet werden sollen, große Mengen Trainingsdaten zur Verfügung stehen müssen um akzeptable Ergebnisse zu erhalten.
Darüber hinaus unterstelle ich den großen AI Anbietern – OpenAI, Microsoft, Amazon etc., dass solange die eventuellen Vertragsstrafen geringer sind als darauf zu erwartende Gewinne, das als kalkulatorischer Posten mit einfließt. Und die Vergangenheit unterstützt diese These leider.
Exkurs: Wie funktioniert gegenwärtige KI?
Gegenwärtige Künstliche Intelligenzen (KI), insbesondere Large Language Models (LLMs) wie GPT, basieren auf maschinellem Lernen und neuronalen Netzwerken. Diese Modelle sind darauf trainiert, Texte zu verstehen und zu generieren, indem sie riesige Mengen von Daten analysieren und Muster darin erkennen.
Funktionsweise:
- Large Language Models: LLMs arbeiten auf Basis von Wahrscheinlichkeitsberechnungen. Sie wurden mit umfangreichen Texten trainiert, um die statistische Wahrscheinlichkeit zu bestimmen, mit der bestimmte Wörter oder Phrasen in einem bestimmten Kontext auftauchen. Wenn du eine Frage stellst oder einen Textanfang eingibst, sagt das Modell also nicht „was ist die richtige Antwort?“, sondern „welches Wort folgt wahrscheinlich auf das vorherige?“.
- Wahrscheinlichkeitsrechnung: Im Kern von LLMs steht die Berechnung der Wahrscheinlichkeit, mit der ein Wort oder eine Phrase als nächstes in einer Sequenz vorkommt. Diese Wahrscheinlichkeiten werden aus den Mustern in den Trainingsdaten abgeleitet. Das Modell erstellt auf dieser Grundlage Antworten, indem es die wahrscheinlichsten Wortfolgen auswählt. Dabei werden nicht feste Regeln befolgt, sondern das Modell erstellt ein Set von möglichen Fortsetzungen und wählt die mit der höchsten Wahrscheinlichkeit aus.
Halluzination von Ergebnissen:
- Ein häufiges Phänomen bei LLMs ist, dass sie „halluzinieren“, also Inhalte generieren, die plausibel klingen, aber faktisch falsch sind. Das passiert, weil das Modell keine echte Vorstellung von Fakten hat. Es stützt sich nur auf statistische Muster, ohne die Fähigkeit, diese Inhalte kritisch zu überprüfen oder auf eine externe Wissensquelle zurückzugreifen. Solche Halluzinationen entstehen besonders dann, wenn das Modell auf Daten trifft, die mehrdeutig oder außerhalb seines Trainingsbereichs liegen. Da die Wahrscheinlichkeitsrechnung nur das wahrscheinlich nächste Wort vorhersagt, kann das Modell auch „neue“ oder nicht korrekte Informationen erzeugen.
- Zusammengefasst beruhen gegenwärtige KI-Modelle wie GPT auf Mustern und Wahrscheinlichkeiten, was sie stark in der Textgenerierung macht, aber auch anfällig für fehlerhafte, erfundene Inhalte, die glaubwürdig erscheinen.
Was bedeutet das für den Einsatz im Sozialen?
Richtig ist, dass durch den Einsatz solcher Technologien sicherlich ein großer Hebel im Bezug auf Effizienzsteigerung als Antwort auf einen faktisch vorhandenen Fachkräftemangel entsteht. Doch ich frage mich zu welchen Preis und ob damit die eigentliche Arbeit in der Qualität steigt. Noch gruseliger wird es, wenn wir beginnen KI Entscheidungen über Menschen fällen zu lassen. Keine Utopie – Die Arbeitsagentur möchte zukünftig Anträge automatisiert prüfen lassen (Ankündigung aus dieser Woche).
Erste Stimmen phantasieren auch bereits die dystopische Idee Gerichtsverfahren von KI begleiten zu lassen. Sind wir auf diesem Pfad, ist es kein großer Schritt mehr dahin, dass „leichte Straftaten“ voll automatisiert geprüft werden. Eine fürchterliche Vorstellung, zumindest wenn man der Grundannahme folgt, dass Menschen ein Produkt ihrer Umwelt sind oder Verhalten durch ihre Verhältnisse erklärt werden. Es geht dabei um Empathie und nicht um kühle Entscheidungsfindung.
Und der existierende „automation bias„, also das Phänomen, dass Menschen nach sehr kurzer Zeit aufhören Entscheidungen automatisierter Entscheidungssystemen zu hinterfragen hat hier bisher noch gar keine Erwähnung gefunden.
Seitdem OpenAI im Dezember 2022 ChatGPT veröffentlicht und damit erstmalig einen niedrigschwelligen Zugang zu LLM (Large Language Models) ermöglicht hat wird überall irgendwie eine „KI“ angedockt. Firmen nutzen KI in Kollaborationstools zur Auswertung großer Datensätze oder lassen Kalkulationen prüfen und überarbeiten, Bildgeneratoren erstellen Symbolbilder für Medienschaffende, Text-KIs entlasten Texter:innen oder korrigieren und übersetzen Texte. Es fällt mir schwer in einem kapitalistischen Wirtschaftssystem die Motivation in der Entlastung von Mitarbeitenden zu verstehen anstatt in der reinen Gewinnmaximierung.
Moralisch gesehen spricht also eine Menge gegen diese Art Einsatz von KI wann immer es um Menschen geht.
Wer den Infodienst schon länger liest, makeITsocial kennt oder Vorträge von mir gesehen hat weiß, dass wir äußerst kritisch ggü. dem Verhalten großer Internetkonzerne sind, aber verstehen können warum sich Menschen für die Nutzung geschlossener Systeme entscheiden. Wenn der individuelle Nutzen die eigenen Bedenken überwiegt. Schwierig zu akzeptieren wird es allerdings, wenn Menschen, insbesondere solche die mit Menschen arbeiten sich wider besseren Wissens aus Bequemlichkeit oder wirtschaftlichen Aspekten für den Einsatz von Produkten aussprechen, die im Kern gegen einige der sozialarbeiterischen Paradigmen insbesondere aber im Bezug auf die Selbstbestimmung und Selbstwirksamkeit sowie bestehenden strukturellen Ungleichheiten und Machtverhältnissen wirken.
Und ja, auch ich nutze Google Maps wenn ich im Auto sitze anstatt Open Street Maps. Warum? Ganz einfach: Autofahren ist für mich schon eine Herausforderung an sich und wenn es irgendwie geht, möchte ich vorher wissen wie lange ich brauche und idealerweise nicht im Stau stehen.
Da außerordentlich viele Menschen Google Maps zur Navigation verwenden, kann ich mich relativ gut darauf verlassen, dass ich vorher weiß was auf mich zukommen wird. Das hilft mir am Ende der Autofahrt entspannter zu sein. Ich weiß, dass ich diesen Service mit den Informationen bezahle, die mein Smartphone währenddessen sammelt und an Google übermittelt, welche indirekt damit Geld verdienen. Ich würde es als eine Abwägung auf Augenhöhe bezeichnen. Ich bin mir bewusst darüber, was ich gebe und weiß, was ich dafür bekomme.
Diese Entscheidung treffe ich aber für mich und jedes Mal aufs Neue. Wenn Menschen in Entscheidungspositionen allerdings über Dritte (Adressat:innen / Klient:innen) entscheiden und sich vor den „Marketing-Karren“ von gewinnorientierten IT-Firmen spannen lassen ohne Alternativen überhaupt in Erwägung zu ziehen und das als Innovation betrachten, empfinde ich das als inakzeptabel.
Wirkliche Innovation wäre es, wenn „die Sozialwirtschaft“ sich diesem erneuten Versuch der Digitalwirtschaft die Selben auf Gewinnmaximierung ausgerichteten Strukturen aus der Privatwirtschaft zu übernehmen entschlossen entgegen stellt. Sie das „Wirtschaft“ aus der Bezeichnung streicht und das „Sozial“ wieder zum Kern von Entscheidungen macht. Kooperiert, sich ihrer politische Wirkmacht bewusst wird, staatliche Gelder einfordert und so gemeinschaftlich, beispielsweise in die Weiterentwicklung einer eigenen, wirklich datenschutzkonformen „KI“ auf selbst betriebenen Servern, als Open Source Produkt setzt. Das würde auch dem Motto der ConSozial 2024 entsprechen „Vielfalt stärken – Solidarität leben – Wandel gestalten“.
Kollektiv lassen sich Strukturen verändern, auch solche die unverrückbar erscheinen. Wir machen diese Erfahrung durch unser Wirken als makeITsocial jeden Tag. Es ist nicht der einfachere, aber der nachhaltigere Weg.
Philipp Fode – makeITsocial
P.S.Ich freue mich auf Ihre Gedanken zu diesem Kommentar an redaktion@makeitsocial.net welche ich selbstverständlich gerne poste.