Erste Tests mit anonymisierten Beispielen aus der Praxis bestätigten diese Annahme: KI-Modelle wie ChatGPT eignen sich tatsächlich, um zeitaufwendige Schreibarbeiten vorbereitend zu unterstützen. Allerdings stellten sich schnell zentrale Probleme heraus – der sichere Umgang mit hochsensiblen Sozialdaten sowie die Verarbeitung von tabuisierten Inhalten wie Gewalt und Sexualität. Die gängigen KI-Lösungen großer US-Anbieter kamen aufgrund von Datenschutzbedenken nicht infrage, und bestehende Alternativen boten entweder unzureichenden Schutz oder zu wenig Funktionalität für den produktiven Einsatz.
Da keine passende Lösung auf dem Markt verfügbar war, die sowohl den besonderen Anforderungen des Sozialwesens als auch den hohen Standards an Datensouveränität gerecht wurde, beschlossen wir, selbst einen Prototypen zu entwickeln. Dabei flossen von Anfang an ethische und technische Ansätze ein, die Datensicherheit, Unabhängigkeit und die spezifischen Bedürfnisse sozialer Einrichtungen berücksichtigen. Unser Ziel war es, eine Lösung zu schaffen, die nicht nur funktional, sondern auch werteorientiert ist – ganz im Sinne der Prinzipien, die uns im Studium vermittelt wurden .