Im Gaia-X Förderprojekt POSSIBLE ist ein neues Tool zur datenbasierten Steuerung für die öffentliche Verwaltung entstanden. Schnell und unkompliziert zeigt es auf, wie gesteckte Ziele zu erreichen sind. Der Wissenschaftler und Datenexperte Jan Ziesing erklärt wie es funktioniert.
Das Projekt POSSIBLE hat am Aufbau von Datenräumen im Gaia-X Ökosystem für die öffentliche Verwaltung, im Bereich Bildung und KMU gearbeitet, um dort einfach und unkompliziert Daten zu verarbeiten und auszutauschen. Ihr Team hat an einem System zur effizienteren Nutzung von Daten in der Verwaltung gearbeitet. Wo liegen dort die Herausforderungen?
Unserer Erfahrung nach bestehen in diesem Bereich zwei grundsätzliche Herausforderungen. So gibt es zwar zahlreiche Datensätze zu unterschiedlichsten Themen, diese liegen aber verstreut in verschiedenen Behörden und in unterschiedlichen Dateiformaten vor. Um jedoch übergreifende Ziele, wie beispielsweise die Zahl von Kitaplätzen bedarfsbezogen zu entwickeln, braucht man Daten aus verschiedenen Verwaltungsbereichen, nämlich zu Geburten, Migrationsbewegungen sowie zur Zahl, Lage, Kapazität und Personalausstattung der Kitas.
Diese Datensätze müssen dann so kombiniert werden, dass sie sich in klare Messgrößen und verständliche Grafiken überführen lassen. Das ist bisher meist sehr zeitraubend, umständlich und oft nur mit einer aufwändigen Aufbereitung der Daten möglich. Solche Vorarbeiten sind wichtig, um den Verantwortlichen in Politik und Verwaltung solide Entscheidungsgrundlagen an die Hand zu geben.
Die zweite Herausforderung ist die Ableitung von Kennzahlensystemen aus politischen Zielen. Auch das ist normalerweise eine recht komplexe Aufgabe.
Welche Lösungsstrategien haben Sie gewählt?
Um die Datensätze zusammenzuführen und zu verarbeiten haben wir ein neuartiges Tool entwickelt, den sogenannten Data-Product-Designer. Dieser setzt auf unseren Datenkatalog piveau auf. Mit ihm können die Fachleute in den Behörden solche Arbeiten im Allgemeinen schnell und effizient erledigen, sogar ohne dabei auf die Hilfe von IT- oder Daten-Spezialisten angewiesen zu sein. Um dann aus den Daten Kennzahlensysteme abzuleiten und diese verständlich darzustellen, strukturiert der Data-Product-Designer diese – unterstützt von einer KI – durch und bereitet sie dann als Grafik auf.
Und wie erfolgt in Ihrem Lösungsmodell das Zusammenführen der Daten?
Zunächst ist es nötig, bestehende Datenkataloge beziehungsweise Datenräume anzubinden oder die in den Behörden vorhandenen Datensätze in einem umfassenden Katalog zu erfassen. Dadurch werden die Daten schnell auffindbar und übergreifend nutzbar. Um im nächsten Schritt die Daten zur Steuerung verwenden zu können, müssen dann zunächst Indikatoren entwickelt werden, die die gesetzten Ziele messbar machen.
Wir gehen dabei mit der sogenannten Goals Questions Matrix Methode vor. Bei dieser Methode leitet man ausgehend vom gewünschten Ziel zunächst die Fragen ab, die zu diesem Ziel führen. Aus den Fragen lassen sich dann sehr leicht Indikatoren und auch Datenbedarfe identifizieren. Die Vorgehensweise erhält dadurch eine klare Struktur. Künstliche Intelligenz unterstützt in unserem Tool das Brainstorming mit Vorschlägen – und zwar entlang des gesamten Prozesses. So lassen sich schnell sehr gute Ergebnisse erzielen.
Für das Brainstorming haben wir öffentlich verfügbare Large Language Models (LLMs) wie OpenAI, Llama oder Mistral eingesetzt. Diese ergänzt man mit eigenen Ideen und lässt die KI dann Vorschläge für die Wahl geeigneter Datensätze machen – beispielsweise aus dem Datenkatalog der eigenen Behörde. Sind dort keine vorhanden, kann die KI Vorschläge zur Beschaffung zusätzlicher Daten machen. Sie schlägt bei der Erarbeitung einer bedarfsbezogenen Entwicklung von Kitaplätzen dann beispielsweise vor, eine Umfrage zur Betreuungsqualität der Kitas bei den Eltern und den Kitaleitungen zu machen. Die gewonnenen Datensätze können schließlich mithilfe von KI in Grafiken visualisiert werden.
Da Ihr Tool mit Large Language Models arbeitet, stellt sich die Frage, wie es mit dem Datenschutz aussieht …
Um zu verhindern, dass schützenswerte personenbezogene Daten die Verwaltung verlassen, haben wir einen sogenannten Prompt Broker eingebaut. Dieser erlaubt den flexiblen Wechsel zwischen KI-Modellen. So können große Modelle, wie ChatGPT, über eine API-Schnittstelle angesprochen werden, hingegen lokale KI-Modelle für die Verarbeitung sensibler Daten, die ausschließlich von der jeweiligen Verwaltung genutzt werden dürfen.
Für welche Bereiche eignet sich das Tool besonders?
Im Grunde ist unser piveau-Katalog ausgesprochen vielseitig einsetzbar. Für Organisationen, die gerade erst damit anfangen, auf eine datenbasierte Verwaltung umzustellen und erst Metadatenbeschreibungen in ihren Fachbereichen aufbauen müssen, bietet es einen ersten Einstieg. Dort hingegen, wo man bereits viel mit Daten arbeitet, wie beispielsweise in Ländern, die stark auf Open Data setzen, hat man bereits viele Voraussetzungen für das Tool und eine datenbasiert gesteuerte Verwaltung geschaffen. Man kann also die Werkzeuge für die Auswertung sofort einsetzen. Denn die nötigen Prozesse gibt es schon, die Datenquellen – gerade auch die öffentlich zugänglichen Datensätze – sind vorhanden und auch die Datenkataloge, an die man das Tool anbinden kann.
Gibt es Faktoren, die die Qualität der Ergebnisse beeinflussen?
Aktuell gibt es zwei größere Hemmnisse: Zum einen ist die Datenverfügbarkeit in vielen Verwaltungen leider noch unzureichend. Auch die Qualität der Metadaten und Datenbeschreibungen in den Datenkatalogen und Datensätzen selbst müssen viele Behörden noch verbessern. Diese können zurzeit von den LLMs oft nicht interpretiert werden, sodass entweder die Verantwortlichen eingreifen müssen oder die Auswertungen schlicht scheitern. Wenn die Daten aber maschinenlesbar sind, klappt die Arbeit mit der KI erstaunlich gut.
Der Faktor Mensch spielt also trotz aller KI immer noch eine Rolle?
Nach wie vor sind die Fachleute in den Behörden unverzichtbar. Denn sie verfügen über sehr viel Expertise und Spezialwissen. Während die KI eher Ansatzpunkte liefert, fällt es den Fachexperten deutlich leichter, präzise Fragestellungen und überschneidungsfreie Indikatoren zu formulieren. Sie sollten die erhaltenen Ergebnisse immer kritisch daraufhin überprüfen, ob noch nachzuarbeiten ist. Das kann beispielsweise bei Kommunen oder Regionen der Fall sein, deren Daten nicht in optimaler Qualität vorliegen.
Sinnvoll ist es auch, kritisch zu prüfen, wie gut die KI-Vorschläge für die Zielfragen waren. Da lässt sich meist noch etwas ergänzen. Und bei der Datensuche und -visualisierung lassen sich ebenfalls noch häufig Optimierungen anbringen. Dennoch, die Praxis hat gezeigt, dass das Tool als Ganzes ausgesprochen hilfreich ist, sehr viel Zeit sparen kann und viele Hürden abbaut.
Wird die Anwendung dieses Tools die öffentliche Verwaltung tatsächlich besser und schneller machen?
Der entscheidende Vorteil unseres Tools ist, dass man dadurch in der Lage ist, viel einfacher datenbasiert zu steuern. Die Datensuche und die Phase der Analyse verkürzen sich dadurch auf ein Minimum. Es liefert sehr schnell Auswertungen zu den wesentlichen Steuerparametern meiner Stadt, meines Landes oder meiner Behörde auf einem Dashboard, auf dem ich mich durchklicken kann. Dort können natürlich auch Echtzeitdaten einfließen. Somit erhalte ich sehr schnell Informationen zur aktuellen Lage und zur Entwicklung von Kernzielgrößen. Ich bin davon überzeugt, dass die Abläufe und Rahmenbedingungen in einer Stadt dadurch fühlbar optimiert werden können, was letztlich die Zufriedenheit aller Bürger steigern wird.

piveau-Katalog: https://www.piveau.de
Data-Product-Designer: https://www.fokus.fraunhofer.de/de/dps/loesungen/data-product-designer
Kontakt bei Fraunhofer Fokus: jens.klessmann@fokus.fraunhofer.de, juliane.schmeling@fokus.fraunhofer.de
Interviewpartner:
Jan Henrik Ziesing – Leiter des Geschäftsbereichs Digital Public Services bei Fraunhofer FOKUS (zum Zeitpunkt des Interviews)