22.12.2023

Die Eröffnung erfolgte durch Roland Ledinger vom BRZ, der sich an die Skepsis vor dem ersten govcamp erinnerte, ob eine sinnvolle Veranstaltung ohne Agenda möglich sei. Mittlerweile hat sich gezeigt, dass viele Anwendungen im Bereich E-Government ihren Ursprung im govcamp haben. Wenn man in die Verwaltung hineinhört, gibt es auch durch die demographische Entwicklung bei den Nutzer_innen und Bediensteten einen riesigen Bedarf an Anwendungen mit KI. 

GR LAbg. Jörg Neumayer erwähnte in seiner Eröffnungsrede, dass die Diskussion um künstliche Intelligenz (KI) seit 70 Jahren geführt wird, aber erst seit einem Jahr durch die gestiegene Neugier der Gesellschaft in der Öffentlichkeit. Diese Neugier kann durch Diskussionen wie im govcamp aufrechterhalten werden und soll den Austausch zum Thema intensivieren. Ein empathischer Rahmen gegenüber Bürger_innen und Auftraggeber_innen ermöglicht es, die eigene Vorgehensweise und Zielsetzung zu reflektieren. 

Als Input stellte das Organisationskomitee unter anderem Fragen nach der Verantwortung, der Unterscheidbarkeit von Mensch und Maschine und Fragen nach dem Urheber_in zur Diskussion. 

 

Bild vom Organisationskomitee - Copyright Rommelt Pineda 

 

 

Session 1 – Info Hazard von Qch3n 

Qch3n wirft die Frage auf, wie der Verwässerung glaubwürdiger Information durch die massenhafte automatisierte Produktion von Inhalten durch KI entgegengewirkt werden kann. Generative Systeme produzieren ständig neue Inhalte. Lange Zeit waren Informationen im Internet vertrauenswürdig oder wurden zumindest so wahrgenommen. Durch automatisierten Content wird die Qualität des Contents verwässert und die Verlässlichkeit/Vertrauenswürdigkeit sinkt. Durch SEO-Optimierung gelangen unzuverlässige Quellen auf höhere Listenplätze bei Suchanfragen. Es entsteht die Befürchtung, dass so gefährliche Informationen an eine breite Masse von User_innen ausgespielt und verbreitet werden.  

Ein Bild, das Kleidung, Im Haus, Person, Text enthält.

Automatisch generierte BeschreibungDas Plenum wirft die Frage auf, ob ein ähnliches Problem nicht auch bei Inhalten besteht, die von menschlichen User_innen erstellt und ohne Screening veröffentlicht werden. 

Es besteht Konsens darüber, dass es auch bei manuell generierten Inhalten schon vor dem Einsatz von KI Probleme gab. Themen und Inhalte, die populär sind, bergen immer eine Gefahr. Neu ist jedoch, dass selbstgenerierter Content keinen grundsätzlichen Sinn hat und nicht objektiv als selbstgeneriert zu erkennen ist. Gleichzeitig wird er massenhaft generiert und ungefiltert ausgespielt, von anderen Algorithmen gepusht und damit einer anderen Zielgruppe ausgespielt.  

Themen, die sich herauskristallisieren sind: 

 1. Wie lösen wir das Problem der Authentizität von Inhalten? 

2. Wie schaffen wir es, die Bevölkerung so früh wie möglich zu schulen, Fake News von authentischen Medien/Quellen zu unterscheiden? Sensibilisierung - ist dies ein Thema der digitalen Kompetenz, das in der Bildung angegangen werden muss? 

Die Diskussion zeigt, dass es wichtig ist, beide Wege parallel zu beschreiten. Die Schaffung einer Synergie zwischen der Entwicklung neuer, problemadäquater Werkzeuge und dem Streben nach einer stetig wachsenden Medienkompetenz ist für die Lösung des Problems unabdingbar. Gleichzeitig gilt es, Interesse für neue Technologien zu wecken, den individuellen Mehrwert ihrer Nutzung zu kommunizieren, Self-Checks zur Überprüfung der eigenen Medienkompetenz anzubieten und diese Themen im Rahmen von Informations- und Bildungsangeboten zu verankern, um kritisches Denken zu forcieren und die notwendige Resilienz im adäquaten Umgang mit innovativen Technologien aufzubauen. 

 

Session 2 – Once Only bei der Single Digital Gateway Regulation. Herausforderungen für KI von Carl-Markus Piswanger - BMF 

Carl-Markus Piswanger vom BMF stellte in dieser Session aktuelle Entwicklungen rund um die Thematiken Once-Only Principle (OOP) und Single Digital Gateway Regulation (SDGR) vor sowie die Nutzung von KI-Ansätzen in der aktuellen, europaweiten Entwicklung. 

A person standing in front of a projector screen

Description automatically generatedZum Eingang stellte Piswanger die beiden zentralen Aspekte OOP und SDGR vor. Das "Once-Only"-Prinzip zielt darauf ab, Informationen nur einmal zu erfassen und effizient zwischen Verwaltungsbereichen zu teilen. Durch die Vermeidung redundanter Datenerfassung sollen bürokratische Prozesse optimiert, Benutzerfreundlichkeit verbessert und Ressourcen eingespart werden. Die Implementierung fördert die Effizienz von Verwaltungsdienstleistungen, minimiert Doppelarbeit, stellt Konsistenz sicher und vereinfacht die Interaktion zwischen Bürger_innen und Verwaltungsbehörden, während Datenschutzbestimmungen eingehalten werden. 

Die Single Digital Gateway-Verordnung ist eine EU-Rechtsvorschrift, die darauf abzielt, bürokratische Hürden für grenzüberschreitenden Zugang zu öffentlichen Dienstleistungen abzubauen. Sie schafft einen einheitlichen digitalen Zugangspunkt, über den Bürger_innen und Unternehmen in der gesamten EU auf Informationen und Dienstleistungen zugreifen können. Diese Maßnahme fördert Digitalisierung, Transparenz und ermöglicht effizienteren Zugriff auf Rechte und Pflichten. Das Ziel der Verordnung ist die Erleichterung der digitalen Interaktion mit öffentlichen Verwaltungen und die Stärkung der EU als digitaler Binnenmarkt. 

Ein Kernbestandteil der österreichischen Umsetzung ist der Register- und Systemverbund (dadeX), eine zentrale Plattform, entwickelt im Auftrag des Bundesministeriums für Finanzen und betrieben vom BRZ. Als Datendrehscheibe ermöglicht er den sicheren Austausch von Daten zwischen verschiedenen Verwaltungsebenen in Österreich. Der Verbund unterstützt das Once-Only-Prinzip, indem er Anwendungen den direkten und sicheren Zugriff auf über 500 Attribute aus verschiedenen Datenquellen ermöglicht. Derzeit sind Quellen wie Unternehmensregister, Firmenbuch und weitere angeschlossen. Seit Mai 2020 in Betrieb, wird der Register- und Systemverbund kontinuierlich um weitere Datenquellen erweitert, unter Berücksichtigung der gesetzlichen Grundlagen für den Datenaustausch. 

Aufbauend auf der dahinterliegenden Gesamtarchitektur geht es im Einzelnen um die Bereitstellung von gemeinsamen Diensten innerhalb der EU. Ein Klassiker in diesem Bereich ist z.B. der Datenaustausch rund um die Thematik e-Procurement. Eine der Herausforderungen im Datenaustausch ist die jeweilige Landessprache. Hier wird aktuell daran gearbeitet, über ein gemeinsames Vocabulary und z.B. zusätzlichen, automatisierten Übersetzungen eine gewisse Harmonisierung herstellen zu können. Ein weiterer essenzieller Aspekt ist der Datenschutz. Daher steht auch die gesamte Entwicklung des EU-weiten Ansatzes unter der Prämisse „Privacy-by-Design“. Generell wurde auch diskutiert, wie sich das Grundverständnis von Daten- und Informationstransfer grundlegend verändert hat. Während früher nur über das „Hin- und Hersenden“ von Daten gesprochen wurde, geht es heute vor allem auch um das Verbleiben der Daten am Ursprungsort und die explizite Freigabe und Verlinkung. Ähnliche Diskussionen finden sich auch in verwandten Domänen, wie z.B. den Data Spaces1 und Gaia-X2. 

 

Session 3 – Open Data Analytics von Andreas Trawöger 

In einem aktuellen Projekt wurde Chat-GPT 4 erfolgreich eingesetzt, um Zugverbindungen in Python-Code umzuwandeln und diesen auf einem Jupyter Notebook auszuführen. Jupyter dient dabei als Entwicklungs- und Dokumentationsumgebung, die die Ausführung und Visualisierung des Codes erleichtert. Der Python-Code wurde in die eigene Jupyter-Umgebung kopiert und direkt ausgeführt. Die Ausgabe des Codes stellte ein Netzwerk bestehend aus Knoten (Stationen) und Kanten (Verbindungen) dar. Die Geopositionen der Stationen wurden dynamisch in den Code integriert. 

Ein entscheidendes Werkzeug in diesem Prozess ist der "Jupyternaut", ein Plugin, das sich nahtlos in Jupyter integriert. Es ermöglicht die Integration von Chatbot-Funktionalität in Jupyter. Im Hintergrund findet die Kommunikation mit Chat-GPT 4 statt, um z.B. Tutorials zu erstellen oder Entwicklungsprobleme zu lösen. 

Im Vergleich zu GPT-3 wurde in der aktuellen Version GPT-4 eine Verbesserung der Codegenerierung festgestellt, insbesondere hinsichtlich der Kompatibilität mit aktuellen Bibliotheken. 

Normalerweise wird bei GPT auf Internetrecherchen verzichtet. Allerdings kann GPT mit Dokumentation gefüttert werden, um nach den neuesten Informationen zu suchen. Es bleibt jedoch unklar, wann genau im Hintergrund auf das Internet zugegriffen wird. Chat-GPT wird mit Informationen bis 2021 trainiert.  

Die Kosten für die Nutzung von GPT-4 belaufen sich auf 24 € pro Monat, während die Kosten für Jupyternaut von den API-Anfragen abhängen und in der Regel niedriger sind als ein GPT-Abonnement. 

Als Alternative zu Chat-GPT-4 wurde auch GitHub Copilot genannt, welches ursprünglich als Code-Vervollständigung Werkzeug konzipiert wurde. GPT-4 versteht nun den gesamten Kontext, der  Copilot soll aber ähnlich wie Chat-GPT 4 funktionieren.  

GPT-3.5 kann ebenso für das Feintuning von ML-Modellen verwendet werden. Eine Einschränkung der älteren Versionen ist jedoch die begrenzte Größe des Kontextbereichs, die manchmal nicht ausreicht. GPT-4 hat größere Kontextbereiche, aber es kann zu Performanceproblemen kommen, besonders am Nachmittag. 

Die Verwendung von Open Data in Chat-GPT ist besonders effektiv, wenn der Datensatz einem Standard folgt, wie z.B. Geodatenstandards. In solchen Fällen kann Chat-GPT direkt nach Beispielen für die Verwendung in einer bestimmten Programmiersprache gefragt werden, was einen schnellen Einblick in die Funktionsweise ermöglicht. Die Herausforderung besteht jedoch bei strukturlosen Daten wie CSV-Dateien ohne sinnvolle Attribute. Große Datensätze mit proprietären Formaten, wie das österreichische GIP, können eine beträchtliche Programmierzeit, oft Wochen, erfordern. 

 

Session 4 – Generative KI in der Stadt Wien von Sindre Wimberger 

Sindre Wimberger, Stadt Wien, gibt einen Überblick über laufende Projekte im Bereich KI und geplante Erweiterungen, damit verbundene Gefahren und Überlegungen, diesen entgegenzuwirken.  

Der KI-Kompass wurde im 1. Quartal 2023 gestartet und stellt ein Kompetenznetzwerk dar, das sich interdisziplinär mit verwaltungsrelevanten Fragestellungen im Zusammenhang mit KI auseinandersetzt. Das Angebot richtet sich an Mitarbeiterinnen und Mitarbeiter der Stadt Wien und schärft die Eigenverantwortung, erhöht die Erfahrung und erweitert die Expertise im Umgang mit KI-Anwendungen. Der Einsatz von generativer KI für dienstliche Zwecke ist im Rahmen der geltenden Rahmenbedingungen erlaubt, wobei die Verantwortung für die Verwendung von KI-generierten Inhalten beim Menschen liegt.