22.12.2023

Die Eröffnung erfolgte durch Roland Ledinger vom BRZ, der sich an die kepsis vor dem ersten govcamp erinnerte, ob eine sinnvolle Veranstaltung ohne Agenda möglich sei. Mittlerweile hat sich gezeigt, dass viele Anwendungen im Bereich E-Government ihren Ursprung im govcamp haben. Wenn man in die Verwaltung hineinhört, gibt es auch durch die demographische Entwicklung bei den Nutzer_innen und Bediensteten einen riesigen Bedarf an Anwendungen mit KI. 

GR LAbg. Jörg Neumayer erwähnte in seiner Eröffnungsrede, dass die Diskussion um künstliche Intelligenz (KI) seit 70 Jahren geführt wird, aber erst seit einem Jahr durch die gestiegene Neugier der Gesellschaft in der Öffentlichkeit. Diese Neugier kann durch Diskussionen wie im govcamp aufrechterhalten werden und soll den Austausch zum Thema intensivieren. Ein empathischer Rahmen gegenüber Bürger_innen und Auftraggeber_innen ermöglicht es, die eigene Vorgehensweise und Zielsetzung zu reflektieren. 

Als Input stellte das Organisationskomitee unter anderem Fragen nach der Verantwortung, der Unterscheidbarkeit von Mensch und Maschine und Fragen nach dem Urheber_in zur Diskussion. 

 

Bild vom Organisationskomitee - Copyright Rommelt Pineda 

 

 

Session 1 – Info Hazard von Qch3n 

Qch3n wirft die Frage auf, wie der Verwässerung glaubwürdiger Information durch die massenhafte automatisierte Produktion von Inhalten durch KI entgegengewirkt werden kann. Generative Systeme produzieren ständig neue Inhalte. Lange Zeit waren Informationen im Internet vertrauenswürdig oder wurden zumindest so wahrgenommen. Durch automatisierten Content wird die Qualität des Contents verwässert und die Verlässlichkeit/Vertrauenswürdigkeit sinkt. Durch SEO-Optimierung gelangen unzuverlässige Quellen auf höhere Listenplätze bei Suchanfragen. Es entsteht die Befürchtung, dass so gefährliche Informationen an eine breite Masse von User_innen ausgespielt und verbreitet werden.  

Ein Bild, das Kleidung, Im Haus, Person, Text enthält.

Automatisch generierte BeschreibungDas Plenum wirft die Frage auf, ob ein ähnliches Problem nicht auch bei Inhalten besteht, die von menschlichen User_innen erstellt und ohne Screening veröffentlicht werden. 

Es besteht Konsens darüber, dass es auch bei manuell generierten Inhalten schon vor dem Einsatz von KI Probleme gab. Themen und Inhalte, die populär sind, bergen immer eine Gefahr. Neu ist jedoch, dass selbstgenerierter Content keinen grundsätzlichen Sinn hat und nicht objektiv als selbstgeneriert zu erkennen ist. Gleichzeitig wird er massenhaft generiert und ungefiltert ausgespielt, von anderen Algorithmen gepusht und damit einer anderen Zielgruppe ausgespielt.  

Themen, die sich herauskristallisieren sind: 

 1. Wie lösen wir das Problem der Authentizität von Inhalten? 

2. Wie schaffen wir es, die Bevölkerung so früh wie möglich zu schulen, Fake News von authentischen Medien/Quellen zu unterscheiden? Sensibilisierung - ist dies ein Thema der digitalen Kompetenz, das in der Bildung angegangen werden muss? 

Die Diskussion zeigt, dass es wichtig ist, beide Wege parallel zu beschreiten. Die Schaffung einer Synergie zwischen der Entwicklung neuer, problemadäquater Werkzeuge und dem Streben nach einer stetig wachsenden Medienkompetenz ist für die Lösung des Problems unabdingbar. Gleichzeitig gilt es, Interesse für neue Technologien zu wecken, den individuellen Mehrwert ihrer Nutzung zu kommunizieren, Self-Checks zur Überprüfung der eigenen Medienkompetenz anzubieten und diese Themen im Rahmen von Informations- und Bildungsangeboten zu verankern, um kritisches Denken zu forcieren und die notwendige Resilienz im adäquaten Umgang mit innovativen Technologien aufzubauen. 

 

Session 2 – Once Only bei der Single Digital Gateway Regulation. Herausforderungen für KI von Carl-Markus Piswanger - BMF 

Carl-Markus Piswanger vom BMF stellte in dieser Session aktuelle Entwicklungen rund um die Thematiken Once-Only Principle (OOP) und Single Digital Gateway Regulation (SDGR) vor sowie die Nutzung von KI-Ansätzen in der aktuellen, europaweiten Entwicklung. 

A person standing in front of a projector screen

Description automatically generatedZum Eingang stellte Piswanger die beiden zentralen Aspekte OOP und SDGR vor. Das "Once-Only"-Prinzip zielt darauf ab, Informationen nur einmal zu erfassen und effizient zwischen Verwaltungsbereichen zu teilen. Durch die Vermeidung redundanter Datenerfassung sollen bürokratische Prozesse optimiert, Benutzerfreundlichkeit verbessert und Ressourcen eingespart werden. Die Implementierung fördert die Effizienz von Verwaltungsdienstleistungen, minimiert Doppelarbeit, stellt Konsistenz sicher und vereinfacht die Interaktion zwischen Bürger_innen und Verwaltungsbehörden, während Datenschutzbestimmungen eingehalten werden. 

Die Single Digital Gateway-Verordnung ist eine EU-Rechtsvorschrift, die darauf abzielt, bürokratische Hürden für grenzüberschreitenden Zugang zu öffentlichen Dienstleistungen abzubauen. Sie schafft einen einheitlichen digitalen Zugangspunkt, über den Bürger_innen und Unternehmen in der gesamten EU auf Informationen und Dienstleistungen zugreifen können. Diese Maßnahme fördert Digitalisierung, Transparenz und ermöglicht effizienteren Zugriff auf Rechte und Pflichten. Das Ziel der Verordnung ist die Erleichterung der digitalen Interaktion mit öffentlichen Verwaltungen und die Stärkung der EU als digitaler Binnenmarkt. 

Ein Kernbestandteil der österreichischen Umsetzung ist der Register- und Systemverbund (dadeX), eine zentrale Plattform, entwickelt im Auftrag des Bundesministeriums für Finanzen und betrieben vom BRZ. Als Datendrehscheibe ermöglicht er den sicheren Austausch von Daten zwischen verschiedenen Verwaltungsebenen in Österreich. Der Verbund unterstützt das Once-Only-Prinzip, indem er Anwendungen den direkten und sicheren Zugriff auf über 500 Attribute aus verschiedenen Datenquellen ermöglicht. Derzeit sind Quellen wie Unternehmensregister, Firmenbuch und weitere angeschlossen. Seit Mai 2020 in Betrieb, wird der Register- und Systemverbund kontinuierlich um weitere Datenquellen erweitert, unter Berücksichtigung der gesetzlichen Grundlagen für den Datenaustausch. 

Aufbauend auf der dahinterliegenden Gesamtarchitektur geht es im Einzelnen um die Bereitstellung von gemeinsamen Diensten innerhalb der EU. Ein Klassiker in diesem Bereich ist z.B. der Datenaustausch rund um die Thematik e-Procurement. Eine der Herausforderungen im Datenaustausch ist die jeweilige Landessprache. Hier wird aktuell daran gearbeitet, über ein gemeinsames Vocabulary und z.B. zusätzlichen, automatisierten Übersetzungen eine gewisse Harmonisierung herstellen zu können. Ein weiterer essenzieller Aspekt ist der Datenschutz. Daher steht auch die gesamte Entwicklung des EU-weiten Ansatzes unter der Prämisse „Privacy-by-Design“. Generell wurde auch diskutiert, wie sich das Grundverständnis von Daten- und Informationstransfer grundlegend verändert hat. Während früher nur über das „Hin- und Hersenden“ von Daten gesprochen wurde, geht es heute vor allem auch um das Verbleiben der Daten am Ursprungsort und die explizite Freigabe und Verlinkung. Ähnliche Diskussionen finden sich auch in verwandten Domänen, wie z.B. den Data Spaces1 und Gaia-X2. 

 

Session 3 – Open Data Analytics von Andreas Trawöger 

In einem aktuellen Projekt wurde Chat-GPT 4 erfolgreich eingesetzt, um Zugverbindungen in Python-Code umzuwandeln und diesen auf einem Jupyter Notebook auszuführen. Jupyter dient dabei als Entwicklungs- und Dokumentationsumgebung, die die Ausführung und Visualisierung des Codes erleichtert. Der Python-Code wurde in die eigene Jupyter-Umgebung kopiert und direkt ausgeführt. Die Ausgabe des Codes stellte ein Netzwerk bestehend aus Knoten (Stationen) und Kanten (Verbindungen) dar. Die Geopositionen der Stationen wurden dynamisch in den Code integriert. 

Ein entscheidendes Werkzeug in diesem Prozess ist der "Jupyternaut", ein Plugin, das sich nahtlos in Jupyter integriert. Es ermöglicht die Integration von Chatbot-Funktionalität in Jupyter. Im Hintergrund findet die Kommunikation mit Chat-GPT 4 statt, um z.B. Tutorials zu erstellen oder Entwicklungsprobleme zu lösen. 

Im Vergleich zu GPT-3 wurde in der aktuellen Version GPT-4 eine Verbesserung der Codegenerierung festgestellt, insbesondere hinsichtlich der Kompatibilität mit aktuellen Bibliotheken. 

Normalerweise wird bei GPT auf Internetrecherchen verzichtet. Allerdings kann GPT mit Dokumentation gefüttert werden, um nach den neuesten Informationen zu suchen. Es bleibt jedoch unklar, wann genau im Hintergrund auf das Internet zugegriffen wird. Chat-GPT wird mit Informationen bis 2021 trainiert.  

Die Kosten für die Nutzung von GPT-4 belaufen sich auf 24 € pro Monat, während die Kosten für Jupyternaut von den API-Anfragen abhängen und in der Regel niedriger sind als ein GPT-Abonnement. 

Als Alternative zu Chat-GPT-4 wurde auch GitHub Copilot genannt, welches ursprünglich als Code-Vervollständigung Werkzeug konzipiert wurde. GPT-4 versteht nun den gesamten Kontext, der  Copilot soll aber ähnlich wie Chat-GPT 4 funktionieren.  

GPT-3.5 kann ebenso für das Feintuning von ML-Modellen verwendet werden. Eine Einschränkung der älteren Versionen ist jedoch die begrenzte Größe des Kontextbereichs, die manchmal nicht ausreicht. GPT-4 hat größere Kontextbereiche, aber es kann zu Performanceproblemen kommen, besonders am Nachmittag. 

Die Verwendung von Open Data in Chat-GPT ist besonders effektiv, wenn der Datensatz einem Standard folgt, wie z.B. Geodatenstandards. In solchen Fällen kann Chat-GPT direkt nach Beispielen für die Verwendung in einer bestimmten Programmiersprache gefragt werden, was einen schnellen Einblick in die Funktionsweise ermöglicht. Die Herausforderung besteht jedoch bei strukturlosen Daten wie CSV-Dateien ohne sinnvolle Attribute. Große Datensätze mit proprietären Formaten, wie das österreichische GIP, können eine beträchtliche Programmierzeit, oft Wochen, erfordern. 

 

Session 4 – Generative KI in der Stadt Wien von Sindre Wimberger 

Sindre Wimberger, Stadt Wien, gibt einen Überblick über laufende Projekte im Bereich KI und geplante Erweiterungen, damit verbundene Gefahren und Überlegungen, diesen entgegenzuwirken.  

Der KI-Kompass wurde im 1. Quartal 2023 gestartet und stellt ein Kompetenznetzwerk dar, das sich interdisziplinär mit verwaltungsrelevanten Fragestellungen im Zusammenhang mit KI auseinandersetzt. Das Angebot richtet sich an Mitarbeiterinnen und Mitarbeiter der Stadt Wien und schärft die Eigenverantwortung, erhöht die Erfahrung und erweitert die Expertise im Umgang mit KI-Anwendungen. Der Einsatz von generativer KI für dienstliche Zwecke ist im Rahmen der geltenden Rahmenbedingungen erlaubt, wobei die Verantwortung für die Verwendung von KI-generierten Inhalten beim Menschen liegt. 

Als zweite Maßnahme wird KITT, das interne Kompetenz-, Inspirations- und Austauschformat, vorgestellt. Regelmäßige Termine zur Einführung, Inspiration und Herausforderung für Neueinsteiger, zum Erfahrungsaustausch und zur Diskussion aktueller Entwicklungen werden durch ein interaktives und exploratives Format zum Ausprobieren neuer Prompts ergänzt. Derzeit werden 200 Mitarbeiterinnen und Mitarbeiter angesprochen, wobei jeder Termin von 50-100 Teilnehmenden besucht wird. 

Auch die Integration eines eigenen Frontends für OpenAI-Anwendungen, das erhöhten Datenschutz und Sicherheit bieten soll, befindet sich derzeit in der Prototypen- und Entwicklungsphase. 

Das Interesse der Gruppe gilt den Plänen und Zielen inklusive der Umsetzungswege der geplanten Innovationen, insbesondere in Bezug auf Datensicherheit, Anonymisierung, Hosting, Training des Modells, Screening der Prompts und Outputs. 

Folgende Fragen und Herausforderungen bestehen derzeit für die Stadt Wien: Anonymisierung, Mehrwerte im bestehenden Workflow einzuarbeiten, Prompt Formulierungen und Mitarbeiter_innen- Schulungen (Datenanalyse, Inspiration in diversen Bereichen wie z.B. Erstellung von Bewertungsskalen, Verfassen von Anwaltsbriefen). 

 

Session 5 - OPEN DATA FORUM ÖSTERREICH? von Michael Reichart, Bundesrechenzentrum (BRZ) 

Michael Reichart vom Bundesrechenzentrum (BR) berichtete über seine jüngsten Erfahrungen auf der Smart Country Convention 2023 in Berlin. Gerade das Thema Open Data war dort auch in diesem Jahr sehr stark vertreten. Von der kleinen Gemeinde bis zum Bund wird Open Data groß geschrieben. Es wurde auch beschlossen, ein Open Data Forum für Deutschland zu gründen. Die Frage, welche Hr. Reichart mit den Teilnehmer_innen diskutierte, war, ob es auch in Österreich ein entsprechendes Äquivalent braucht. Könnte eine solche Lösung das Open Data Netzwerk in AT nachhaltig stärken oder reichen die etablierten Veranstaltungsformate wie das govcamp vienna oder die Open Data Meet-ups aus? Was braucht die Open Data Community in AT für den nächsten Entwicklungsschritt? 

A person standing in front of a screen

Description automatically generatedIn der Diskussion wurde eine Vielzahl spannender Themen angesprochen, darunter die Intensivierung der Durchführung von Open Data Hackathons, bei denen kreative Köpfe zusammenkommen, um innovative Lösungen durch die Nutzung offener Daten zu entwickeln. Besonderes Augenmerk wurde auf die Erstellung eines Open-Data-Kochbuchs mit Code-Beispielen gelegt, um bewährte Verfahren und Entwicklungsrichtlinien auszutauschen und die Open-Source-Gemeinschaft zu stärken. Die Diskussion über die Trennung von Anwendungen und Code, insbesondere auf Plattformen wie data.gv.at, reflektierte die Bestrebungen, den Zugang zu Open Data zu erleichtern und Entwickler_innen die Möglichkeit zu geben, Anwendungen auf Basis dieser Daten zu erstellen. Ein zentrales Anliegen war die Frage, wo Anwendungen aus Hackathons gehostet werden sollten, um ihre Nachhaltigkeit zu gewährleisten. Dies beinhaltete Überlegungen zu Infrastruktur und Hosting-Optionen, um sicherzustellen, dass innovative Projekte auch nach z.B. Hackathons weiterleben können. Die Diskussion über Standardisierung bezog sich auf die Idee eines deutschen Musterdatenkatalogs, der als Leitfaden für die Struktur und den Austausch von offenen Daten dienen könnte. Ein weiteres Thema war die "4th Wave of Open Data", die sich auf aufkommende Trends wie Low-Code/No-Code-Entwicklungsansätze bezog, um den Zugang zu Datenanalyse und Anwendungsentwicklung zu erleichtern. Die Frage nach den Ressourcen für eigene KI-Berechnungen verdeutlichte das Interesse an künstlicher Intelligenz im Kontext von Open Data. Die Teilnehmer_innen diskutierten über verfügbare Tools und Plattformen sowie darüber, wie Ressourcen optimal genutzt werden können, um datengetriebene KI-Anwendungen zu entwickeln. Die Bereitstellung von Bausteinen wie Jupyter Notebooks wurde als wichtiger Schritt hervorgehoben, um nicht nur Entwickler_innen Werkzeuge für die Arbeit mit offenen Daten an die Hand zu geben. Dennoch wurde auch die Hürde der Interaktion thematisiert und Überlegungen angestellt, wie die Zusammenarbeit und Kommunikation zwischen verschiedenen Akteur_innen verbessert werden kann, um die Potenziale von Open Data voll auszuschöpfen. Insgesamt spiegelt die Bandbreite der behandelten Themen die Komplexität und Dynamik der Open-Data-Community wider. 

Weitere Informationen zu den laufenden Open Data Meet-ups finden sich unter: https://digitales.wien.gv.at/open-data-meetup/ 

 

Session 6 – KI Governance: Künstliche Intelligenz steuern von Gregor Eibl, Universität für Weiterbildung Krems 

Unterschiedliche Player steuern KI auf unterschiedlicher Ebene, um sicherzustellen, dass bei der Gestaltung und Nutzung von KI öffentliche Werte berücksichtigt werden. KI-Governance bezieht sich auf die Normen und Institutionen, die die Entwicklung und den Einsatz von KI bestimmen, sowie auf die politischen und forschungsbezogenen Anstrengungen, die darauf abzielen, dass sie gut funktioniert.  

Gregor Eibl gibt einen Überblick zum AI-Act der EU, einem im Jahr 2021 vorgeschlagenen Gesetz, das 2023 im Europäischen Parlament diskutiert wird. Der Vorschlag zielt darauf ab, KI-Anbieter_innen sowohl innerhalb als auch außerhalb der EU zu regulieren, die ihre Dienste an europäische Benutzer_innen richten. Eine zentrale Komponente des Gesetzes ist die Differenzierung der Regelungen nach verschiedenen Risikostufen. Um die Einhaltung zu gewährleisten, sieht der AI-Act maximale Strafen vor, die bis zu 30 Millionen Euro oder 6% des Umsatzes eines Unternehmens betragen können. Ähnlich wie bei der Datenschutzgrundverordnung (DSGVO) wird versucht, alle Anbieter_innen in die Pflicht zu nehmen, während es gleichzeitig eine besondere Herausforderung für kleinere Anbieter_innen darstellt, Compliance mit dem Gesetz herzustellen. Im Vergleich dazu bietet die aktuelle Executive Order des US-Präsidenten klare Anweisungen an über 50 Bundesbehörden, mehr als 100 spezifische Maßnahmen zu ergreifen. 

Welche Herausforderungen müssen wir uns bei der Steuerung stellen? 

In der Diskussion wurde die Schwierigkeit der Klassifizierung von "Moderate" und "High Risk" in Bezug auf KI-Anwendungen angesprochen. Eine weitere Herausforderung ist die Geschwindigkeit, mit der Regularien aktualisiert werden sollten. Wie können diese Regularien so gestaltet werden, dass sie KMUs nicht von Innovationen abhalten? Es wurde ebenfalls die Gefahr angesprochen, dass die schwierige Definition von künstlicher Intelligenz zu Schlupflöchern führen könnte, durch die sich Unternehmen den Verpflichtungen entziehen könnten. 

Welche Maßnahmen sind auf lokaler, regionaler oder globaler Ebene erforderlich? 

Es wird als Möglichkeit gesehen, Entwicklungen der KI ohne Maßnahmen zu akzeptieren. Der Ansatz der Risikoqualifizierung wird grundsätzlich positiv bewertet. Es wird vorgeschlagen, dass für risikoreiche Anwendungen Daten-Sandboxen der öffentlichen Hand zur Verfügung gestellt werden sollten. Der Regulierungsprozess sollte sich durch schnellere Anpassungen auszeichnen und es wird betont, dass alternative Instrumente zu Verordnungen oder Richtlinien in Betracht gezogen werden sollten. Um mit China und den USA auf Augenhöhe sprechen zu können, wird betont, dass Europa einen höheren Digitalisierungsgrad erreichen muss. Ein längerfristiger Zeithorizont für Strategien in Europa wird empfohlen, ohne sich ausschließlich auf den Zeitraum bis zur nächsten Wahl zu konzentrieren. Der Ansatz des digitalen Humanismus wird für Europa befürwortet. Abschließend wird betont, dass die meisten Maßnahmen auf globaler Ebene beschlossen und umgesetzt werden sollten. 

 

Session 7 – Creative Commons AI von Bernhard Tittelbach 

In dieser Session diskutierten die Teilnehmer_innen über unterschiedlichste Aspekte rund um die Zugänglichkeit zu KI und den zugrunde liegenden Modellen und Tools. Grundlegend war dabei unter anderem die Frage, wo genau der Fokus in Zukunft liegen soll und wie in diesem Zusammenhang die jeweiligen Zielgruppen adressiert werden können. 

A person standing in front of a large screen

Description automatically generatedIm Zuge der Diskussion um den freien Zugang zu KI-Modellen wurde das Unternehmen Hugging Face vorgestellt. Hugging Face stellt Modelle aus dem Forschungsbereich frei zur Verfügung. Generell stellte sich die Frage, wie eine entsprechende Governance und rechtliche Regelungen für Plattformen im Bereich KI aussehen könnten. Die Governance sollte durch klare Richtlinien und eine aktive Beteiligung der Community sichergestellt werden. Ziele könnten sein, die Entwicklung von KI-Technologien zu fördern, den Zugang zu fortgeschrittenen Modellen zu erleichtern und sicherzustellen, dass die Nutzung ethisch und verantwortungsvoll erfolgt. Die Nutzung von Open Source trägt auch dazu bei, die Entwicklung von Unternehmen zu beschleunigen, da sie auf vorhandene Ressourcen und Modelle zurückgreifen können. Eine Herausforderung besteht jedoch darin, eine Monopolisierung zu verhindern. Dies könnte durch die Förderung von Wettbewerb, Interoperabilität und klaren Richtlinien erreicht werden. 

Eine verstärkte Forschungsförderung in diesem Bereich ist daher unerlässlich. Entscheidend ist auch die Kontinuität von Open-Source-Projekten. Eine aktive Community, klare Lizenzen und transparente Entwicklungsprozesse spielen dabei eine wichtige Rolle. Ressourcenprobleme bei Modellberechnungen könnten durch die Nutzung von Cloud-Ressourcen, verteiltes Rechnen und Optimierungsalgorithmen gelöst werden. Die Frage ist nur, wer diese der Allgemeinheit fair zur Verfügung stellt. Ein weiterer Aspekt ist die Frage nach spezialisierten versus allgemeinen Modellen. Die Entscheidung hängt von den Anwendungsfällen ab, wobei spezialisierte Modelle für bestimmte Aufgaben effektiver sein können, während generische Modelle vielseitiger einsetzbar sind. Auch hier stellt sich die Frage nach den Zielgruppen. Während generalisierte Modelle einen breiteren und einfacheren Zugang bieten, sind spezialisierte Modelle oft auf eine kleine (Expert_innen-)Gruppe zugeschnitten. Der gesellschaftliche Wert von KI stand ebenfalls im Mittelpunkt der Diskussion, und es ist wichtig, eine vielfältige Repräsentation sicherzustellen, um verschiedene Perspektiven einzubeziehen. Der Datenschutz spiele ebenfalls eine wichtige Rolle, und die Modelle sollten so gestaltet werden, dass die Datenschutzprinzipien eingehalten werden. Ein weiterer Diskussionspunkt betraf den Aspekt der Plattformen, auf denen Modelle entwickelt und genutzt werden können. Hier wurden unter anderem die Grenzen von Windows angesprochen, da die Hauptentwicklung in Linux-Umgebungen stattfindet und daher eine Äquivalenz in Windows oft nicht gegeben ist, was wiederum die Zugänglichkeit zu KI-Modellen einschränkt. 

 

Session 8 - Menschen in den Mittelpunkt stellen von Christoph Kral 

Christoph Kral von culturehack betont die Notwendigkeit, Mitarbeiter_innen in KI-getriebenen Veränderungsprozessen aktiv einzubeziehen. Der Fokus liegt dabei auf dem Aufbau digitaler Kompetenzen, die aus Wissen, Fertigkeiten und Verhalten bestehen. 

Soziale und emotionale Faktoren spielen eine entscheidende Rolle in Veränderungsprozessen. Der Status der Beteiligten, Gewissheit, Autonomie, Zugehörigkeit und Fairness beeinflussen den Erfolg. Kommunikation, Transparenz, Anerkennung und Ehrlichkeit sind Schlüsselkomponenten, besonders in der Vorbereitung der Mitarbeiter_innen auf schmerzhafte Veränderungen durch KI. Die Frage nach Fairness und Gewissheit im Zusammenhang mit KI stellt eine zusätzliche Herausforderung dar. 

In der Diskussion über die Vorbereitung von Mitarbeiter_innen auf Veränderungen werden Kommunikation und Transparenz als Schlüsselfaktoren betont. Klare und transparente Informationen sollen bereitgestellt werden, um Mitarbeiter_innen mitzunehmen und ihnen die Möglichkeit zur aktiven Beteiligung am Veränderungsprozess zu geben. Anerkennung spielt eine entscheidende Rolle, um ein Gefühl der Zugehörigkeit zu schaffen und alle in Richtung eines gemeinsamen Ziels zu vereinen. Ehrlichkeit wird als grundlegende Tugend hervorgehoben, um Vertrauen aufzubauen, und ein starkes Teamgefühl wird als entscheidend im Veränderungsprozess betrachtet. Die Anwendung von KI, um Fairness in Veränderungsprozessen zu gewährleisten und Unsicherheiten zu reduzieren, wird als zusätzliche Überlegung diskutiert. 

Abschließend erläutert Christoph Kral die Schritte zur Vereinigung von Zielen und Kultur: (1) Konkrete, messbare Ziele und Zweck festlegen, (2) konkretes, beobachtbares Verhalten bestimmen (Leadership, Organisation, Prozesse) und (3) konkrete Bedingungen identifizieren, die diese Verhaltensweisen ermöglichen oder blockieren (siehe auch Abbildung oben). Zwei Gruppen haben dieses Modell erfolgreich angewendet, eine bei der Einführung digitaler Barrierefreiheit und die andere bei der Integration von KI in Unternehmen. Dabei hat sich gezeigt, dass Timeboxing einen klaren Fokus schafft und positives Feedback die Zusammenarbeit verbessert. Zusammenfassend betont Kral die Bedeutung, das Potenzial der Mitarbeiter_innen in der Praxis zu fördern und aktiv mit Klarheit ins Tun zu kommen. 

 

Session 9 KI - „die Lösung“ unserer Probleme - oder selbst „nur“ ein weiteres – sogar demokratiegefährdendes – Problem? von Erich Pekar 

Zentrales Thema der Session war der richtige Einsatz von Technologien. Am Beispiel des autonomen Fahrens wurde die Komplexität der Entscheidungsfindung, insbesondere bei Ausweichmanövern, diskutiert und KI mit ethischen Fragen, wie der Wertigkeit von Leben in verschiedenen Altersgruppen, konfrontiert. Selbst vermeintlich sichere Technologien wie autonome Fahrzeuge können schwere Schäden verursachen, einschließlich tödlicher Unfälle. 

Die Grundsätze der Straßenverkehrsordnung (StVO) gelten auch für KI-Systeme, die sich vertrauenswürdig verhalten und jederzeit anhalten können müssen. Bei Testfahrten sind Testfahrer anwesend, aber mit der Einführung vollautonomer Fahrzeuge stellt sich die Frage der Haftung, insbesondere wenn kein menschlicher Fahrer mehr anwesend ist. Erste Versicherungen werden eingeführt, um finanzielle Schäden abzudecken und den Durchbruch der Technologien zu fördern. 

Ein weiterer Aspekt betrifft den zunehmend realistischen Einsatz von Deep Fakes, deren Auswirkungen auf politische und demokratische Systeme schwer abzuschätzen sind. Im Gesundheitsbereich ergeben sich Herausforderungen, wenn - wie im Beispiel des Krankenversicherungssektors in den USA - KI-Diagnosen von Ärzten widersprochen wird. 

Der Einsatz von KI, die auf historischen Daten basiert, kann problematisch sein, da es schwierig ist, sie auf zukünftige Fragen anzuwenden, insbesondere wenn die Vergangenheit neu definiert wird. 

Die Einführung neuer Technologien hat in der Vergangenheit Ungleichheiten verstärkt, z.B. in der Landwirtschaft oder während der Industrialisierung. IT-Technologien steigern die Produktivität, aber der Trend geht auch dahin, Arbeitskräfte zu ersetzen, was den Verhandlungsdruck auf die Beschäftigten erhöht. Es gibt Technologien, die entweder eine Ergänzung oder ein Ersatz für den Menschen sind, wie z.B. bei Urteilen durch künstliche Intelligenz. Die Herausforderung ist, die Vorteile zu nutzen und gleichzeitig die negativen Auswirkungen durch Regulierung zu kontrollieren. 

Weiterführende Links

Kontakt für Rückfragen

Zum Anfang der Seite