ChatGPT und Deepseek sind in aller Munde, auch immer mehr Unternehmen setzen auf KI. Doch wie vertrauenswürdig und sicher sind diese Modelle?
Von Martin Stepanek
Künstliche Intelligenz (KI) ist keine Erfindung der 2020er-Jahre, auch wenn der anhaltende Diskurs um mächtige Sprachmodelle wie ChatGPT, Gemini und Deepseek das suggerieren könnte. Mehr oder weniger smarte Algorithmen beeinflussen schon seit Jahrzehnten Energie- und Flugticketpreise, helfen uns bei der Navigation auf der Straße oder berechnen aus Millionen Sensordaten und Tausenden Simulationen die wahrscheinlichste Wetterprognose. Und doch hat sich durch die erwähnten Large Language Models unser Umgang mit KI radikal verändert.
Dass man mit diesen digitalen Helfern plötzlich auf natürliche Weise ein Gespräch führen kann und diese in der Lage sind, auch komplexe Sachverhalte richtig abzuleiten, macht die gezielte Nutzung von KI erstmals der breiten Masse zugänglich. Durch den enormen Datenpool, mit dem diese Sprachmodelle in den vergangenen Jahren gefüttert wurden, sind sie zudem fast universell einsetzbar und lassen herkömmliche Suchmaschinen oft alt aussehen.
Doch das hat seinen Preis. Wim Vanderbauwhede von der University of Glasgow etwa rechnet in einer aktuellen Studie vor, dass der Energieverbrauch für eine KI-gestützte Suchanfrage um das 60- bis 70-fache höher ist als bei einer herkömmlichen Web-Suche. Doch das ist nur ein problematischer Aspekt von vielen, die nicht zuletzt bei den Mitgliedstaaten der Europäischen Union die Alarmglocken schrillen ließen. Mit der im August 2024 in Kraft getretenen KI-Verordnung („AI Act“) wird der Einsatz von KI in vier Risikokategorien mit entsprechend strengen Auflagen unterteilt.
Europas ethische KI
„Im Vergleich zu den USA und China, wo die KI-Entwicklung mit enormer Geschwindigkeit und viel Geld vorangetrieben wird, geht Europa hier einen ganz anderen Weg“, erklärt Günther Kainz, Studienleiter beim Department für Sicherheitsforschung der Universität für Weiterbildung Krems. „Bei uns steht die Sicherheit solcher Systeme und ihre Auswirkungen auf die Gesellschaft viel stärker im Vordergrund. Das reicht von kritischer Infrastruktur über hochsensible Bereiche wie Medizin und Finanzen zu persönlichen Grundrechten am Arbeitsplatz und im privaten Bereich.“
Dass die EU ihre Bürger_innen sowie ihre Infrastruktur vor verantwortungslos eingesetzter KI schützen möchte, ist ein hehres Ziel. Doch kann das in einer globalisierten Welt überhaupt gelingen? Kritische Stimmen warnen zudem davor, Europa könnte durch die strengeren Vorgaben und limitierten Einsatzmöglichkeiten an Tempo und Wettbewerbsfähigkeit verlieren. Die Sorge ist groß, dass Europas KI-Zukunft am Ende erst wieder von Konzernen aus den USA oder China dominiert sein wird.
„Was den Status Quo der Entwicklung betrifft, scheint Europa momentan im Nachteil. Gleichzeitig haben alle KI-Systeme große Probleme, was ihre Vertrauenswürdigkeit, Zuverlässigkeit, aber auch deren Bias, also vorurteilsbehaftete Schlussfolgerungen betrifft“, sagt Kainz. Wenn Europa es schaffe, zum Vorreiter für eine vertrauenswürdige KI zu werden, die ethisch und transparent in klar abgesteckten rechtlichen Rahmen agiere, sei das ein großer Wettbewerbsvorteil, ist Kainz überzeugt. Die technische und regulatorische Kompetenz sei jedenfalls vorhanden. „Die meisten Unternehmen wissen derzeit noch nicht, wie und wo sie KI sinnstiftend und gewinnbringend einsetzen können. Das Rennen ist also noch nicht gelaufen“, ergänzt er.

”
„Wenn Europa es schafft, zum Vorreiter für eine vertrauenswürdige KI zu werden, ist das ein großer Wettbewerbsvorteil.“
Günther Kainz
Die digitalen Agenten
Doch das Thema KI ist weitaus komplexer, als die meisten Menschen es sich aktuell vorstellen können. Denn es geht letztlich nicht um das eine oder andere KI-Modell, darum, ob wir ChatGPT oder Deepseek für eine Suchanfrage nutzen oder mit welchem Bild- oder Videogenerator wir aus unseren Handyaufnahmen lustige, aber wenig originelle Kunstwerke im Stil des japanisches Animationsstudios Ghibli produzieren. Denn künftig werden Milliarden von Geräte und Objekte zu sogenannten „digitalen Agenten“, die miteinander kommunizieren und mithilfe von KI selbstständig Entscheidungen treffen.
„KI-Systeme müssen nicht zwangsläufig Chatbots sein, denen ich Fragen stelle. Sie können auch in unserem Auftrag agieren – Termine aus meinem Kalender heraus ausmachen, oder automatisch Milch bestellen, wenn der Kühlschrank meldet, dass keine mehr da ist“, sagt Alexander Pfeiffer. Der Blockchain- und Smart-Contracts-Experte, der viele Jahre an der Universität für Weiterbildung Krems, aber auch am Massachusetts Institute of Technology (MIT) zu dem Thema forschte, warnt vor den rechtlichen und sicherheitstechnischen Implikationen dieser Interaktionen.
Riskanter Datenaustausch
Denn weder sei global geregelt, wie eindeutige und überprüfbare Identitäten für all diese digitalen Agenten gewährleistet werden können, noch in welcher Form teilweise sensible Daten verschlüsselt, aber gleichzeitig protokolliert übertragen werden. Abgesehen von Rechtsverletzungen, etwa wenn unternehmensinterne Daten in diesem undurchschaubaren System von digitalen Agenten an andere digitale Agenten automatisiert weitergegeben werden, öffne das ein riesiges und absolut unterschätztes Feld von Cybercrime und Manipulationen. Das betreffe sowohl das unternehmerische wie private Umfeld, ist Pfeiffer überzeugt.
Da technische Lösungen wie die digitale Signatur oder anderweitige verschlüsselte Kommunikation bis heute nicht flächendeckend und vor allem nicht länder- und kontintentübergreifend eingesetzt werden, ist der Forscher skeptisch, ob wir als Gesellschaft tatsächlich schon bereit für eine Welt mit zahllosen digitalen Agenten sind, die selbstständig und weitgehend ohne Kontrolle mit sensiblen Daten interagieren. „Technisch gesehen gibt es auch für die digitalen Agenten Lösungen – etwa Smart-Contract-Systeme mit durchdachten und umweltfreundlichen Blockchain-Lösungen“, sagt Pfeiffer.
So weitläufig die Einsatzmöglichkeiten und Ausgestaltungen von Künstlicher Intelligenz sind: Die digitale und Medien-Kompetenz zu stärken, ist auch nach Ansicht von Clemens Appl das Um und Auf, um von den neu vorhandenen KI-Möglichkeiten zu profitieren. „In vielen Bereichen, bis hin zur Wissenschaft, kann KI das Leben viel einfacher und effizienter machen. Darauf zu verzichten, wäre unsinnig“, erklärt der Leiter des Zentrums für Geistiges Eigentum, Medien- und Innovationsrecht der Universität für Weiterbildung Krems. „Gleichzeitig müssen wir die Fähigkeit noch stärker trainieren, KI-generierte Ergebnisse auf ihre Plausibilität zu überprüfen, diese einzuordnen und letztlich zu bewerten.“

”
„Die mangelnde Regelung des undurchschaubaren Systems digitaler Agenten öffnet ein unterschätztes Feld von Cybercrime.“
Alexander Pfeiffer
Mehr Kreativität durch KI
Im Kreativbereich müsse man natürlich die Frage klären, wie Beteiligungsmodelle aussehen, wenn KI-Lösungen auf menschlicher Schöpfungskraft beruhen und jene gleichzeitig zu ersetzen drohen. Abgesehen von der schwierigen Urheberrechtsfrage bei Trainingsdaten, die von KI-Start-ups, aber auch den großen Tech-Konzernen eher unter den Tisch gekehrt werde, gibt es laut Appl aber auch eine positive Kehrseite. „Der Einsatz von KI kann insofern auch wieder zu mehr Kreativität führen, weil er vielen Personen erlaubt, ihre Ideen umzusetzen, die bisher nicht über das nötige Handwerk verfügten - sei es mit Photoshop arbeiten, zu malen oder auch ein Computerprogramm zu schreiben.“
Die Diskussion über die Fehleranfälligkeit von KI-Systemen – bei Sprachmodellen wie ChatGPT spricht man von Halluzinieren, wenn sie faktisch falsche Antworten erfinden – sieht Appl hingegen eine Spur gelassener als so manch anderer. „Auch von einem Menschen bekommt man hin und wieder eine falsche Information. Das Problem ist eher, dass wir Maschinen eine absolute Unfehlbarkeit unterstellen und ihnen vielleicht zu unkritisch vertrauen“, sagt Appl.
Abgesehen davon, dass man mit Maschinen nicht strenger als mit Menschen ins Gericht gehen solle, würden genau diese Fehlbarkeiten aber auch eines besonders deutlich machen: Der Mensch bleibe als Kontrollinstanz unersetzbar, ist Appl überzeugt. „Um diese Rolle wahrnehmen zu können, müssen wir gewisse Grundkompetenzen allerdings weiterhin erlernen, auch wenn wir wissen, dass es Maschinen vielfach besser, jedenfalls aber schneller können als wir“.
Martin Stepanek ist Wissenschaftsjournalist bei der Tageszeitung "Der Standard"
GÜNTHER KAINZ
Mag. Mag. Dr. Günther Kainz, Bakk. ist wissenschaftlicher Mitarbeiter am Department für Sicherheitsforschung der Universität für Weiterbildung Krems. Dort leitet er u.a. das Weiterbildungsstudium „MBA Information Security Management & Cyber Security“.
ALEXANDER PFEIFFER
Mag. Dr. Alexander Pfeiffer, MBA MA ist wissenschaftlicher Mitarbeiter am Zentrum für Angewandte Spieleforschung der Universität für Weiterbildung Krems. Der Blockchain- und Smart-Contracts-Experte forschte auch am Massachusetts Institute of Technology (MIT).
CLEMENS APPL
Der Urheberrechtsspezialist Univ.-Prof. Ing. Dr. Clemens Appl, LL.M. ist Leiter des Zentrums für Geistiges Eigentum, Medien- und Innovationsrecht der Universität für Weiterbildung Krems.
Artikel dieser Ausgabe
Tags