Automatisierung: Wer haftet?

Smartes Fahren, smartes Zuhause, smarte Zukunft: Sensoren automatisieren immer mehr Vorgänge in unserem Leben. Doch die Frage, wer dafür haftet, wenn etwas schiefgeht, ist nicht besonders einfach zu beantworten - und teilweise sogar noch ungeklärt.

Von Fabian Schmid

 

Ein paar Tage lang beherrschten Ende Februar Sensoren die mediale Debatte. Konkret ging es um Abbiegeassistenten für LKWs, die Hindernisse im sogenannten "toten Winkel" erkennen und Fahrer beim Rechtsabbiegen vor diesen warnen. Mehr als 70.000 Menschen unterschrieben nach dem Tod eines neunjährigen Schülers bei einem Abbiegeunfall eine Petition, die für die verpflichtende Nachrüstung mit den Sensoren wirbt. Sie eint die Hoffnung, dass sich Verkehrsunfälle durch technische Hilfsmittel massiv reduzieren lassen.

Tatsächlich gleicht die Fahrt in einem modernen Auto dem Steuern eines älteren Modells nur mehr in seinen Grundzügen. Moderne Fahrzeuge parken automatisch ein oder schalten in eine Art Autopiloten, wenn monotone Fortbewegung wie auf einer Autobahn ansteht. Und das soll nur der Beginn sein: In wenigen Jahren sollen sich Fahrzeuge selbst lenken, der Mensch wird ganz auf seine Rolle als Passagier reduziert werden.

Doch was passiert eigentlich, wenn dann ein Fußgänger zu Tode kommt? Wer ist schuld, wer haftet für den Unfall? Während meistens die Faustregel gilt, dass die Gesetzgebung neuen Technologien hinterher hinkt, hat Deutschland beim autonomen Fahren schon vorausgedacht. Ein Gesetz regelt dort seit Mai 2017, was der Fahrer bei verschiedenen Stufen automatisierter Lenkung tun darf. Die Fähigkeiten der Fahrzeuge werden dabei in unterschiedliche „Levels” unterteilt. Modelle bis zu Level 2 sind bislang schon unterwegs - umfasst werden davon etwa Assistenzsysteme für Autobahnfahren. Ab Level 3 steuert das Fahrzeug meist mehr als der menschliche Fahrer. Level 5 ist dann das komplett autonome Fahren, bei dem nicht einmal mehr ein Lenkrad im Auto existieren müsste.

Fahrer dürften abgelenkt werden
Die deutsche Gesetzgebung sieht vor, dass Fahrer bei Level 3 und Level 4 abgelenkt werden dürfen. Sie können etwa E-Mails schreiben und dabei die Hände vom Lenkrad nehmen. Sie müssen jedoch bereit sein, im Notfall das Fahrzeug wieder zu übernehmen. Konkret gilt das bei der Aufforderung des Computersystems, mit der Situation überfordert zu sein - oder bei klar ersichtlichen Gefahrensituationen, also etwa geplatzten Reifen. Wo genau diese Grenze liegt, ist aber noch unklar. Das dürfte auch so bleiben, denn für diese Stufen existieren noch keine marktreifen Fahrzeuge. Auch in Österreich dürfen Fahrer seit Mitte März die Hände von der Lenkvorrichtung nehmen, wenn ihr Auto selbstständig fahren darf.

“Bei allen Autos, die mindestens ‚Level 3‘ beherrschen, kann sich die Verkehrshaftpflichtversicherung künftig leichter an den Autohersteller wenden”, analysiert die Rechtsanwaltskanzlei Wilde Beuger Solmecke, die sich auf IT-Recht spezialisiert hat, die deutsche Gesetzgebung. Das bedeutet, dass die Haftpflichtversicherung Geld für Schadensersatz oder Schmerzensgeld bei einem Unfall vom Hersteller einfordern kann. Der kann diese Ansprüche wiederum an seine Zulieferer weitergeben, wenn er ihnen Fehler nachweisen kann.

Wem gehören die Daten?
Aber wie ist das umgekehrt: Wem gehören eigentlich die Daten, die durch die Sensoren im Auto generiert werden? Für den IT-Rechtsprofessor Clemens Appl wird die Frage des Dateneigentums in den kommenden Jahren eine immer wichtigere Rolle spielen. Ungeklärt ist etwa, ob der Eigentümer - beispielsweise der Fahrzeughalter - diese Daten verkaufen kann, um Rabatte bei einer Versicherung zu erlangen. Beim Eigentumsrecht sei derzeit „viel im Fluss”, sagt Appl. Aber eine komplette Reform der Materie würde wiederum zu viele offene Fragen generieren. Deshalb denkt Appl nicht, dass das Eigentumsrecht für den digitalen Bereich von Grund auf neu geschaffen werden wird.

Aber nicht nur im Auto sind Menschen künftig von immer mehr Sensoren umgeben. Auch ihr Lebensraum wird langsam, aber sicher zum smarten Zuhause, das voll vernetzt ist. Wenn ein Gerät nicht smart ist, wirkt es schon fast veraltet. Das führt teilweise zu kuriosen Erfindungen, etwa smarten Schuhen, die sich bei fehlendem Update nicht mehr schnüren lassen. Auf Twitter existieren daher schon Accounts wie „Internet of Shit”, die täglich groteske Produkte aus dem Smart Home vorstellen.

Doch dass Glühbirnen, die sich übers Handy steuern lassen, oder Kaffeemaschinen, die man schon zehn Minuten vor der Ankunft daheim einschalten kann, ein (wenn auch geringes) Mehr an Komfort bieten, lässt sich nicht von der Hand weisen. Die unzählbare Menge an Datensätzen, die über die Nutzer gesammelt werden, sorgt dafür, dass sich das Zuhause immer besser auf seine Bewohner einstellt - und dass es für diese theoretisch immer sicherer wird, etwa dank smarter Rauchmelder und vernetzter Überwachungskameras.

Die Frage der Verantwortung
Aber auch hier stellt sich die Frage, wer eigentlich verantwortlich ist, wenn etwas passiert. Bislang ist weltweit kein einziger Todesfall bekannt, der durch Fehler im vernetzten Zuhause passiert ist. Aber größere oder kleinere Missgeschicke erobern fast jede Woche die Schlagzeilen einschlägiger Tech-Medien. Die Palette an potenziellen Fehlern ist nahezu unendlich. Legendär sind Anekdoten von Staubsaugerrobotern, die Hunde- oder Katzenkot in der ganzen Wohnung verteilen. Schon weniger lustig wird es, wenn dank eines Server-Ausfalls plötzlich smarte Türöffner nicht mehr funktionieren oder die Heizung ausfällt.

Als Amazons Clouddienst AWS vor rund zwei Jahren temporär zusammenbrach, saßen einige Nutzer wortwörtlich im Dunkeln: Sie konnten ihre smarten Glühbirnen nicht mehr bedienen. Ähnliches passierte im August 2017 der Firma Lockstat, deren smarte Schlösser nicht mehr sperrten. Für viele Reisende war das eine Katastrophe, da Lockstat gern von Airbnb-Vermietern zum Einsatz gebracht wird - lässt sich das Schloss doch mit einem Zifferncode aufsperren, der Tourist kann also ohne persönliches Treffen sein Ferienappartement betreten.

„Datenschutzrechtliche Spielregeln sind klar, aber bei der wirtschaftlichen Verwertbarkeit von Daten ist noch einiges offen.“

Clemens Appl

Rechtliche Fragen sind hier jedoch nach wie vor Neuland. In den Nutzungsbedingungen der meisten Dienste werden zahlreiche Haftungsgründe ausgeschlossen. Bislang gab es noch keine öffentlichkeitswirksamen Prozesse, in denen Präzedenzfälle verhandelt wurden. Das gilt auch für die Frage des Eigentums an Daten. “Datenschutzrechtliche Spielregeln sind klar, aber bei der wirtschaftlichen Verwertbarkeit von Daten ist noch einiges offen”, sagt Appl. Ein mögliches Problem könnte eine Monopolstellung von Systemherstellern sein, über die Daten aus den einzelnen Anwendungen laufen. Daraus könnte sich laut Appl ein künftiger Regulierungsbedarf ergeben.

Auch Strafrecht erfasst
Aber nicht nur in Kartell- und Eigentums-, sondern auch im Strafrecht ergeben sich neue Probleme. So gab es in den USA bereits eine Reihe von Vorfällen, in denen das smarte Zuhause für häusliche Gewalt pervertiert wurde. Verlassene Ex-Partner terrorisierten so ihre ehemaligen Partnerinnen, beispielsweise indem diese überwacht wurden. Das ist auch in Österreich der Fall, erklärt die Cybercrime-Expertin Edith Huber. Sie hat zahlreiche Gerichtsakten durchforstet und ist dabei auf einen Anstieg an Stalking-Fällen gestoßen, in denen das Smart Home missbraucht wird.

Dabei manipulieren Ex-Partner etwa die Heizung, um Dominanz zu zeigen. Oftmals gibt es laut Huber große Probleme, das schnell abzudrehen, da die Verträge auf den Ex-Partner laufen. Sie empfiehlt daher, nur Systeme zu kaufen, die man auch manuell bedienen oder deaktivieren kann. Außerdem soll man zumindest in den Grundzügen wissen, wie etwas funktioniert, dass der Partner ins eigene Zuhause einbaut.


Clemens Appl

Univ.-Prof. Ing. Dr. Clemens Appl, LL.M. ist Urheberrechtsspezialist und Leiter des jüngst an der Donau-Universität Krems eingerichteten
Zentrums für Geistiges Eigentum, Medien- und Innovationsrecht. Im
Fokus seiner Forschung stehen u. a. das Urheberrecht sowie Daten- und
Softwarerecht. Appl studierte Rechtswissenschaften an der Universität Wien. 

 

Edith Huber

Mag. Dr. Edith Huber forscht seit mehr als 15 Jahren zum Thema Cybercrime und Cybersecurity. An der Donau-Universität Krems leitet sie die Stabsstelle für Forschungsservice und Internationales. Huber studierte an der Sozialwissenschaftlichen Fakultät der Universität Wien.

Weitere Artikel dieser Ausgabe

Zum Anfang der Seite

 

Zum Glossar

Diese Website verwendet Cookies zur Verbesserung Ihrer Nutzererfahrung, für analytische Zwecke zur Optimierung unserer Systeme und für Marketingmaßnahmen. Indem Sie auf „OK" klicken bzw. die Website weiter verwenden, stimmen Sie der Cookie-Nutzung zu. Mehr Information zum Datenschutz.

OK