Pressemitteilung: Produkthaftung – Rechtssicherheit für Verbraucher*innen bei allen Produkten

Gerade hat die Europäische Kommission ihren Vorschlag zur Überarbeitung der Produkthaftungsrichtlinie und zur Produkthaftung bei Künstlicher Intelligenz vorgestellt. Anna Cavazzini, Grüne Europaabgeordnete und Vorsitzende des Ausschusses für Binnenmarkt und Verbraucherschutz, kommentiert den Vorschlag so:

„Wenn ein Produkt Verbraucherinnen und Verbraucher schädigt, ist es für diese egal, ob dieser Schaden durch ein herkömmliches oder ein smartes Produkt oder durch Software entstanden ist. Sie brauchen Rechtssicherheit, dass jemand für ihren Schaden haftet. Daher begrüße ich den Vorschlag der Europäischen Kommission, der auf den gleichen Schutzstandard für alle Produkte abzielt.

Leider wird es in der Praxis immer noch eine große Anstrengung erfordern, um tatsächlich Schadenersatz zugesprochen zu bekommen. Denn die Verbraucherinnen und Verbraucher müssen weiterhin die Beweislast erbringen, dass ihr Schaden und das fehlerhafte Produkt in Zusammenhang stehen. Da Unternehmen viel mehr Zugänge zu relevanten Informationen und technischen Mitteln haben, um mögliche Schadensursachen zu untersuchen, fordern wir Grüne eine Umkehr der Beweislast zugunsten der Verbraucherinnen und Verbraucher.“

Zum Inhalt des Vorschlags der Überarbeitung der Produkthaftungsrichtlinie

Anwendungsbereich – Die Europäische Kommission schlägt eine notwendige Ausweitung des Anwendungsbereichs vor. Der Anwendungsbereich umfasst nun nicht nur materielle Güter und Elektrizität, sondern auch Produkte mit eingebetteten digitalen Elementen, digitale Fertigungsdateien (z.B. 3D-Drucker), Daten und eigenständige Software (einschließlich KI). Freie und quelloffene Software, die außerhalb einer gewerblichen Tätigkeit entwickelt oder bereitgestellt wird, ist ausgeschlossen. Aufgearbeitete Produkte fallen in den Anwendungsbereich, wenn der Aufbereitende das Produkt wesentlich verändert.

Wer haftet – Der Vorschlag erweitert die Zahl der potenziell haftenden Akteure und gewährleistet dadurch mehr Verbraucherschutz. Der Hersteller haftet immer strikt, aber der Begriff des Herstellers wird erweitert, um z.B. Entwickler und Hersteller fehlerhafter Komponenten (z.B. Entwickler von eingebetteter Software) zu erfassen. Hersteller haften auch für Mängel, die durch Upgrades oder Updates oder maschinell lernende Algorithmen entstehen, wenn sie unter ihrer Kontrolle stehen, sowie für die Nichtbereitstellung von Software-Sicherheitsupdates oder Upgrades, die zur Aufrechterhaltung der Produktsicherheit und zur Behebung von Schwachstellen des Produkts unbedingt erforderlich sind. Für Waren, die von außerhalb der EU kommen, schlägt der überarbeitete Text eine Kaskadenhaftung für verschiedene Wirtschaftsakteure vor: Importeure und Bevollmächtigte, Erfüllungsdienstleister, Händler und Online-Plattformen.

Defekt – Der Begriff wird nachgebessert. Ein Produkt ist fehlerhaft, wenn es nicht die von den Verbraucher*innen erwartete Sicherheit bietet. Um zu wissen, wie weit der Begriff der Sicherheit gefasst ist, müssen wir die Trilog-Vereinbarung über Produktsicherheit abwarten, aber es lassen sich hier wichtige Ergänzungen finden, wie z.B. die Auswirkungen des maschinellen Lernens auf das Produkt und die Anfälligkeit für Cybersicherheit.

Schaden – Der Begriff wird verbessert und fügt zu den Personen- und Sachschäden weitere wesentliche Aspekte hinzu, wie z.B. immaterielle Schäden an der psychischen Gesundheit und Verlust oder Beschädigung von Daten. Wir freuen uns, dass die untere Schwelle für die Geltendmachung von Schadenersatzansprüchen (500 Euro) und die Höchstgrenze für die Entschädigung (70 Mio. Euro) abgeschafft wurden.

Beweislast – Dies ist die schwächste Bestimmung des Vorschlags, denn es gibt keine Umkehr der Beweislast, die nach wie vor auf den Schultern des Geschädigten lastet, der den Schaden, den Mangel und den Kausalzusammenhang zwischen beiden nachweisen muss. Der Vorschlag erleichtert die Beweislast lediglich durch die Vermutung der Mangelhaftigkeit und die Vermutung des Kausalzusammenhangs zwischen Mangel und Schaden. Diese Vermutungen sind jedoch schwerfällig und manchmal kostspielig und zeitaufwendig.

Inhalt des Vorschlags zur Produkthaftung bei Anwendungen von Künstlicher Intelligenz

  1. Der Zweck des Kommissionsvorschlags ist es sicherzustellen, dass Personen, die eine Entschädigung für durch künstliche Intelligenz (KI) verursachte außervertragliche zivilrechtliche Schäden fordern, das gleiche Schutzniveau genießen wie bei Schäden, die nicht durch KI verursacht wurden.
  2. Zu diesem Zweck sollen neue, harmonisierte Regeln für die Offenlegung von Informationen, die zur Begründung eines Anspruchs erforderlich sind, sowie für die Beweislast geschaffen werden.
    1. Zur Offenlegung von Informationen:
      1. Antragsteller können den Anbieter, die Einrichtung mit Anbieterpflichten oder den Nutzer auffordern, Folgendes offenzulegen: Schulungs-, Validierungs- oder Testdatensätze, Informationen aus der technischen Dokumentation, Informationen aus Protokollen, Informationen über Qualitätsmanagementsysteme und Informationen über Abhilfemaßnahmen
      2. Gerichte können die Offenlegung verlangen, wenn der Antragsteller alle Möglichkeiten ausgeschöpft hat und wenn es Beweise dafür gibt, dass der Anspruch plausibel ist. Die Gerichte können auch Sicherstellungsanordnungen treffen.
      3. Die Gerichte sind verpflichtet sicherzustellen, dass nur notwendige/angemessene Daten offengelegt/aufbewahrt werden, um Geschäftsgeheimnisse und vertrauliche Informationen zu schützen.
    2. Zur Beweislast: Wenn die Offenlegungspflichten nicht eingehalten werden, gilt die Vermutung, dass die Sorgfaltspflicht nicht eingehalten wurde. Der Beklagte wird das Recht haben, diese Vermutung zu widerlegen.
    3. Zusammenhang mit dem KI-Gesetz: es besteht die Vermutung, dass die Haftungsregeln auch die Nichteinhaltung der Vorgaben des KI-Gesetzes umfassen, wenn die Nichteinhaltung des KI-Gesetzes nachgewiesen wird und wenn eine Sorgfaltspflicht erforderlich war und wenn der Nachweis des Kausalzusammenhangs eine Erklärung der KI erfordern würde. Bei KI-Systemen mit hohem Risiko wurden keine geeigneten Risikomanagementmaßnahmen ergriffen, die Trainingsdaten waren nicht von ausreichender Qualität, die Transparenzpflichten wurden nicht erfüllt, die menschliche Aufsicht wurde nicht erleichtert, die Sicherheit war unzureichend oder es wurden keine Korrekturmaßnahmen ergriffen.
    4. Es wird angenommen, dass die Benutzer für einen Kausalzusammenhang verantwortlich sind, wenn sie die Gebrauchsanweisungen nicht befolgt haben oder das System nicht relevanten Eingabedaten ausgesetzt haben.
    5. Die Beklagten haben das Recht, diese Vermutungen zu widerlegen.
    6. Grundlage für die Vermutung: wenn die Ausgabe der KI den Schaden verursacht hat und wenn die Nichteinhaltung nachgewiesen ist und eine Sorgfaltspflicht beabsichtigt ist und wenn die Nichteinhaltung einer Sorgfaltspflicht nachgewiesen ist und wenn zur Feststellung des Kausalzusammenhangs eine Erklärung der KI erforderlich wäre.