extract from: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Vorschlag für einen Rechtsrahmen für Künstliche Intelligenz

Die Kommission schlägt den ersten Rechtsrahmen für KI vor, der die Risiken von KI berücksichtigt und Europa eine weltweit führende Rolle ermöglicht.

Der Regulierungsvorschlag soll Entwicklern, Anbietern und Nutzern von KI klare Anforderungen und Pflichten für spezifische KI-Anwendungen auferlegen. Gleichzeitig soll der administrative und finanzielle Aufwand für Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), reduziert werden.

Der Vorschlag ist Teil eines umfassenderen KI-Pakets, zu dem auch der aktualisierte Koordinierte Plan für KI gehört. Zusammen gewährleisten der Regulierungsrahmen und der Koordinierte Plan die Sicherheit und die Grundrechte von Menschen und Unternehmen im Bereich KI. Darüber hinaus stärken sie die Akzeptanz, Investitionen und Innovationen im Bereich KI in der gesamten EU.

Warum brauchen wir KI-Regeln?

Die vorgeschlagene KI-Verordnung soll das Vertrauen der Europäer in die Fähigkeiten von KI stärken. Während zahlreiche KI-Systeme nur minimale oder gar keine Risiken bergen und zur Lösung gesellschaftlicher Probleme beitragen, bergen bestimmte KI-Systeme potenzielle Risiken, die gemindert werden müssen, um negative Folgen zu vermeiden.

Ein Problem ist die Schwierigkeit, die Gründe für den Entscheidungsprozess, die Vorhersagen und die nachfolgenden Handlungen eines KI-Systems nachzuvollziehen. Diese Intransparenz könnte die Beurteilung erschweren, ob jemand ungerecht behandelt wurde, beispielsweise bei Einstellungsverfahren oder bei der Beantragung öffentlicher Leistungen.

Obwohl die aktuelle Gesetzgebung einige Schutzmechanismen bietet, wird sie den spezifischen Herausforderungen, die KI-Systeme mit sich bringen können, nur unzureichend gerecht.

Die vorgeschlagenen Vorschriften werden:

Risiken adressieren, die speziell durch KI-Anwendungen entstehen;

eine Liste risikoreicher Anwendungen vorschlagen;

klare Anforderungen an KI-Systeme für risikoreiche Anwendungen festlegen;

spezifische Pflichten für KI-Nutzer und -Anbieter risikoreicher Anwendungen definieren;

eine Konformitätsbewertung vorschlagen, bevor das KI-System in Betrieb genommen oder auf den Markt gebracht wird;

eine Durchsetzung nach der Markteinführung eines solchen KI-Systems vorschlagen;

eine Governance-Struktur auf europäischer und nationaler Ebene vorschlagen.

Der Regulierungsrahmen definiert vier Risikostufen für KI:

Inakzeptables Risiko
Hohes Risiko
Begrenztes Risiko
Minimales oder kein Risiko

Inakzeptables Risiko
Alle KI-Systeme, die als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen gelten, werden verboten – von Social Scoring durch Regierungen bis hin zu Spielzeug mit Sprachassistenten, das zu gefährlichem Verhalten ermutigt.

Hohes Risiko
Zu den als risikoreich eingestuften KI-Systemen gehört KI-Technologie, die in folgenden Bereichen eingesetzt wird:

Kritische Infrastrukturen (z. B. Verkehr), die Leben und Gesundheit der Bürger gefährden könnten;
Bildung oder Berufsausbildung, die den Zugang zu Bildung und den beruflichen Werdegang einer Person bestimmen kann (z. B. Bewertung von Prüfungen);
Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in der roboterassistierten Chirurgie);
Beschäftigung, Mitarbeiterführung und Zugang zur Selbstständigkeit (z. B. Software zur Lebenslaufsortierung im Einstellungsverfahren);
wesentliche private und öffentliche Dienstleistungen (z. B. Kreditscoring, das Bürgern die Möglichkeit eines Kredits verwehrt);
Strafverfolgung, die die Grundrechte der Menschen beeinträchtigen kann (z. B. Bewertung der Zuverlässigkeit von Beweismitteln);
Migrations-, Asyl- und Grenzkontrollmanagement (z. B. Überprüfung der Echtheit von Reisedokumenten);
Rechtspflege und demokratische Prozesse (z. B. Anwendung des Rechts auf einen konkreten Sachverhalt).

Hochrisiko-KI-Systeme unterliegen strengen Auflagen, bevor sie auf den Markt gebracht werden können:

angemessene Systeme zur Risikobewertung und -minderung;
hohe Qualität der Datensätze, die das System speisen, um Risiken und diskriminierende Ergebnisse zu minimieren;
Protokollierung der Aktivitäten, um die Nachverfolgbarkeit der Ergebnisse zu gewährleisten;
ausführliche Dokumentation mit allen notwendigen Informationen über das System und seinen Zweck, damit die Behörden seine Konformität bewerten können;
klare und angemessene Informationen für den Nutzer;
angemessene menschliche Kontrollmaßnahmen zur Risikominimierung;
ein hohes Maß an Robustheit, Sicherheit und Genauigkeit.

Alle biometrischen Fernidentifizierungssysteme gelten als hochriskant und unterliegen strengen Anforderungen. Die Verwendung biometrischer Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist grundsätzlich verboten.

Enge Ausnahmen sind streng definiert und geregelt, beispielsweise wenn dies erforderlich ist, um nach einem vermissten Kind zu suchen, eine konkrete und unmittelbare terroristische Bedrohung abzuwehren oder einen Täter oder Verdächtigen einer schweren Straftat aufzudecken, zu lokalisieren, zu identifizieren oder strafrechtlich zu verfolgen.

Eine solche Nutzung bedarf der Genehmigung durch ein Gericht oder eine andere unabhängige Stelle und unterliegt angemessenen Beschränkungen hinsichtlich Zeit, geografischer Reichweite und der durchsuchten Datenbanken.

Begrenztes Risiko
Begrenztes Risiko bezieht sich auf KI-Systeme mit spezifischen Transparenzpflichten. Bei der Nutzung von KI-Systemen wie Chatbots sollten sich Nutzer bewusst sein, dass sie mit einer Maschine interagieren, damit sie eine fundierte Entscheidung treffen können, ob sie fortfahren oder aufhören.

Minimales oder kein Risiko
Der Vorschlag erlaubt die freie Nutzung von KI mit minimalem Risiko. Dazu gehören Anwendungen wie KI-gestützte Videospiele oder Spamfilter. Die überwiegende Mehrheit der derzeit in der EU eingesetzten KI-Systeme fällt in diese Kategorie.

Das KI-Gesetz verspricht einen angemessenen, risikobasierten Ansatz, der nur dann regulatorische Belastungen auferlegt, wenn ein KI-System voraussichtlich hohe Risiken für Grundrechte und Sicherheit birgt. Die auf bestimmte Sektoren und Anwendungen ausgerichtete Regulierung hat sich vom binären Rahmen mit geringem und hohem Risiko, der im Weißbuch der Kommission zur KI vorgeschlagen wurde, zu einem vierstufigen Risikorahmen entwickelt, der Risiken in vier Kategorien einteilt:

„inakzeptable Risiken“, die zu verbotenen Praktiken führen;
„hohe Risiken“, die strenge Verpflichtungen nach sich ziehen, darunter die Durchführung einer Konformitätsbewertung;
„begrenzte Risiken“ mit entsprechenden Transparenzpflichten; und
„minimale Risiken“, bei denen die Beteiligten ermutigt werden, Verhaltenskodizes zu entwickeln – unabhängig davon, ob sie in der EU oder einem Drittland ansässig sind.
Ein zentraler Punkt, der von Parlament und Rat geprüft wird, sind Systeme, die als mit hohem oder inakzeptablem Risiko behaftet gelten – beispielsweise Systeme für das Social Scoring oder solche, die im Kontext der persönlichen Entwicklung bzw. Bildung mit Kindern interagieren. Dadurch soll die Regulierungsaufsicht auf sensible KI-Systeme beschränkt werden, was zu weniger Beschränkungen für Handel und Nutzung von KI im Binnenmarkt führt. Das KI-Gesetz verspricht einen verhältnismäßigen, risikobasierten Ansatz, der nur dann regulatorische Belastungen auferlegt, wenn ein KI-System voraussichtlich hohe Risiken für die Grundrechte und die Sicherheit birgt. Die auf bestimmte Sektoren und Anwendungen ausgerichtete Regulierung hat sich von dem im Weißbuch der Kommission zur KI vorgeschlagenen binären Rahmen mit geringem und hohem Risiko zu einem vierstufigen Risikorahmen gewandelt, der Risiken in vier Kategorien einteilt: „inakzeptable Risiken“, die zu verbotenen Praktiken führen, „hohe Risiken“, die eine Reihe strenger Verpflichtungen nach sich ziehen, darunter die Durchführung einer Konformitätsbewertung, „begrenzte Risiken“ mit entsprechenden Transparenzpflichten; und „minimale Risiken“, bei denen die Beteiligten ermutigt werden, Verhaltenskodizes zu entwickeln – unabhängig davon, ob sie in der EU oder einem Drittland ansässig sind. Systeme mit hohem oder inakzeptablem Risiko – beispielsweise Systeme für Social Scoring oder Systeme, die im Rahmen der persönlichen Entwicklung bzw. Bildung mit Kindern interagieren – werden ein zentrales Thema sein, das von Parlament und Rat geprüft wird. Es besteht die Hoffnung, dass dieser Ansatz die regulatorische Aufsicht auf sensible KI-Systeme beschränkt und so zu weniger Beschränkungen für den Handel und die Nutzung von KI im Binnenmarkt führt.

  • Ihre Auskunftsersuchen erfassen wir hier: Website öffnen
  • Privacy-kontrolle: Vielen Dank, dass Sie Ihre Datenschutzoptionen festgelegt haben.
Cookies user preferences
We use cookies to ensure you to get the best experience on our website. If you decline the use of cookies, this website may not function as expected.
Accept all
Decline all
Unknown
Unknown
Accept
Decline
Marketing
Set of techniques which have for object the commercial strategy and in particular the market study.
Quantcast
Accept
Decline
Save