← Zurück zur Übersicht

2 Min. Lesezeit

KI im Fokus der EU: Wie steht es um den AI-ACT?

KI im Fokus der EU: Wie steht es um den AI-ACT?

Ein Rückblick

Zeitschiene mit Schlüsselereignissen des AI-Act

Abbildung 1: bisherige Schritte des AI-Act-Entwurfs (Weitere Informationen finden Sie hier: european legislative obsevatory)

Das Parlament hat spezifische Erwartungen an die KI-Gesetzgebung (künstliche Intelligenz). Es strebt primär an, dass die innerhalb der EU eingesetzten KI-Systeme sicher, transparent, nicht diskriminierend, nachvollziehbar und umweltfreundlich sind. Dabei soll die Überwachung von KI-Systemen durch Menschen erfolgen, um schädliche Auswirkungen zu verhindern. Zudem sucht das Parlament weiterhin nach einer technologieneutralen Definition für KI, die auch für zukünftige KI-Systeme anwendbar ist. Die neuen Vorschriften werden abhängig vom Risikograd der jeweiligen KI-Systeme Verpflichtungen für KI-Anbieter/-Nutzer festlegen. Selbst KI-Systeme mit minimalem Risiko sind davon betroffen.

KI-Systeme mit inakzeptablem Risiko werden verboten. Beispiele hierfür sind kognitive Verhaltensmanipulation von Menschen oder gefährdeten Gruppen. Auch das auf Verhalten und persönlichen Interessen basierende Social Scoring wird untersagt. Es können jedoch bestimmte Ausnahmen gelten, wie beispielsweise die gerichtlich genehmigte Verwendung von "Post"-biometrischen Fernidentifizierungssystemen zur Verfolgung schwerer Straftaten.

KI-Systeme, die ein hohes Risiko für Sicherheit oder Grundrechte darstellen, werden in zwei Kategorien eingeteilt. In Kategorie 1 fallen KI-Systeme, die in Produkten verwendet werden, welche den EU-Produktsicherheitsvorschriften unterliegen, wie Spielzeug, Luftfahrt, Autos, medizinische Geräte und Aufzüge.

In Kategorie 2 fallen KI-Systeme, die in bestimmten Bereichen eingesetzt werden, die in einer EU-Datenbank registriert werden müssen. Diese Bereiche umfassen biometrische Identifizierung, Verwaltung kritischer Infrastrukturen, Bildung, Beschäftigung, Zugang zu Diensten, Rechtsdurchsetzung, Migration und Gesetzesauslegung.

Alle KI-Systeme mit hohem Risiko werden vor ihrer Markteinführung und während ihres gesamten Lebenszyklus bewertet werden müssen.

Gegenüberstellung von Kategorien von KI-Systemen mit hohem Sicherheitsrisiko

Abbildung 2: Kategorisierung von Hochrisiko-KI-Systemen

Generative KI-Systeme, z.B. ChatGPT, müssen bestimmten Transparenzanforderungen genügen, wie der Offenlegung, dass der Inhalt von einer KI generiert wurde, der Gestaltung des Modells zur Vermeidung illegaler Inhalte sowie der Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Trainingsdaten.

KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen, damit Nutzer fundierte Entscheidungen treffen können. Nutzer sollten auch darauf hingewiesen werden, wenn sie mit KI interagieren, einschließlich KI-Systemen, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, wie z.B. Deepfakes.

Unsere Aktivitäten im Themenfeld Künstlicher Intelligenz

Syncwork hat 20 Jahre Expertise im Data Warehousing, das die Basis für Lösungen der Data Science- und KI-Entwicklungen gelegt hat. Seit 2017 führen wir für unsere Kunden Data Science- und KI-Projekte durch. Hierbei reicht unser Kundenspektrum von mittelständischen Unternehmen bis zu DAX-Konzernen.

Wir beraten zum Thema KI aus unterschiedlichen Perspektiven, ohne den entscheidenden Faktor der Umsetzung aus den Augen zu verlieren. Ein holistischer Ansatz prägt unsere Projektarbeiten in den heterogenen Feldern der KI-Model-Governance, Modellqualitätssicherung, KI-Validierung, Anwendungsentwicklung sowie den Themen Datenversorgung, -aufbereitung und -verarbeitung.

Für die Erprobung erster KI-Use Cases bieten wir unseren Kunden auch unser KI-Labor als flexibles Entwicklungs- und Evaluierungsumfeld an.

Weitere Informationen zu unseren Tätigkeiten und Veröffentlichungen im Themenspektrum KI finden Sie unter https://ai.syncwork.de/#AI-Lab.

Zukunftssichernde Datenbestände

1 Min. Lesezeit

Zukunftssichernde Datenbestände

Der Wettbewerb um Daten und IT-Ressourcen intensiviert sich zunehmend und damit steigt auch der Druck, die vorhandenen Daten möglichst effektiv zu...

Read More
Informelle Tests und Dry Runs

1 Min. Lesezeit

Informelle Tests und Dry Runs

Informelle Tests, die während der Entwicklung durchgeführt werden, sowie sogenannte Dry Runs können den Ressourcenaufwand für die formellen Tests...

Read More
Vergabe:Dialog 2022

1 Min. Lesezeit

Vergabe:Dialog 2022

Vergabe:Dialog 2022 Datum/Uhrzeit: 18. Mai 2022, 9.00-16.00 Uhr Ort: silent green Kulturquartier (Atelier 2 & 3), Gerichtstraße 35, 13347 Berlin

Read More