1 Min. Lesezeit
Zukunftssichernde Datenbestände
Der Wettbewerb um Daten und IT-Ressourcen intensiviert sich zunehmend und damit steigt auch der Druck, die vorhandenen Daten möglichst effektiv zu...
Abbildung 1: bisherige Schritte des AI-Act-Entwurfs (Weitere Informationen finden Sie hier: european legislative obsevatory)
Das Parlament hat spezifische Erwartungen an die KI-Gesetzgebung (künstliche Intelligenz). Es strebt primär an, dass die innerhalb der EU eingesetzten KI-Systeme sicher, transparent, nicht diskriminierend, nachvollziehbar und umweltfreundlich sind. Dabei soll die Überwachung von KI-Systemen durch Menschen erfolgen, um schädliche Auswirkungen zu verhindern. Zudem sucht das Parlament weiterhin nach einer technologieneutralen Definition für KI, die auch für zukünftige KI-Systeme anwendbar ist. Die neuen Vorschriften werden abhängig vom Risikograd der jeweiligen KI-Systeme Verpflichtungen für KI-Anbieter/-Nutzer festlegen. Selbst KI-Systeme mit minimalem Risiko sind davon betroffen.
KI-Systeme mit inakzeptablem Risiko werden verboten. Beispiele hierfür sind kognitive Verhaltensmanipulation von Menschen oder gefährdeten Gruppen. Auch das auf Verhalten und persönlichen Interessen basierende Social Scoring wird untersagt. Es können jedoch bestimmte Ausnahmen gelten, wie beispielsweise die gerichtlich genehmigte Verwendung von "Post"-biometrischen Fernidentifizierungssystemen zur Verfolgung schwerer Straftaten.
KI-Systeme, die ein hohes Risiko für Sicherheit oder Grundrechte darstellen, werden in zwei Kategorien eingeteilt. In Kategorie 1 fallen KI-Systeme, die in Produkten verwendet werden, welche den EU-Produktsicherheitsvorschriften unterliegen, wie Spielzeug, Luftfahrt, Autos, medizinische Geräte und Aufzüge.
In Kategorie 2 fallen KI-Systeme, die in bestimmten Bereichen eingesetzt werden, die in einer EU-Datenbank registriert werden müssen. Diese Bereiche umfassen biometrische Identifizierung, Verwaltung kritischer Infrastrukturen, Bildung, Beschäftigung, Zugang zu Diensten, Rechtsdurchsetzung, Migration und Gesetzesauslegung.
Alle KI-Systeme mit hohem Risiko werden vor ihrer Markteinführung und während ihres gesamten Lebenszyklus bewertet werden müssen.
Abbildung 2: Kategorisierung von Hochrisiko-KI-Systemen
Generative KI-Systeme, z.B. ChatGPT, müssen bestimmten Transparenzanforderungen genügen, wie der Offenlegung, dass der Inhalt von einer KI generiert wurde, der Gestaltung des Modells zur Vermeidung illegaler Inhalte sowie der Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Trainingsdaten.
KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen, damit Nutzer fundierte Entscheidungen treffen können. Nutzer sollten auch darauf hingewiesen werden, wenn sie mit KI interagieren, einschließlich KI-Systemen, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, wie z.B. Deepfakes.
Syncwork hat 20 Jahre Expertise im Data Warehousing, das die Basis für Lösungen der Data Science- und KI-Entwicklungen gelegt hat. Seit 2017 führen wir für unsere Kunden Data Science- und KI-Projekte durch. Hierbei reicht unser Kundenspektrum von mittelständischen Unternehmen bis zu DAX-Konzernen.
Wir beraten zum Thema KI aus unterschiedlichen Perspektiven, ohne den entscheidenden Faktor der Umsetzung aus den Augen zu verlieren. Ein holistischer Ansatz prägt unsere Projektarbeiten in den heterogenen Feldern der KI-Model-Governance, Modellqualitätssicherung, KI-Validierung, Anwendungsentwicklung sowie den Themen Datenversorgung, -aufbereitung und -verarbeitung.
Für die Erprobung erster KI-Use Cases bieten wir unseren Kunden auch unser KI-Labor als flexibles Entwicklungs- und Evaluierungsumfeld an.
Weitere Informationen zu unseren Tätigkeiten und Veröffentlichungen im Themenspektrum KI finden Sie unter https://ai.syncwork.de/#AI-Lab.
1 Min. Lesezeit
Der Wettbewerb um Daten und IT-Ressourcen intensiviert sich zunehmend und damit steigt auch der Druck, die vorhandenen Daten möglichst effektiv zu...
1 Min. Lesezeit
Informelle Tests, die während der Entwicklung durchgeführt werden, sowie sogenannte Dry Runs können den Ressourcenaufwand für die formellen Tests...
1 Min. Lesezeit
Vergabe:Dialog 2022 Datum/Uhrzeit: 18. Mai 2022, 9.00-16.00 Uhr Ort: silent green Kulturquartier (Atelier 2 & 3), Gerichtstraße 35, 13347 Berlin