Die EU hat sich dazu entschlossen, die Regulierung von künstlicher Intelligenz voranzutreiben und den AI Act einzuführen. Damit reagiert sie insbesondere auf bedenkliche Praktiken wie die Gesichtserkennung von Suchmaschinen, die die Anonymität und Sicherheit vieler Menschen gefährden. Durch die Verschärfung der Regelungen sollen potenzielle Risiken und Missbrauchsmöglichkeiten in Bezug auf KI minimiert werden.
Inhaltsverzeichnis: Das erwartet Sie in diesem Artikel
Neuer Meilenstein: Weltweit erstes KI-Wirtschaftsgebiet etabliert
Die Europäische Kommission hat bereits am 21. April 2021 einen Gesetzesentwurf zur Regulierung von künstlicher Intelligenz vorgelegt, wodurch die EU zum Pionier in der weltweiten Gesetzgebung in diesem Bereich wird. Nach der Abstimmung des Europäischen Parlaments am 14. Juni 2023 können nun Verhandlungen zwischen der Kommission, dem Parlament und dem Rat starten, um das Gesetz final zu gestalten.
Die Vorschriften für KI in der EU haben das Ziel, die Rechte und Werte der Europäischen Union in Bezug auf Datenschutz und Transparenz zu wahren. Sie fördern den verantwortungsvollen Umgang mit KI-Systemen und stellen sicher, dass Diskriminierung vermieden wird, indem sie auf eine faire und ethische Nutzung von KI abzielen.
Gesetzliche Neuerungen: Was steht zur Debatte?
Das geplante Gesetz zur Regulierung von KI-Systemen berücksichtigt die Vielfalt und Potenziale dieser Technologie. Es definiert KI-Systeme als maschinengestützte Systeme, die in der Lage sind, autonom zu operieren und Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen zu erzeugen, die Auswirkungen auf das physische oder virtuelle Umfeld haben können.
KI-Grenzen überschritten: Verbote für riskante Anwendungen
Ein weiteres Beispiel für zu verbietende KI-Praktiken sind Systeme, die zur automatisierten Diskriminierung von Personen führen können. Solche Systeme könnten voreingenommene Entscheidungen treffen, die auf unfairen Kriterien basieren, wie beispielsweise Rasse, Geschlecht oder sozialer Status. Dadurch wird nicht nur die Sicherheit der Betroffenen gefährdet, sondern es entsteht auch ein erhebliches Risiko für soziale Ungerechtigkeiten und eine Spaltung der Gesellschaft.
- Manipulative KI-Systeme schaden Personen durch unterschwellige Beeinflussungstechniken.
- Durch den Einsatz von Techniken werden bekannte oder prognostizierte Persönlichkeitsmerkmale, soziale oder wirtschaftliche Situationen, das Alter oder körperliche/geistige Fähigkeiten von Personen genutzt, um deren Schwachstellen oder Bedarf an Schutz gezielt auszubeuten.
- Sensible Merkmale wie Geschlecht und ethnische Zugehörigkeit können mithilfe von biometrischen Systemen kategorisiert werden, wobei Algorithmen und Technologien zur Identifizierung und Unterscheidung verwendet werden. Es ist jedoch wichtig zu beachten, dass diese Art der Kategorisierung nicht für therapeutische Zwecke vorgesehen ist, sondern eher für Anwendungen wie Bevölkerungsstatistiken, soziale Studien oder Sicherheitsüberwachung.
- Das Konzept der Systeme zur Bewertung des sozialen Verhaltens bezieht sich auf den Einsatz von Algorithmen und Datenanalysetechniken, um das Verhalten von Menschen in sozialen Situationen zu quantifizieren und zu bewerten. Diese Systeme können in verschiedenen Bereichen eingesetzt werden, wie beispielsweise der Psychologie, der Arbeitsplatzbewertung oder der sozialen Robotik, um fundierte Einschätzungen über das soziale Verhalten von Individuen zu ermöglichen.
- Durch den Einsatz biometrischer Systeme können Personen an öffentlichen Orten in Echtzeit oder nachträglich aus der Ferne identifiziert werden. Diese Systeme basieren auf einzigartigen biologischen Merkmalen, wie z.B. der Iris des Auges oder der Stimme, und ermöglichen eine genaue und sichere Identifikation von Individuen.
- Mithilfe von KI-Systemen werden Profile und Standortinformationen von Individuen analysiert, um präzise Vorhersagen über das Risiko von strafrechtlichem Fehlverhalten oder Rückfälligkeit zu treffen. Diese Technologie kann zur Unterstützung von Strafverfolgungsbehörden und sozialen Diensten eingesetzt werden, um Ressourcen effektiv zu verteilen und präventive Maßnahmen zu ergreifen.
- Durch den Zugriff auf Überwachungskameras können KI-Systeme kontinuierlich Videoaufnahmen analysieren und daraus Datenbanken zur Gesichtserkennung erstellen. Diese Technologie ermöglicht es, die Effektivität von Sicherheitssystemen zu steigern und potenziell verdächtige Personen oder Identitäten zu identifizieren.
- In der heutigen Zeit werden KI-Systeme in der Strafverfolgung, beim Grenzmanagement, am Arbeitsplatz und in Bildungseinrichtungen eingesetzt, um Emotionen zu erkennen. Durch den Einsatz von fortschrittlichen Algorithmen können diese Systeme Gesichter scannen, Tonlagen analysieren und andere emotionale Indikatoren erfassen, um Einblicke in das emotionale Wohlbefinden von Personen zu gewinnen.
Sicherheitsrisiken: Künstliche Intelligenz im Fokus
Der Gesetzesentwurf definiert im Anhang III acht spezifische Kategorien von KI-Systemen, die als hochriskant eingestuft werden, darunter zum Beispiel KI-Systeme zur biometrischen Identifikation oder zur Bewertung von Schul- und Arbeitsleistungen. Unternehmen sollten diese Kategorien genau überprüfen und ihre eigenen KI-Anwendungen daraufhin prüfen, ob sie als hochriskant eingestuft werden könnten.
Differenzierte Anforderungen abhängig vom Risikoniveau
Für die Marktzulassung von KI-Anwendungen müssen verschiedene Kriterien erfüllt werden, um ein angemessenes Maß an Sicherheit und Transparenz zu gewährleisten. Dazu gehören die Aufnahme in eine EU-Datenbank, die Implementierung von Risiko- und Qualitätsmanagementmaßnahmen sowie die Offenlegung der Generierung von Deepfake-Fotos zur Unterscheidung von realen Aufnahmen.
Bürgerförderung und -schutz: Aktualisierte Risikostufen vorgestellt
Der Gesetzesentwurf für risikoarme KI legt hauptsächlich Wert auf die Einhaltung von grundlegenden Prinzipien wie menschliche Aufsicht, technische Robustheit und Schutz vor Schäden und Cyberangriffen. Zudem sind Datenschutzbestimmungen von großer Bedeutung, um die Privatsphäre der Benutzer zu wahren, und Maßnahmen zur Verhinderung von Diskriminierung müssen ebenfalls ergriffen werden.
Um den Fortschritt in der KI-Forschung voranzutreiben, werden gezielte Ausnahmen gewährt, die insbesondere die Förderung von Reallaboren betreffen. Reallabore ermöglichen es Behörden, KI-Anwendungen in realen Szenarien zu erproben und ihre Effektivität sowie ihre Anwendungsbereiche zu überprüfen.
Der AI Act der EU ist eine wegweisende Regulierung, die einen positiven Einfluss auf die Gesellschaft hat. Indem er den Einsatz von KI-Systemen mit bedenklichen Praktiken einschränkt und verbietet, trägt er dazu bei, die Privatsphäre und Sicherheit der Menschen zu schützen. Gleichzeitig stellt der AI Act sicher, dass KI-Technologien den europäischen Werten entsprechen und menschliche Aufsicht gewährleistet ist.
Die Auswirkungen von Gesichtserkennungssoftware wie PimEyes auf die Privatsphäre und Anonymität sind bedenklich, da diese Technologie in der Lage ist, Menschen nahezu überall zu identifizieren. Insbesondere Personen, die aufgrund ihrer Tätigkeiten, wie z.B. Whistleblower oder Aktivisten, auf Anonymität angewiesen sind, sind durch die Verwendung solcher Software gefährdet. Um diesem Problem entgegenzuwirken, hat die Europäische Union den AI Act entwickelt, ein Gesetz, das den Einsatz von künstlicher Intelligenz reguliert und Maßnahmen zum Schutz der Privatsphäre und Anonymität vorsieht.
Die Europäische Union steht kurz davor, einen historischen Schritt zu machen, indem sie als erster Wirtschaftsraum weltweit KI durch gesetzliche Vorschriften reguliert. Mit dem Entwurf des Gesetzes, der von der Europäischen Kommission im April 2021 vorgelegt wurde, und der jüngsten Entscheidung des Europäischen Parlaments im Juni 2023, ist nun der Weg frei für Verhandlungen zwischen Kommission, Parlament und Rat, um das endgültige Gesetz zu gestalten.
Die EU hat Vorschriften eingeführt, um sicherzustellen, dass Künstliche Intelligenz in vollem Umfang den Werten und Prinzipien der Europäischen Union entspricht. Diese Vorschriften umfassen die Gewährleistung einer angemessenen menschlichen Aufsicht über KI-Systeme, die Einhaltung von Sicherheitsstandards, den Schutz der Privatsphäre und Transparenz, die Vermeidung von Diskriminierung sowie den Schutz von Gesellschaft und Umwelt vor potenziellen Risiken.
Beschreibung: Laut dem Europäischen Parlament handelt es sich bei einem KI-System um eine technische Einrichtung, die in der Lage ist, mit unterschiedlichem Grad an Autonomie zu funktionieren und Vorhersagen, Empfehlungen oder Entscheidungen zu generieren, die Auswirkungen auf die physische oder virtuelle Welt haben. Diese breit gefasste Definition umfasst eine Vielzahl von Software-Typen und dient als Grundlage für die Einteilung von KI-Systemen in verschiedene Kategorien entsprechend ihrem potenziellen Gefährdungsgrad.
Laut einer Pressemitteilung sind KI-Praktiken im Fokus, die eine inakzeptable Bedrohung der menschlichen Sicherheit darstellen. Solche Praktiken beinhalten den Einsatz von KI-Systemen, die unterschwellige Beeinflussung oder gezielte Manipulationstechniken nutzen, um Schaden anzurichten, mit Ausnahme von anerkannten therapeutischen Zwecken.
Des Weiteren werden biometrische Systeme genannt, die zur Identifizierung von Personen in Echtzeit oder nachträglich an öffentlichen Orten eingesetzt werden. Solche Technologien erheben große Bedenken hinsichtlich des Datenschutzes und der Missbrauchsgefahr, da sie potenziell die Massenüberwachung und den Verlust der Anonymität fördern könnten.
Im Rahmen des Gesetzesentwurfs werden KI-Systeme, die ein erhebliches Risiko für die Gesundheit, Sicherheit und Grundrechte von Personen oder die Umwelt darstellen, als hochriskant eingestuft. Der Anhang III des Entwurfs enthält acht spezifische Kategorien solcher Systeme, die Unternehmen im Auge behalten sollten, da sie Änderungen unterliegen können, die von der Kommission vorgenommen werden.
Um sicherzustellen, dass KI-Systeme wie Deepfake-Fotos von echten Aufnahmen unterschieden werden können, müssen sie bei bestimmten Anwendungen ihre Generierung offenlegen. Dies ermöglicht eine bessere Identifizierung und Überprüfung der Authentizität von Bildern, die mit Hilfe von KI-Technologien erstellt wurden.
Der Gesetzesentwurf enthält nur wenige Einschränkungen für Künstliche Intelligenz, die als nahezu risikofrei eingestuft wird. Diese KI-Systeme müssen lediglich einige allgemeine Prinzipien beachten, darunter die Sicherstellung menschlicher Kontrolle und Überwachung, technische Zuverlässigkeit, Schutzmechanismen gegen Schäden und Cyberangriffe, die Einhaltung von Datenschutzprinzipien sowie die Vermeidung von Diskriminierung.
Eine mögliche Maßnahme besteht darin, Ausnahmen für Forschungstätigkeiten vorzusehen, bei denen insbesondere Reallabore gefördert werden. Durch die Einrichtung solcher Labore erhalten Behörden die Gelegenheit, KI-Anwendungen unter realen Bedingungen zu erproben und so deren Praxistauglichkeit und potenzielle Auswirkungen zu untersuchen.
Der AI Act, ein umfangreiches Gesetz zur Regulierung von KI-Systemen, bietet erhebliche Vorteile für den Schutz der Privatsphäre und Sicherheit der Menschen. Durch die Einführung von Einschränkungen und Verboten für KI-Systeme mit bedenklichen Praktiken gewährleistet es, dass KI den europäischen Werten entspricht und von menschlicher Aufsicht begleitet wird. Unternehmen sollten die Verordnung frühzeitig prüfen, um mögliche Geldbußen zu vermeiden, die bei der Verwendung nicht konformer KI-Systeme verhängt werden können. Obwohl die Anwendbarkeit der Verordnung voraussichtlich frühestens im Jahr 2026 erfolgt, ist es ratsam, bereits jetzt mit der Vorbereitung auf die neuen Vorschriften zu beginnen.